business intelligence en web 2.0 y análitica web
Post on 15-Feb-2016
245 Views
Preview:
DESCRIPTION
TRANSCRIPT
UNIVERSIDAD PONTIFICIA DE SALAMANCA INGENIERIA EN ORGANIZACIÓN INDUSTRIAL
Campus de Madrid
ESTUDIO ACADÉMICO [ Inteligencia de Negocios ]
Analítica Web y BI en Social
Media
Profesor: D. Luis Joyanes Aguilar Alumno: Gonzalo Plaza Chinchón Expediente: 086032 Email: me@gonzaloplaza.com
16 de junio de 2010
2
Resumen
La evolución de Internet en los últimos años y el aumento exponencial del número de
usuarios que interactúan sobre ésta está suponiendo no sólo cambios sociales sino
además relacionales en la forma en la que las personas se comunican, dando por hecho
que el modelo participativo y democrático sobre el cual está basada la Web 2.0 (o web
social) ha sobrepasado todas las expectativas que se tenían de Internet tras el fracaso de
los modelos de las llamadas "puntocom" de principios de siglo. La Web se ha
convertido por lo tanto, y siguiendo un ritmo vertiginoso en la principal fuente de
información actual a nivel mundial y según afirman los expertos, no tardará en ser el
principal y más efectivo medio de comunicación creado jamás por el hombre.
Con la llegada de la Web 2.0, han surgido cantidad de plataformas que permiten a los
usuarios y a las empresas interactuar de manera social y comunicarse en tiempo real
abriendo paso a una nueva era en la que la información ya no es difundida únicamente
por unos pocos emisores, sino que todos los usuarios son participantes de un entorno
colaborativo donde las reglas del mercado están cambiando. Las empresas que no
utilicen las herramientas adecuadas y no participen en dicha evolución, no podrán
subsistir en el nuevo modelo que se presenta.
Palabras Clave: Social Media, Web 2.0, Web en tiempo real, Redes Sociales, Analítica
Abstract
The evolution of Internet in recent years and the exponential increase in the number of
users who interact on its is not only relational but also social changes in the way people
communicate, assuming that the model of participatory and democratic which is based
Web 2.0 (or social web) has surpassed all expectations that had Internet after the failure
of the models of so-called "dotcom" of the century. The Web has become so, and at a
rapid pace in the current main source of information worldwide and experts say, will
soon be the largest and most effective means of communication ever created by man.
With the advent of Web 2.0, there have been many platforms that allow business users
and interact socially and communicate in real time paving the way for a new era in
which the information is no longer distributed by only a few emitters but that all users
are participants in a collaborative environment where rules of the market are changing.
Companies that do not use the right tools and do not participate in that development
cannot survive in the new model presented.
KeyWords: Social Media, Web 2.0, Real Time Web, Social Networks, Analytics
3
Indice
1. Introducción .................................................................................................................. 4
2. ESTADO DEL ARTE .................................................................................................. 5
2.1. La Web en Tiempo Real ............................................................................................ 5
2.2. El caso de la Web en Tiempo Real y las catástrofes de Haití y Chile. ...................... 7
2.3. El Live Streaming u Online Broadcast como servicio .............................................. 7
2.4. Gestión del seguimiento de información en tiempo real en Twitter .......................... 8
2.5. Medición y Seguimiento del impacto de la marca en la Web 2.0 ........................... 18
2.6. Gestión de situaciones de crisis de marca en la Web 2.0 ........................................ 23
2.7. Herramientas Agregadores o Mashups de Contenidos en tiempo Real................... 25
3. INVESTIGACIÓN ACADÉMICA ............................................................................ 29
3.1. Analítica Web. Técnicas y Herramientas ............................................................... 29
3.2. Omniture SiteCatalyst ............................................................................................. 31
3.3. Google Analytics ..................................................................................................... 33
4. Conclusiones ............................................................................................................... 38
5. Bibliografía ................................................................................................................. 39
4
1. Introducción
La evolución de Internet en los últimos años y el aumento exponencial del número de
usuarios que interactúan sobre ella está suponiendo no sólo cambios sociales sino
además relacionales en la forma en la que las personas se comunican, dando por hecho
que el modelo participativo y democrático sobre el cual está basada la Web 2.0 (o web
social) ha sobrepasado todas las expectativas que se tenían de Internet tras el fracaso de
los modelos de las llamadas "puntocom" de principios de siglo. La Web se ha
convertido por lo tanto, y siguiendo un ritmo vertiginoso en la principal fuente de
información actual a nivel mundial y según afirman los expertos, no tardará en ser el
principal y más efectivo medio de comunicación creado jamás por el hombre. Para
sustentar estas afirmaciones se puede comprobar fácilmente que la cantidad de
información que en todo momento se está publicando y compartiendo en Internet es
muy superior a cualquier otro tipo que use medios físicos o tradicionales para
difundirse, incluyendo en estos los audiovisuales (televisión y radio). En el comienzo de
Internet, el modo en el que se planteó la forma de transmitir y comunicara través de la
Web no era más que una proyección de lo que ya se conocía solo que usando las nuevas
tecnologías para hacerlo más rápido: existían unos pocos emisores que publicaban
información para que fuera leída por un gran número de receptores. La comunicación en
la Web por aquel entonces no era más que otro medio unidireccional y asíncrono en el
cual los lectores, es decir, la gran mayoría de los usuarios no ejercían ningún tipo de
participación: eran meros consumidores.
Tras el paso de los años los avances tecnológicos en las redes de comunicaciones han
permitido que la velocidad con la que la información es transmitida haya aumentado en
el orden de unidades de medida, además de extenderse dicha tecnología a todo tipo de
dispositivos móviles que actualmente pueden estar conectados eficientemente por casi
todo el mundo. Este hecho sumado al aumento exponencial del número de usuarios que
acceden a la Web, y al gran esfuerzo realizado por gran cantidad de empresas y
personas innovadoras ha supuesto que en pocos años se hayan desarrollado no sólo
nuevas tecnologías muy avanzadas sino que además se esté produciendo un verdadero
cambio social en la forma en la que utilizamos y nos relacionamos a través de la red. La
llegada de la Web 2.0 o social por lo tanto sitúa a los usuarios como el centro de la
actividad en la Web y su participación en la misma es la que determina el éxito de la
información publicada y compartida. El usuario de Internet como consecuencia ya no es
tan sólo un consumidor o espectador, sino que forma parte de un sistema bidireccional
en el que emisores y receptores interactúan formando una complicada red más parecida
a la forma de relacionarse natural de la sociedad.
La posibilidad de acceder a Internet de una forma más rápida y menos costosa junto con
algunas características como la difusión del software libre, los modelos de negocio de
servicios "freemium" y las pocas barreras de entrada existentes hacen de Internet un
mercado que se encuentra hoy en día en plena ebullición (o renacimiento). Los usuarios
han encontrado en la Web un medio lleno de posibilidades para satisfacer sus
necesidades y muchas empresas se están encontrando con una gran oportunidad de
ofrecer nuevos servicios adaptados a conceptos como compartir, comunicación, redes
sociales, recomendaciones, geolocalización, etc.
5
2. ESTADO DEL ARTE
2.1. La Web en Tiempo Real
Si nos basamos en datos reales de Internet World Stats y Google, el uso de Internet a
escala mundial había alcanzado a inicios de 2010 a más de 1800 millones de personas,
casí el 27% de la población total cuando un año antes era de un 22% y en 2007 del 16%.
En sólo una década el incremento medio de uso de Internet en todo el mundo fue de casi
un 400%. En 1996 existían apenas 250.000 páginas web, 2'6 millones en 1998, más de
74 millones en 2005 y actualmente hemos sobrepasado las 100 millones de webs activas
en la red. Centrándonos exclusivamente en las redes sociales el 80% de los internautas
pertenece a alguna red social, de los cuales el 60% accede todos los días dedicando un
promedio de 50 minutos. Solamente la red social Facebook ha alcanzado este año los
350 millones de usuarios en todo el mundo, superando por primera vez a Google en
tráfico de datos diario (en Estados Unidos) y creciendo a un ritmo del 999% en 2009
sólo en España. Por otro lado, se prevé que la red de microbloging Twitter se convierta,
si no lo es ya, en el medio de comunicación que más información transmita a tiempo
real y a nivel mundial. Con un número de usuarios superior a los 100 millones, ya se
han sobrepasado los 12.000 millones de 'tweets' o mensajes de 140 caracteres que se
publican a tiempo real por los usuarios. Un dato importante a destacar es que el 55% de
dichos mensajes se transmitieron desde dispositivos móviles, una cifra que aumenta a
medida que los fabricantes de los dispositivos y las compañías telefónicas ofrecen
mayores facilidades y mejores avances en cuanto a conectividad. Un dato interesante de
analizar, según la agencia 101 de medios sociales (Social Media) es que en España la
red Social Tuenti ya ha superado los 7 millones de usuarios (un 80% de los jóvenes
entre 16 y 26 años en España, según datos demográficos del INE). La aplicación para
acceder desde el teléfono móvil a esta red social fue descargada por 43.000 personas en
3 días desde su lanzamiento, aumentando exponencialmente hasta alcanzar un 46%
actual del total de usuarios. Este último dato refleja una clara tendencia al uso de
Internet y concretamente de las redes sociales desde cualquier localización vía
conexiones móviles.
La Web en tiempo Real por lo tanto es la consecuencia de los aspectos comentados
hasta ahora, reflejando de una forma cada vez más clara la necesidad que tienen las
personas no sólo de relacionarse sino de compartir y retransmitir información y
conocimiento. El gran volumen aparentemente descontrolado de información que se
genera sin cesar en la Web se contrarresta mediante los algoritmos cada vez más
complejos e inteligentes de los buscadores, que trabajan por ofrecer resultados lo más
recientes e influyentes posibles. Es por ello que en los últimos meses se hayan
producido por ejemplo acuerdos importantes con Twitter para poder mostrar
información reciente publicada por los usuarios en los resultados de los principales
buscadores (Google y Yahoo). La importancia de disponer de información reciente y
veraz ha sido uno de los mayores objetivos de la sociedad a lo largo del tiempo. Las
empresas requieren tener información actual de los mercados cambiantes para la toma
de decisiones; los medios de comunicación tradicionales basan su estrategia en la
obtención y difusión de noticias y acontecimientos recientes; y los gobiernos necesitan
información actualizada para poder medir el impacto de sus políticas, por poner algunos
ejemplos. Hasta la llegada de Internet y las nuevas tecnologías Web todo este tipo de
información solo era accesible a grupos reducidos e influyentes que la utilizaban para
beneficiarse económicamente y aumentar su poder. La Web no solo ha facilitado el
acceso a información a todo el mundo sino que además ha proporcionado protagonismo
6
a todos aquellos que han querido expresarse. Sin entrar en conceptos como la
Neutralidad de la Red, o libertad de expresión (que algunos gobiernos totalitarios tratan
de censurar), en principio todas las personas que tengan acceso pueden obtener o
publicar información y conocimiento sin ningún tipo de restricción. La información en
tiempo real no sería posible sin este modelo distribuido en el cual los usuarios son los
principales emisores de información y las redes sociales son las plataformas de
comunicación utilizadas para este fin. Además, el gran avance que se está produciendo
en cuanto a interconexión de redes (también llamado interconexión de nubes) facilita
que toda esa información fluya más eficientemente por toda la Web,
independientemente de donde se haya generado.
Otro concepto importante que ya hemos mencionado es el de las redes sociales y la
geolocalización. Según Enrique Dans, profesor de la EOI y experto en el tema, la Web
en tiempo real no tendría sentido si no se pudiera publicar información en cualquier
momento y desde cualquier lugar, y si no se facilitaran los medios tecnológicos
adecuados para ello. Dado que esto último ya es una realidad, y existen tecnologías
especialmente diseñadas para ello el incremento del uso de las redes sociales de
geolocalización está siendo tan elevado como el de las propias redes. De hecho, en poco
tiempo no existirá diferencia entre redes sociales y redes de geolocalización ya que
todas ellas se están rediseñando para permitir un uso híbrido. Gracias a la filosofía del
código abierto y la difusión por parte de los principales servicios de las
llamadas API (Application Programming Interface) es posible actualmente integrar las
ventajas que ofrecen estas plataformas en distintos dispositivos móviles,
independientemente del fabricante o del sistema operativo donde se ejecuten. Este
modelo además está siendo aprovechado por grandes compañías como Nokia, Apple y
Blackberry en lo que se denominan "app stores", que son repositorios de aplicaciones de
terceros (diseñadas por otras empresas o desarrolladores) con el fin de que los
propietarios de sus terminales puedan disponer de un gran abanico de servicios y
herramientas que se ajusten a sus necesidades.
Las API no sólo facilitan el desarrollo de nuevas aplicaciones de escritorio y móviles
para las redes sociales sino que además permiten que los servicios de las mismas estén
interconectados de una forma segura entre ellos. Como ejemplo tenemos los protocolos
de autentificación OAuth, OpenID, Google Authentication, Windows Live ID ó
Facebook Connect, entre otros, que pueden ser utilizados libremente para identificarse
con seguridad en servicios web de terceros sin necesidad de realizar un registro previo y
único para el mismo. Esta estandarización de los protocolos de autentificación permite
además que los datos ya disponibles en una red social puedan ser tratados desde otra y
viceversa, lo que facilita a los usuarios la adaptación a un nuevo servicio. Siguiendo con
el tema de la Web en Tiempo Real, las API abiertas suponen un gran avance en la
rápida difusión de noticias y acontecimientos ya que los mismos pueden ser difundidos
de manera automática a multitud de servicios, lo que llega a más gente.
7
2.2. El caso de la Web en Tiempo Real y las catástrofes de Haití y Chile.
La completa globalización de Internet y en concreto de las redes sociales y los servicios
de publicación en tiempo real está facilitando que casi cualquier acontecimiento
político, social, deportivo o medioambiental esté siendo retransmitido por las propias
personas que los siguen o que están interesadas. El claro ejemplo de la potente utilidad
de las redes sociales en este aspecto se ha visto reflejado tras las últimas catástrofes que
han acontecido tanto en Haití (12 de enero) como en Chile (27 de febrero) en 2010. En
el primer caso, la noticia del terremoto viajó más rápidamente por todo el mundo a
través de las redes sociales que por los propios medios de comunicación tradicionales.
El colapso de la mayoría de los medios y el uso extendido del acceso a Internet desde
los terminales móviles facilitó que cientos de personas afectadas por el terremoto
utilizaran los servicios que la Web 2.0 ofrece para informar al resto del mundo, explicar
sus relatos en primera persona y lo más importante: solicitar ayuda a través de la
geolocalización. La repercusión fue tal, que miles de usuarios de las redes por todo el
mundo ayudaron a difundir estas peticiones de ayuda logrando que todos los mensajes e
información pudiesen llegar hasta los servicios de rescate y al resto de medios de
comunicación. Por otro lado, aparecieron servicios online como el ChilePersonFinder
de Google, que en 72 horas registró hasta 40.000 entradas de personas buscando a sus
seres queridos u ofreciendo información acerca de otros.
A raíz de la implicación de los usuarios en ayudar, mediante los social media, la U.S.
Geological Survey (USGS) de Estados Unidos, organismo científico dedicado al estudio
de los peligros naturales comenzó un proyecto bautizado como Twitter Earthquake
Detection project (TED), que se centra en desarrollar un sistema que registrará todos los
mensajes que aparezcan en twister relacionados con terremotos que acaban de suceder,
ya que la ventaja frente a los estudios es que la información llega antes y permite
conocer la magnitud de los seísmos y sus efectos en la población, a través de las
reacciones públicas instantáneas de las personas que son testigos de la catástrofe.
Con el fin de conocer el comportamiento de los usuarios de Twitter, la empresa
SocialMetrix analizó también la información contenida en este sitio entre el 27 de
febrero y el 2 de marzo obteniendo resultados notables. En su búsqueda de tweets
relacionados con Chile, terremoto, búsqueda de personas, ofrecimiento o petición de
ayuda, SocialMetrix detectó que 7.380 usuarios se involucraron, generando más de
23.313 tweets donde aparece la palabra Chile, 8.965 donde el tema principal es el la
búsqueda de personas y 8.240 relacionados con ayuda a las zonas afectadas
Otras iniciativas como Crisis Response, CrisisWiki, CrisisMappers o Map Maker fueron
intensamente utilizadas en ambas catástrofes por los servicios de emergencia,
voluntarios y ONG’s desplazadas gracias a la generación de mapas (ya existentes
mediante la API de Google Maps) que indicaban las zonas donde se requería ayuda
urgente, o bien donde ya se había prestado, lo que facilitó enormemente la organización
de la ayuda en un escenario caótico como es un país semidestruido y sin comunicación.
Además, a las pocas horas de los acontecimientos ya existían páginas en Wikipedia y
Facebook con información completamente actualizada, lo que sirvió de fuente para
informar al resto del mundo y al resto de medios.
Los servicios de LiveStreaming que cada vez están teniendo más penetración en el
entorno de las redes sociales también cobraron importancia durante los acontecimientos
8
catastróficos que estamos comentando. Como ya hemos visto, el aumento de la
capacidad de transferencia de los datos y de la velocidad a través de la telefonía móvil
ha facilitado que se desarrollen nuevos servicios para emitir videos en directo desde
cualquier localización y sin necesidad de medios avanzados para ello. Algunos medios
como el “Huffingston Post” habilitaron espacios para que cualquier persona afectada
por el terremoto pudiese retransmitir las imágenes de lo que estaba sucediendo en
directo desde sus terminales móviles, hecho sin precedentes que tuvo gran aceptación y
sirvió de gran ayuda al igual que el resto de servicios.
Como conclusión en estos casos podemos afirmar que el uso globalizado de las redes
sociales y los servicios de publicación en tiempo real pueden ser aprovechados
eficientemente para fines de ayuda en casos de emergencia, catástrofes naturales y
apoyo en las tareas de rescate de personas. Por otra parte, la interconexión de las redes
sociales y la facilidad de difusión de la información por los distintos medios sociales
aumentan el potencial de los mismos demostrándose incluso que pueden resultar de
mayor utilizad incluso que los medios de comunicación tradicionales. El reto por lo
tanto de las plataformas y de los servicios web en tiempo real será el de promover aún
más esta capacidad de interconexión entre los mismos además de desarrollar y mejorar
las aplicaciones y herramientas que permitan canalizar los flujos de información que
provienen de los millones de usuarios. El caso de los terremotos de Haití y Chile y el
uso de las redes sociales parecen ser el comienzo de una tendencia que se repetirá en
futuros y desgraciados acontecimientos similares ya que no sólo han facilitado a la
difusión de la información en tiempo real, sino que además han servido como apoyo
real a los servicios de rescate, a la planificación para la distribución de los recursos de
ayuda por parte de las ONG’s y a la búsqueda de personas desaparecidas por parte de
los usuarios. Las redes sociales por lo tanto se consolidan en este aspecto como un
medio o plataforma de comunicación en la que todos los participantes son emisores y
receptores de información. Además, la facilidad que supone transmitir información y
relacionarse con otros usuarios promueve un entorno solidario en el que cualquier
acontecimiento genera una cobertura mundial de ayuda sin precedentes.
2.3. El Live Streaming u Online Broadcast como servicio Web en Tiempo Real
El Streaming se define como la tecnología capaz de retransmitir (descargar y ejecutar
simultáneamente) audio y video desde entornos Web, sin necesidad de alojar los
archivos contenedores de forma local. Los antecedentes de esta tecnología se remontan
a 1995 con la aparición de RealAudio, con la cual los paquetes multimedia recibidos por
el programa cliente desde el servidor eran reproducidos a la misma vez que los
siguientes paquetes se recibían, utilizando una parte de la memoria local de forma
temporal. Para ello, se utilizan protocolos ligeros como son UDP y RTPS, que facilitan
en la medida de lo posible que se establezcan conexiones de flujo de datos continuos
entre ambas partes. Desde su aparición, se han desarrollado multitud de aplicaciones y
herramientas que han facilitado la disusión de contenido multimedia por Internet, pero
no fue hasta la llegada del actual Adobe Flash Player y del servicio Youtube (2005)
hasta que no se ha popularizado mundialmente. El streaming actualmente forma parte
de la red como un elemento comúnmente utilizado en todo tipo de contenidos, pero al
igual que la mayoría de las tecnologías Web que se están comentando, su uso se ha
extendido en buena medida gracias al aumento del ancho de banda de las conexiones a
la Internet.
9
La plataforma YouTube supuso un antes y un después en cuanto a la difusión de
contenidos en la red, ya que los usuarios por primera vez disponían de un servicio
eficiente sobre el cual poder visualizar contenidos multimedia sin necesidad de
descargar los archivos localmente, además de tratarse de un medio social en el cual
también se pueden alojar contenidos de manera sencilla y ágil. El uso de la tecnología
Flash, gracias a la instalación del reproductor en cualquier navegador (independiente
del Sistema Operativo) ha supuesto además una estandarización de facto del mismo, lo
que permite una mayor difusión de los contenidos multimedia por todo el mundo.
Según la Wikipedia, YouTube ha tenido un gran impacto en la cultura popular; prueba
de ello es haber obtenido el premio al «Invento del año», otorgado por la revista
Time en noviembre de 2006. El sitio se convirtió en un medio de retransmisión tan
popular para la difusión de fenómenos de Internet de todo tipo que incluso ha sido
utilizado por importantes personalidades como Barack Obama o Tony Blair, quien
publicó allí su mensaje de felicitación al presidente de Francia, Nicolas Sarkozy, cuando
éste resultó elegido. El sitio es también un medio de promoción para artistas y políticos
en campaña electoral que cuentan con un espacio o canal (channel) propio; tal es el caso
de Citizen Tube, un espacio donde los políticos en campaña para las elecciones
de Estados Unidos exponen en blogs de vídeo sus propuestas y comentarios. De igual
manera, la Comisión Europea puso en marcha un espacio dentro de YouTube para
comunicarse con los ciudadanos.
Entre los distintos factores que han influido en el éxito de YouTube, y de otros servicios
de streaming como Vimeo o Blip.tv se encuentran su excelente ancho de banda para
alojar y servir contenido multimedia, su carácter de red social donde los usuarios
pueden interactuar entre ellos, puntuar y comentar los videos y su API externa y abierta
para que los contenidos puedan ser incrustados fácilmente en cualquier sitio web, sin
necesidad de tener conocimientos de programación. Estos factores se unen además a los
acuerdos con los principales medios de comunicación y empresas discográficas con el
fin de evitar problemas legales referentes a derechos de autor. Los acuerdos han
permitido que los contenidos multimedia antes compartidos por los propios usuarios, se
realicen de forma más ordenada por los medios propietarios que lo hacen aumentando la
calidad de los videos y respetando su imagen comercial.
El Streaming en tiempo real o Live Streaming es la evolución de los servicios que
estamos comentando permitiendo la emisión de imágenes en directo vía Web desde un
equipo remoto conectado a Internet. En principio cualquier equipo con una conexión de
banda ancha puede transmitir video eficazmente, pero los últimos avances además
permiten que se pueda hacer Live Streaming desde dispositivos móviles, lo que ha
aumentado su atractivo, sobretodo en la Web en tiempo real. La posibilidad por lo tanto
de publicar contenido multimedia en los principales servicios aumenta aún más el
potencial del contenido compartido por los miles de usuarios activos en la Web 2.0.
10
A continuación se enumeran los principales servicios de Live Streaming:
Tabla 1. Comparativa servicios Live Streaming. Fuente: http://www.masternewmedia.org/
El Live Streaming móvil encuentra su aplicación en las redes sociales, orientadas como
ya se ha comentado a publicar contenido lo más actualizado posible. De este modo, una
persona puede estar grabando con su dispositivo móvil un acontecimiento y transmitirlo
en directo a través de un servicio de Streaming en tiempo real, que automáticamente
difunde el contenido, normalmente un enlace al video, por las principales redes sociales
a las que el usuario esté conectado. Los servicios más importantes actualmente para
realizar emisión en directo son UStream Live Broadcaster, Justin.tv y Qik,
mundialmente utilizados para todo tipo de contenidos, acontecimientos, eventos y video
blogs en directo, en algunos casos con una calidad excelente. Gracias a esta tecnología,
cada vez es más común que los eventos, conferencias de empresas o universidades sean
retransmitidos y seguidos en directo por un gran número de asistentes virtuales que no
hayan podido desplazarse hasta los mismos. En España cabe destacar la primera agencia
de noticias que basa su contenido en emisiones en directo de los principales eventos. Se
llama Agora News y actualmente está teniendo un gran impacto entre los usuarios de las
redes sociales que siguen los contenidos. Cada vez que hay un evento importante, las
cámaras de esta agencia se desplazan hasta el evento y comienzan a emitir, además de
publicar el enlace a la transmisión por las principales redes en tiempo real como
Twitter.
11
2.4. Gestión del seguimiento de información en tiempo real en Twitter.
En la última conferencia celebrada en San Francisco en abril de 2010 por Twitter, los
fundadores (Ev Williams y Ryan Sarver) dieron a conocer los datos que reflejan la
importancia de la red social que está revolucionando el mundo de Internet y de la
comunicación. Algunos de los más importantes se enumeran a continuación:
- Más de 105 millones usuarios registrados
- 180 millones de visitantes únicos mensuales al sitio.
- 300.000 nuevos registros al día.
- El 60% del crecimiento de Twitter es exterior a EEUU.
- 3.000 millones de peticiones al API de Twitter al día.
- El 37% de los usuarios activos publican desde un teléfono móvil.
- 55 millones de tweets son enviados cada día, la gran mayoría de forma pública
- Se realizan 600 millones de búsquedas al día.
Estos datos, oficiales por primera vez llegan para justificar noticias como que la
Biblioteca Nacional del Congreso de los EEUU haya adquirido la custodia de la base de
datos de todos los mensajes enviados en la red social desde su lanzamiento en 2006 y en
adelante, o que Google esté desarrollando importantes mejoras en su buscador que
permitan mostrar resultados actualizados de los temas de tendencia (topic trends).
Actualmente se puede afirmar que Twitter está revolucionando Internet y el mundo de
la comunicación abriendo paso a un nuevo modelo de consumo y producción de
información. Todos los medios de noticias ya referencian a la red social como fuente de
información, además de publicar en la misma, y cada vez es más frecuente que el origen
de muchas noticias sea el propio Twitter. Una de las principales razones que están
acelerando estos hechos, aparte del exponencial aumento de usuarios de la red, es la
capacidad que tiene Twitter de actuar como agregador de información desde cualquier
parte de la web o aplicaciones externas. Gracias a su API avanzada y abierta, es posible
publicar información en una cuenta de Twitter desde cualquier otra parte y de un modo
sencillo, lo que permite difundir la información rápidamente por la red. Como
consecuencia de esto, y debido a la limitación de 140 caracteres que se presenta, en los
últimos dos años han aparecido diversos servicios de reducción del tamaño de las URLs
(acortadores de direcciones), que permiten reducir largas rutas hacia un artículo, blog,
noticia o video en unos pocos caracteres. Actualmente se calcula que el 95% de los
millones de enlaces que se publican en Twitter están acortados por servicios como
Bit.ly o Goo.gl. A continuación se muestran algunas ventajas e inconvenientes de éste
tipo de servicios.
- Ventajas: Los acortadores de direcciones permiten gestionar largas direcciones
con muchos caracteres de manera más ágil en el entorno de las redes sociales. Su
reducido tamaño es más estético y fácil de difundir. Los servicios existentes
permiten hacer un seguimiento estadístico del número de accesos al link, así
como un estudio analítico de su difusión por las redes sociales.
- Inconvenientes: Es evidente que la redirección a un sitio web concreto ralentiza
la velocidad de acceso en lugar de hacerlo directamente. Pueden plantearse
problemas de seguridad al acceder a un link del cual no se conoce el destino de
antemano (es importante utilizar un servicio reconocido). La mayor parte de los
12
links en las redes sociales están acortados con un servicio, y dependen de éste
para su funcionamiento: si el servicio se cae temporalmente o se cierra
definitivamente, millones de enlaces quedarían inutilizados.
Realizar un seguimiento de la información de interés en Twitter es posible no sólo por
la estructura funcional de la red social, sino que además alrededor de la misma han
surgido multitud de servicios de terceros que ofrecen la posibilidad de utilizar toda la
información que se publica en tiempo real, de una forma analítica para ser aprovechada
por ejemplo para estudios de mercado o análisis de tendencias en la Web. La mayoría de
estos servicios, algunos de ellos analizados a continuación, son utilizados actualmente
por empresas para obtener sobretodo opiniones y comentarios de los miles de usuarios
que publican en la red. Twitter se ha convertido por lo tanto en un punto de referencia
para el estudio de los temas más importantes e intereses del momento.
A continuación, se detallan algunos servicios que pueden ser utilizados por las empresas
para realizar un seguimiento de información sobre cualquier temática, y para conocer en
tiempo real cómo se desarrollan diferentes tendencias.
2.4.1. Twitter Search
Se trata de la herramienta que la propia red social ofrece para realizar búsquedas
internas a nivel mundial sobre cualquier palabra o conjunto de palabras claves. También
es posible realizar búsquedas filtradas por localización, por fuente de publicación
(propia web o aplicaciones externas), o incluso que mencionen a personas concretas de
la red. Como ya se ha comentado anteriormente, Twitter ofrece una potente API para
que estos datos puedan ser exportados a otro formato, aplicación o base de datos. Para
diseñar búsquedas efectivas, se pueden utilizar además operadores condicionales,
fragmentos de palabras, fechas y horas o referencias a frases exactas. La herramienta,
además de ser la oficial es muy útil para ser utilizada en aplicaciones externas. A
continuación se muestran los operadores de búsqueda dentro de la red:
Operador Búsqueda
Palabra1 palabra2 Tweets con referencia a ambas palabras
“frase uno” Tweets que contienen exactamente “frase uno”
Palabra1 OR
palabra2
Operador condicional, tweets que contienen “palabra1” o
“palabra2”
Palabra1 –palabra2 Contienen “palabra1” pero no “palabra2”
From:usuario Tweets enviados por “usuario”
To:usuario Tweets que mencionen a “usuario”
Palabra
near:”ciudad”
Tweets que contengan “palabra” enviados desde o cerca de
“ciudad”
Palabra since:yyyy-
mm-dd
Tweets que contengan “palabra” enviados desde una fecha
concreta
Palabra until:yyyy-
mm-dd
Tweets que contengan “palabra” enviados en una fecha
concreta
Palabra filter:links Tweets que contengan “palabra” y enlaces
Palabra source:app Tweets que contengan “palabra” y hayan sido enviados
desde una aplicación concreta Tabla 2. Operadores de búsqueda en Twitter. Fuente (Twitter Search)
13
2.4.2. Tweetzi
Es una herramienta alternativa al buscador oficial de Twitter (Twitter Search), que
permite realizar búsquedas rápidas, y a nivel global sobre determinados temas de
conversación en Twitter, al estilo de un buscador tradicional como Google. También
permite consultar los temas más populares del momento (Trending topics).
2.4.3. Tweet Volume
A diferencia de otras aplicaciones de búsqueda de mensajes (tweets), ésta aplicación
permite medir en tiempo real el número de veces que una palabra ha sido mencionada
en la red social, pudiendo filtrar por fechas, y además comparar varias palabras y su
evolución a lo largo del tiempo.
2.4.4. Social Ping
Se trata de un servicio de monitorización de empresas y marcas en Twitter. Con esta
herramienta, se puede realizar un seguimiento exhaustivo de todas las menciones que
una o varias palabras clave en concreto tienen en la red social. El servicio permite un
análisis gracias a su funcionalidad de informes y envío de alertas en tiempo real.
Permite monitorizar los términos deseados, sobre los cuales va generando gráficos
cronológicos que se envían por correo electrónico, o mediante mensajes directos en
Twitter, e incluso SMS. Entre las funcionalidades proyectadas está la posibilidad de
monitorizar clicks en las urls especificadas, lo que permite conocer la repercusión de
una marca, producto o servicio.
Para su uso será necesario dar de alta una palabra o frase a monitorizar, y los datos
comenzarán a aparecer casi al instante en el Panel de Control o Dashboard, mostrando
el número de tweets coincidentes en las últimas 24 horas, e incluso una estimación del
número de seguidores a los que han llegado. Social Ping ofrece también datos
estadísticos sobre los usuarios que más han mencionado las palabras clave, con lo que,
en caso de estar monitorizando una marca, se dispondrá de una información muy valiosa
sobre quiénes son los potenciales consumidores o clientes de la misma.
14
Imagen: Dashboard SocialPing. Fuente: SocialPing.com
Existen multitud de herramientas que permiten realizar una monitorización en tiempo
real de una marca o palabra clave, y su uso aumenta al mismo ritmo que el de las redes
sociales como Twitter. Cada vez las marcas están más concienciadas sobre ello,
valorando el potencial que este tipo de herramientas ofrecen a la hora de tomar
decisiones. La evolución del Web Mining, orientado a la Web 2.0 se encuentra en éste
tipo de herramientas.
2.4.5. Trendistic
Es una herramienta que permite analizar y realizar un seguimiento de los temas más
populares en Twitter a nivel global, pudiendo obtener gráficas que demuestran el
impacto de los mismos a lo largo del tiempo. Esta herramienta resulta muy útil para las
empresas que desean conocer el impacto del lanzamiento de un nuevo producto, la
reacción a una noticia sobre ellos, etc.
Imagen: Trendistic. Fuente: trendistic.com
15
2.4.6. TweetStats
Mediante ésta herramienta, es posible generar un informe estadístico de actividad de
determinados usuarios o cuentas de Twitter, pudiendo obtener datos de interés acerca de
la densidad de uso del servicio, número de menciones a otros usuarios, número de
réplica de mensajes e incluso una media del número de actualizaciones por intervalos de
tiempo o de uso de aplicaciones externas (clientes para móvil, para escritorio, web, etc)
Gráfico. Densidad de actividad en Twitter para una cuenta. Fuente: tweetstats.com
Para una empresa con actividad en la red social Twitter, puede ser de utilidad conocer el
nivel de uso de la misma de sus seguidores (o clientes potenciales), para poder conocer
mejor el perfil de los mismos y ajustar su estrategia de Marketing Online que atraiga al
mayor número de personas hacia la marca.
Según vemos en las siguientes imágenes obtenidas de la propia herramienta (para el
caso de una cuenta real de Twitter), se pueden obtener datos concretos de la franja
horaria en la que un determinado usuario hacer mayor uso de su cuenta, con lo cual una
determinada empresa quisiera que sus actualizaciones tuvieran influencia sobre el
usuario, ésta debería de mostrar sus mensajes en dicho intervalo de tiempo.
Fuente: tweetstat.com
16
2.4.7. TweetMeme
El uso de enlaces (links) a páginas externas en Twitter es tan elevado, que según datos
oficiales (Conferencia Chrip, 2010), el 57% de los mensajes enviados por los usuarios
enlazan a webs externas, principalmente noticias y artículos de blogs. Es por ello que a
lo largo de los últimos meses hayan proliferado cantidad de servicios como TweetMeme
(además de los acortadores de URLs anteriormente mencionados) que permiten
gestionar el modo de enlazar cualquier contenido de la red hacia Twitter. En el caso de
ésta herramienta, la API ofrece que se pueda incluir un botón en cualquier web que
automáticamente (a través de la cuenta del propio usuario que lo utilice) publique la
información en la red social.
En concreto, TweetMeme es el servicio más utilizado del mundo y actualmente medios
digitales importantes como Elmundo.es o TechCrunch lo usan nativamente en todas sus
noticias. Esto les permite que su información y noticias sean rápidamente compartidas
en algunos casos por miles de usuarios en sus cuentas de Twitter, generando una
difusión de tipo CrowdSourcing (los propios lectores patrocinan el medio de manera
voluntaria). Además, debido al éxito y el elevado uso de la herramienta, a través de su
portal se pueden consultar los enlaces y noticias más populares del momento,
información que puede ser utilizada por las empresas para analizar de forma veraz
cuáles son los temas que más interesan al público en tiempo real, pudiendo filtrar dicha
información por el tipo de contenido, por ejemplo.
Temas más enlazados en Twitter. Fuente: TweetMeme.com
17
2.4.8. MyTwitterCloud
Al igual que existen cantidad de herramientas para realizar búsquedas y seguimiento de
información por palabras clave, por temas populares, por actividad de usuarios, también
han surgido herramientas que permiten realizar búsquedas de usuarios concretos dentro
de Twitter. Éste tipo de servicios son muy populares ya que la mayoría de usuarios o
empresas prefieren preseleccionar el tipo de usuarios a seguir, ya sea por su perfil
profesional o por la temática o sector sobre el que escribe el usuario.
MyTwitterCloud es una herramienta creada en España y en uso a nivel internacional,
que permite encontrar usuarios dentro de Twitter dependiendo del sector al que
pertenezcan o bien filtrados por el modo en que los demás usuarios les han “etiquetado”
en sus listas personales y por su nivel de influencia. La herramienta es muy útil ya que
permite encontrar fácilmente listados de usuarios que se dediquen por ejemplo al
desarrollo web, al marketing, o que sean empresarios del sector de Internet ubicados en
España.
Según se ha podido conocer, algunos departamentos de Recursos Humanos utilizan éste
tipo de herramientas para buscar posibles empleados.
Imagen: Búsqueda de usuarios. Fuente: Mytwittercloud.com
2.4.9. Conclusiones acerca del uso de Twitter por la empresa:
La posibilidad tecnológica que ofrece Internet y en concreto Twitter para analizar
temáticas y palabras utilizadas en la red social en tiempo real está permitiendo que
muchas empresas hagan uso de dicha red para mantenerse informadas de la influencia
que acontecimientos y promociones de productos tienen sobre el público (en estadísticas
sobre millones de usuarios) y del impacto que tiene su propia marca sobre el mercado.
Este hecho está cambiando la forma en la cual muchas compañías realizan estudios de
mercado además de adaptar su forma de hacer marketing. Las redes sociales, y en
18
concreto Twitter posibilita que éste marketing sea bidireccional (siguiendo la filosofía
de la Web Social o 2.0), y por lo tanto la forma de comunicarse con los clientes o con
segmentos determinados (nichos de mercado) cambie para adaptarse a los nuevos
tiempos. Las empresas que utilizan Twitter para consultar a sus clientes y comunicarse
con ellos, como es el caso de la americana Dell Computers, están comenzando a percibir
un retorno de inversión (ROI) elevado sobre su inversión en actividades de Social
Media Marketing, aumentando tanto su margen de venta de productos como de su
imagen en los consumidores, que se muestran menos reacios a la publicidad en
entornos de redes sociales.
La gestión de la reputación online es otra de las actividades que muchas empresas están
comenzando a medir gracias a herramientas como Twitter.
2.5. Medición y seguimiento del impacto de la marca en las Redes Sociales
Como ya hemos comentado, el auge del uso de los medios sociales ha cambiado la
forma en la que los usuarios se comunican con las empresas y el modo en que éstas
realizan sus campañas de promoción y comunicación con sus clientes. Las redes
sociales son un fenómeno imparable que crece de forma exponencial y sobre el que las
empresas deben adaptarse y participar, ya que los medios tradicionales de publicidad,
además de ser cada vez menos efectivos sobre el mercado, no proporcionan a los
consumidores y clientes las herramientas necesarias para comunicarse que si permiten
los entornos sociales de la Web 2.0.
Es por ello que una empresa comprometida con el seguimiento de su imagen y de su
relación con los clientes debe posicionarse en la web de tal manera que sea posible
medir su grado de influencia sobre los consumidores, siendo el mejor lugar para hacerlo
los medios sociales como Blogs, redes sociales y redes de microblogging. La imagen
que una empresa tiene en la Web 2.0 está directamente relacionada con su reputación, y
la medición, seguimiento y participación será muy necesaria si ésta quiere adaptarse a
un nuevo modelo de mercado en el que la relación cliente-empresa toma más
importancia que nunca. Las plataformas 2.0 más populares como son las Redes Sociales
no paran de crecer, y sus usuarios como ya se ha comentado son los principales actores
que publican, comparten y opinan acerca de todo lo que les interesa, incluyendo su
percepción de las empresas o productos en los que están interesados. Estos comentarios
y opiniones podrán ser buenos si están satisfechos, o podrán ser negativos para la
empresa si los clientes no están satisfechos con el trato recibido o con la calidad de los
productos que han comprado, por ejemplo. Las empresas que se encuentren activas en la
Web 2.0 tendrán la oportunidad no solo de medir dichos comentarios para analizar su
reputación sino que además estarán obligadas a establecer nuevas vías de comunicación
con los clientes que les permita mantener y difundir su estrategia de imagen.
La Inteligencia de Negocios por lo tanto no se centrará únicamente en recoger y analizar
datos de la Web sino que además servirá para que las empresas tomen decisiones
estratégicas más rápidamente y de una forma más realista en función de la influencia
que su marca tenga sobre sus clientes potenciales o consumidores, que en gran cantidad
serán activos en las redes sociales. Las empresas más pequeñas, orientadas a pequeños
nichos de mercado también podrán aprovecharse de la Web 2.0 para realizar un
19
seguimiento de la información que circula sobre su nicho, además de poder analizar las
costumbres de sus clientes potenciales.
Es por ello que a lo largo de la expansión de los medios sociales hayan surgido
herramientas de análisis para medir el impacto de las marcas en tiempo real en las
principales plataformas de la Web 2.0: blogs, redes sociales y microblogging.
Una de estas herramientas es SocialMention, que permite medir en tiempo real el
número de menciones que un tema determinado tiene en toda la web,
independientemente de su fuente, además de generar una serie de informes que permiten
interpretar dichos datos con el fin de que las empresas puedan tomar decisiones al
respecto. A continuación, se muestra una imagen de éste servicio al consultar acerca de
la marca “vodafone” y su impacto reciente en la Web:
Imagen: Búsqueda con SocialMention. Fuente: Socialmention.com
La búsqueda se puede filtrar por Blogs, Microblogs, Networks, Bookmarks,
Comentarios, Eventos, Imágenes, Noticias, Videos, Audio, Preguntas o aplicar todos
ellos a la exploración. Un vez que realizas la búsqueda te lista todos los resultados
encontrados, y te muestra una serie de indicadores mediante los que te permite realizar
un análisis genérico de tu influencia en los medios sociales. Que son:
Fuerza: Que es la probabilidad de que se esté hablando de la marca en medios
sociales.Y es resultado de dividir la mención/menciones que haya en el plazo de
24 horas entre las alusiones totales. Hemos de interpretar este resultado con
sentido común pues si somos nosotros los que estamos generando la mayor parte
del contenido en medios sociales el resultado no será del todo correcto. Y la
20
aplicación no permite excluir determinados dominios, como el blog corporativo,
la branding page de Facebook o la cuenta de Twitter.
Sentimiento: El sentimiento se divide en dos datos: el coeficiente de las
menciones positivas contra las que son negativas. (Los valores se encuentran
entre 0 y 10)
Pasión: Es la probabilidad de que los individuos que hablan de la marca lo
hagan en varias ocasiones. En cierto modo la pasión se traduce en fidelización,
ya que a más individuos nuevos hablando de la marca menos pasión y viceversa.
Alcance: Este indicador mide el alcance de influencia que tiene la marca y viene
dado por el número de los autores que se refieren a la marca divido por el
número total de menciones.
La aplicación proporciona algunos datos cuantitativos extra a considerar que son
la media del número de horas que transcurren entre mención y mención; las horas
transcurridas desde la última, el número de autores únicos que están aportando más
contenido respecto a la marca – extraídos de Twitter y Facebook entre otros – y el
número de retweets (réplicas en Twitter) que se hayan proporcionado.
A modo de gráfico de barras y un poco más abajo aporta mucha más información que
nos ayuda a disponer de un pequeño cuadro de mando con datos tales como: tipo
de sentimiento hacia la marca – positivo, neutral o negativo. Pudiendo clicar en cada
uno de los estadios para comprobar de donde provienen e intentar encauzar
determinadas situaciones. También un Top Ten de las Keywords que resumen las
menciones de la marca en medios sociales; los usuarios únicos, identificados bajo
sus nicknames y soporte usado para la alusión; un listado de los HashTags
(etiquetas) más usados y las fuentes u origen de las menciones, que no son otra cosa que
los soportes o medios sociales desde donde se están haciendo los diversos comentarios
sobre la marca. Y por último y no menos importante SocialMention nos facilita el dato
del PostRank de cada entrada de un blog donde se haga referencia a la marca a analizar.
2.5.2. Compete Site Analytics
Se trata de otra de las herramientas más importantes para medir la influencia de una
marca en la Web, en este caso analizando el propio site web es Compete, servicio que
permite comparar varios sitios en función de las referencias que se hacen a estos en toda
la Web y Web 2.0: enlaces desde blogs, menciones en redes sociales, búsquedas por
palabras concretas, etc.
21
Con esta herramienta se puede encontrar puntualmente el tráfico de la web de una
empresa y el de los competidores para realizar exhaustivas comparaciones. Compete
toma en cuenta las estadísticas del tráfico en la red para realizar los análisis de forma
gráfica mostrando visualmente los datos. Este servicio se considera una buena
referencia para el análisis en internet, ya que brinda un análisis de los mercados
principales, palabras claves y los portales en la web. Entre los análisis que realiza hace
una comparación numérica de los sitios, análisis del comportamiento y mantener un
seguimiento.
También se pueden hacer búsquedas de palabras claves y encontrar en cuántos sitios los
usuarios han hecho click en una determinada palabra. Compete ofrece además una
gráfica de análisis de páginas web con mayor índice de visitas. Se puede observar en
una gráfica por periodo de tiempo, y en el tiempo total que los usuarios permanecieron
durante su visita.
22
2.5.3. Nielsen BlogPulse
Es un servicio orientado principalmente a la búsqueda y análisis de tráfico en blogs.
Además ofrece una serie de aplicaciones complementarias, como gráficas y estadísticas
ó nivel de menciones de los contenidos en la Web. Actualmente está diseñado para
funcionar óptimamente con contenidos en inglés, normalmente de EEUU, aunque se
espera su expansión a países de habla hispana. Aún así, es capaz de dar resultados muy
claros y explicativos, donde a través de sus servicios complementarios se pueden
estudiar tendencias o analizar la calidad de los enlaces, entre otras cosas.
Imágenes: Nielsen BlogPulse. Fuente: BlogPulse.com
23
2.6. Gestión de situaciones de crisis de marca en la Web 2.0
2.6.1. El caso de Toyota
La gestión de las crisis evoluciona junto a la cultura de los medios de comunicación
social. Y es coherente que así sea en la medida en que cada vez hay más personas que
tienen contacto con las marcas a través de estos medios, y éstas tienen que ofrecer
información oficial, sea en momentos de bonanza como en situaciones más complicadas
de crisis.
Portal Toyota Conversations. Fuente: toyotaconversations.com
Un buen ejemplo es el llevado a cabo la japonesa Toyota, quien está llamando a revisión
alrededor de 8M de vehículos por defectos de fabricación en la aceleración, frenos,
según ya ha comunicado a sus distribuidores. El mismo presidente de la compañía pidió
disculpas ante los medios, ante lo que será un duro golpe contra su reputación como
fabricante, conseguida hasta el momento.
Pero aquí el caso de ejemplo de esta nueva gestión de crisis online reside en 2 puntales
clave: afrontarla con rapidez y ponerse al lado del usuario (cliente o demandante de
información de la marca) conversando e influyendo su discurso a través del uso de
herramientas sociales. Una de las estrategias innovadoras, en cuanto a la gestión de la
comunicación de crisis, que están aplicando es la de Toyota Conversations. Se trata de
un site, construido adhoc en colaboración con Tweetmeme (servicio comentado
anteriormente), donde se muestran los mensajes sobre Toyota más twitteados. En otras
palabras, facilita el acceso via web de las noticias, mensajes, tweets, posts, opiniones
que más interesan a los usuarios. Cuantos más retweets (más citas de un mismo
mensaje), más arriba estará y más visible resultará en el sitio. Resulta un sistema de
promoción social de información en que son los usuarios quienes dan mayor visibilidad
a las informaciones que consideran más relevantes.
Según el análisis de AdAge, el site Toyota Conversations, con tecnología de promoción
de noticias, atrajo cerca de 1 millón de visitas durante la primera semana de su
lanzamiento, el 8 de febrero.
24
2.6.2. El caso Nestle
Nestle es el último caso de crisis corporativa por una mala comunicación en redes
sociales. En este post explicaremos desde su origen como se gestó este desastre 2.0 y
como podria haberse evitado.
Sorprende que compañías multinacionales que invierten grandes cantidades en sus
estrategias Marketing aun no sean conscientes del cambio que las redes sociales han
significado para la comunicacion corporativa y de los riesgos derivados de intervenir en
estos medios sin conocer y respetar las reglas de etiqueta comúnmente aceptadas por sus
usuarios.
Todo empezó el pasado 17 de marzo cuando Green Peace publicó un informe en el que
se dice que Nestlé utiliza aceite de palma procedente de Indonesia para elaborar sus
productos y su proveedor, Sinar Mas, incumple las leyes indonesias deforestando la
selva y destruyendo el habitat de una especie protegida como los orangutanes.
Nestle respondió negando la acusación y diciendo que su proveedor es Cargil, pero los
ecologistas, que afirman que Sinar Mas es, a su vez, el proveedor de Cargil, lanzaron
una campaña en Youtube, Twitter y Facebook invitando a los internautas a utilizar un
logo modificado de Kit-Kat con la palabra “killer”.
El 18 de Marzo la multinacional suiza consiguió que Youtube retirara el video
alegando uso indebido de su marca registrada y publicó en su página de Facebook una
entrada en la que decía a sus fans de que si publicaban alguna modificación de su
logo borrarían la publicación, lo que provocó una avalancha de críticas contra la
empresa.
Comentarios en la página de fans de Nestle. Fuente: Facebook.com
Esta actitud ha generado una ofensiva global contra la empresa suiza, tanto en grupos
anti-Nestle como en su propia página de Facebook, que difunden listados de
productos publicados durante otra crisis de comunicacion ya superada relativa a los
productos de alimentación infantil.
Tras dos días bajo el chaparrón y varios comunicados en su web, un representante de
Nestle intentó sin éxito calmar los ánimos insinuando que la reacción del público era
desproporcionada, ya que no censuraban a todo para permitir solo comentarios
positivos. Finalmente, intentó dar marcha atrás y pidió disculpas por los errores
cometidos y sus malas formas.
25
2.7. Herramientas Agregadores o Mashups de Contenidos en tiempo Real:
La cantidad de servicios que existen en la Web 2.0 con contenidos actualizados
continuamente, como los que hemos visto en el desarrollo de éste documento hace
necesario que aquellas personas o empresas que quieran utilizar dichos medios para el
análisis o con fines profesionales deban utilizar herramientas diseñadas para ello. Los
agregadores de contenidos sociales, también conocidos como Mashups
Mashup es una palabra que proviene de un término musical en inglés, que significa la
creación de una nueva canción a partir de la mezcla o pedazos de otras canciones. Desde
este concepto se basa el mashup de software. Wikipedia lo define como “una aplicación
o sitio Web que combina contenido de una o más fuentes dentro de una nueva
experiencia de usuario o manejo de información”.
“Los mashups permiten que cualquiera combine, de forma innovadora, datos que
existen en diferentes páginas Web.”
Dicha integración es posible, como ya se ha comentado anteriormente, gracias a las
APIs que los servicios 2.0 ofrecen a los desarrolladores de aplicaciones externas
(también conocidas como third apps ó aplicaciones de terceros). A continuación se
analizan algunas herramientas que los gestores de la identidad de las empresas en la
Web (Community Managers) pueden usar para medir su influencia y comunicarse con
los consumidores o clientes potenciales.
2.7.1. HootSuite
Es una potente herramienta utilizada por profesionales Community Manager que
permite gestionar simultáneamente diferentes cuentas en las redes sociales más
importantes además de ofrecer la posibilidad de realizar un seguimiento y análisis de la
actividad de la cuenta empresa en las mismas.
Imagen: Aplicación HootSuite. Fuente: hootsuite.com
Además de HootSuite, existen otras herramientas similares, como Seesmic o
TweetDeck que también permiten realizar una gestión profesional de las redes sociales
por parte de la empresa.
26
2.7.2. Diferencias entre los distintos gestores de redes sociales:
Las características comunes más relevantes son la gestión de múltiples cuentas de
usuario en redes sociales como Twitter y Facebook y el manejo de otras redes como
LinkedIn y MySpace. Por otro lado, su entorno gráfico cuenta con una estructura básica
muy similar, aunque cada uno de ellos dispone de diferentes opciones para gestionar los
perfiles y personalizar el aspecto estético.
Cada cliente permite añadir diferentes columnas con información específica. En el caso
de Twitter, lo más común es disponer de columnas con las últimas actualizaciones de
los contactos, menciones o contestaciones realizadas y mensajes privados. También el
usuario cuenta con la posibilidad de suscribirse a búsquedas fijas sobre un término o a
diferentes listas de usuarios. Para Facebook, estos clientes disponen en general de una
columna con las últimas actualizaciones de los contactos del usuario.
Además, la actualización de la información se realiza de forma automática, sin que el
usuario necesite hacerlo de forma manual, aunque los tres servicios comparados añaden
una opción de recarga en el caso de que se necesite actualizar la cuenta en un momento
determinado. A pesar de contar con entornos gráficos muy parecidos y con
características principales comunes, estos clientes establecen diferencias en su uso.
Seesmic cuenta con diferentes clientes para ordenadores para la gestión de
Twitter y Facebook. Los usuarios disponen de una versión web y de un cliente
para el sistema operativo Windows. En ambos casos la gestión sólo se realiza de
Twitter. Seesmic Desktop. Sin embargo, es una aplicación multiplataforma
basada en Adobe Air que permite la gestión de múltiples cuentas de usuarios
tanto de Twitter como de Facebook.
TweetDeck dispone únicamente de un cliente multiplataforma para ordenadores
basado en Adobe Air. Este cliente puede gestionar numerosas cuentas en
Twitter, así como un perfil de usuario en Facebook, LinkedIn y MySpace.
HootSuite es el único cliente que sólo cuenta con una versión web. Sin
embargo, la cantidad de funcionalidades y características incorporadas lo hacen
imprescindible para la gestión avanzada y profesional de redes sociales.
Tabla Comparativa Gestores Profesionales Redes Sociales
27
2.7.3. Swix
Swix es una herramienta mediante la cual se pueden realizar análisis estadísticos de la
evolución de la cuenta de una empresa en las diferentes redes sociales. Es muy útil
sobre todo para poder realizar una medición del impacto de la actividad de la empresa
en la Web 2.0 y de ese modo poder obtener informes que sirvan como base para un
estudio del ROI (Return On Investment). SWIX es un potente agregador.
Imagen: SWIX Social Media Analytics. Fuente: SWIXhq.com
El potencial de SWIX reside sobretodo en la cantidad de redes sociales que se pueden
agregar, en total más de 20, pudiendo obtener de ellas únicamente los indicadores que se
crean oportunos: visitas a nuestro blog, seguidores en Twitter, número de fans en
Facebook, media de videos en nuestro canal de Youtube, etc. Además, es compatible
con servicios como Google Analytics lo que aumenta su utilidad.
El ROI es un aspecto que cualquier empresa que invierta tiempo y recursos en la Web
2.0 debe medir. En dicha medición de la rentabilidad de la actividad en los entornos de
Social media se han utilizado hasta la fecha varios baremos adaptados de modelos
tradicionales. Entre ellos:
Retorno de la interacción: la duración del tiempo invertido en conversaciones o
interacción con objetos sociales (presencia online de marcas) y, a su vez, los resultados
obtenidos de éstas que sean dignos de medición.
Retorno de la participación: la métrica asociada a la medición y valoración del tiempo
invertido en participación en social media a través de conversaciones o creación de
objetos sociales.
Retorno de la implicación: similar a la participación; los especialistas en marketing
han analizado los puntos de contacto para documentar estados de interacción y las
métricas y el retorno potencial que éstos llevan asociados.
28
Retorno de la atención: en un trasfondo de economía de atención, hemos valorado el
modo de captar atención, mantenerla y cuantificar la respuesta.
Retorno de la confianza: una variante de la medición de la fidelidad del cliente y la
posibilidad de referencia; un barómetro de confianza establece la confianza del cliente
obtenida mediante los social media y la posibilidad de que éste se convierta en defensor
de la empresa y el posible impacto de esto en el negocio a futuro.
Sin embargo, con la integración gradual de los Social Media en la mecánica de empresa,
aparecen estrategias más sofisticadas de medición. Para muchos no basta con contar
suscriptores, seguidores, fans, volúmenes de conversación, etc., sino que es necesario un
conocimiento intrínseco del efecto de las redes sociales en nuestra actividad
empresarial. En 2010, las actividades en social media todavía se consideran “proyectos
piloto”. Con el fin de atraer atención sobre una marca, se desvían presupuestos de otras
actividades hacia iniciativas experimentales. Si vamos a extraer recursos de otras áreas
para invertirlos en Social Media, es necesario definir una estrategia clara, incluyendo:
a) Ventas
b) Registros
c) Referencias
d) Enlaces (la moneda de cambio de la Web social)
e) Votos
f) Reducción en costes y procesos
g) Descenso en problemas para los clientes
h) Generación de oportunidades
i) Conversión
j) Ciclos de venta reducidos
k) Actividad de entrada
29
3. INVESTIGACIÓN ACADÉMICA
3.1. Analítica Web. Técnicas y Herramientas
La analítica web consiste en grabar y analizar los datos de navegación de los usuarios en
un sitio web. En un primer momento, se utilizaban los datos grabados en los logs de los
servidores. Actualmente, la mayoría de las herramientas de analítica web funcionan
mediante un código javascript que se inserta en el pie de página, y que recoge los datos
que nos interesen para enviarlos a una base de datos que posteriormente podremos
consultar.
Las principales medidas (métricas) de cualquier herramienta de analítica web son:
- Páginas vistas
- Usuarios Únicos
- Visitas
- Tiempo de navegación
Otros datos que manejan algunas herramientas de analítica web son:
- Datos de clicks ("clickstream") que permiten reconstruir las rutas de navegación
de los usuarios así como dibujar "mapas de calor" sobre una página, mostrando
los elementos con más clicks
- Euros (por ejemplo, en un sitio de comercio electrónico, el importe de una
compra; en un sitio de contenido, el valor de un click en un anuncio o de la
impresión de un banner)
- Orígenes del tráfico: Los sitios web que nos envían visitas, así como las palabras
clave que los usuarios utilizan en los buscadores para llegar a nuestra web
- Páginas de entrada: La página por la que un usuario entra en nuestro sitio
- Páginas de salida: la página desde la cual un usuario abandona nuestro sitio
- Eventos del sitio web: por ejemplo, número de usuarios que se registran para
recibir un newsletter, número de usuarios que hacen una búsqueda, número de
formularios enviados, etc.
- Abandono de formularios: número de veces que un formulario se empieza a
rellenar y se abandona, así como el campo en el que se abandona el formulario
Existen muchas técnicas y procedimientos que nos permiten aprovechar los datos
recolectados por una herramienta de analítica web a fin de mejorar la usabilidad de un
sitio web. A continuación describimos los más importantes:
3.1.1. ClickMap
El "clickmap" (mapa de clics) muestra dónde hacen clic los usuarios. Algunas versiones
del "Clickmap" sólo muestran datos de clics en las zonas clicables (links, botones),
como es al caso de la funcionalidad llamada "Site overlay" de Google Analytics.
Otras herramientas como Clickdensity, sin embargo, son capaces de mostrar datos de
clic en cualquier zona de la pantalla, independientemente de si tiene un link o no.
30
Finalmente, herramientas como Omniture SiteCatalyst pueden mostrar los ingresos que
genera cada clic en cada elemento de la página. Además, es capaz de mostrar datos en
tiempo real.
La utilidad del mapa de clics es evidente: de un vistazo, podemos ver dónde clican los
usuarios en una pantalla determinada, y rápidamente actuar para mejorarla en tres
aspectos principales:
- Visibilidad y posicionamiento de links y botones de la página
- Elementos de la página que confunden al usuario: aquellas zonas de la página en
donde hay muchos clics, a pesar de que no son enlaces.
- Elementos de la página más "rentables": no está directamente relacionado con la
usabilidad, pero normalmente querremos dar más visibilidad a aquellos
elementos más rentables, así como investigar por qué ciertos elementos de la
página no son tan rentables como esperaríamos.
3.1.2. A/B Testing
El A/B Testing es de utilidad cuando es necesario decidir entre dos diseños para una
misma página. Lo que haremos es colocar ambas versiones de la página en el servidor, y
utilizar una herramienta de analítica como Omniture SiteCatalyst o Google Optimizer
para comparar los resultados de ambas páginas. Por ejemplo, podremos comparar:
- Ratios de conversión del objetivo de la página: por ejemplo, si el objetivo de la
página es que el usuario rellene un formulario, compararemos el número de
usuarios que rellenan el formulario en cada versión de la página
- Ratio de abandono: si el objetivo de la página es invitar al usuario a moverse por
el sitio web, podremos comparar los ratios de abandono de las dos versiones de
la página
Así mismo, el A/B Testing lo podemos utilizar para comparar el resultado de una misma
página en periodos de tiempo distintos, por ejemplo:
- Antes de aplicar un rediseño a la página
- El día después de subir la página rediseñada
- Una semana después
- Un mes después
Podremos así sacar conclusiones acerca de:
- El éxito o fracaso del rediseño, según si se cumplen mejor o peor los objetivos
de la página
- El tiempo de aprendizaje de los usuarios: ¿cuánto tiempo tardan los usuarios en
adaptarse a un nuevo diseño de página?
31
3.1.3. Rutas de navegación
Los reportes de "clickstream" son quizás el elemento más potente de herramientas de
analítica web avanzada como Omniture SiteCatalyst o Visual Sciences. Permite
responder a preguntas como por ejemplo:
- ¿Por qué páginas navegan los usuarios, y en qué orden?
- ¿Qué páginas visitan los usuarios dadas una página inicial y una página final
determinadas?
- ¿En cada paso de un proceso de compra o de registro, cuántos usuarios pasan al
siguiente paso, cuántos vuelven al paso anterior o cuántos abandonan? ¿Los que
abandonan, a dónde van?
- ¿Qué rutas llevan a una página determinada?
- ¿Cuáles son las 5 rutas que realizan el 90% de los usuarios de mi sitio web?
- Ejemplo de reporte de rutas de navegación de Omniture SiteCatalyst
Estos reportes son muy útiles para analizar qué realizan los usuarios en nuestro
sitio web y, quizás más importante todavía, qué no son capaces de realizar
(seguramente debido a que la página no es usable).
Así mismo, nos ayudan a definir la arquitectura de la información y el esquema
de navegación del sitio web basándonos en la experiencia y preferencias de
navegación de los usuarios.
A continuación analizamos las herramientas más importantes del mercado que las
empresas pueden utilizar para realizar sus análisis.
3.2. Omniture SiteCatalyst
Se trata de una de las herramientas de analítica web profesional más avanzada del
mundo, con más de 4000 clientes y ganadora de todos los premios de la industria
otorgados por analistas como Forrester, ClickZ o Gartner.
Omniture SiteCatalyst permite un análisis detallado de su negocio online, ofreciendo
información sobre el comportamiento de sus usuarios con un nivel de detalle y
segmentación sin rival en el mercado. Una de las principales ventajas de Omniture
SiteCatalyst es la de ofrecer la posibilidad de crear complejos y específicos cuadros de
mando adaptados a cada empresa sea cual sea el sector de negocio, integrando así sus
datos web con cualquier otra fuente de datos para una visión de 360 grados sobre el
negocio.
Como valor añadido fundamental de SiteCatalyst cabe mencionar capacidades
ilimitadas de recopilación y asociación de datos, un Data Feed para su integración con
terceros sistemas y un sólido entorno de configuración de Dashboards.
32
Imagen: Dashboard de Omniture SiteCatalyst. Fuente: http://assets.omniture.com
Omniture SiteCatalyst forma parte de la familia de productos Omniture Suite,
integrándose con soluciones de personalización, experimentación multivariante,
recomendaciones, búsqueda, gestión de pujas, encuestas o sistemas de gestión de
campañas multicanal.
Entre otras funcionalidades de esta herramienta, cabe destacar:
- Informes de páginas, siguiente y anterior, analítica de formularios, segmentación
por zona geográfica embudos de conversión y venta cruzada.
- Exportación en los formatos más usados, Word, Excel, PDF y envíos por email
de informes programados. Data Extract y Excel Client completan las opciones
para integrar los datos directamente a Excel.
- Identificación de dispositivos móviles, capaz de geolocalizar al visitante para
una optimización de las campañas por zona.
- Medición de elementos Multimedia Flash/Flex®, Videos y Streaming con las
tecnologías más extendidas, Quicktime, Windows Media y Real Player.
- Integración de datos con herramientas externas de reporting y un gestor de datos
multicanal para integrar datos offline con los informes recogidos en el sitio web.
- Cuadros de mando e Informes según las preferencias del negocio,
personalizables para los diferentes miembros de su organización.
33
3.3. Google Analytics, la herramienta clave de la medición Online
Google Analytics es el sistema de gestión de estadísticas gratuito (es gratuito para
clientes de Adwords y para webs de menos de 5 millones de visitas al mes) que ofrece
Google a sus usuarios y que se va a estudiar en este documento. En un servicio que
forma parte del creciente paquete de productos de Google que ofrece a los
Webmasters: AdWords, AdSense, Website Optimizer, DoubleClick, Internal Site Search,
TV Ads, Audio Ads, Analytics para Blogs, Checkout,etc...
A diferencia del resto de herramientas que hemos analizado a lo largo de ésta
investigación, Google Analytics se centra únicamente en la gestión propia del tráfico
sobre una Web, sea del tipo que sea, pero que ofrece datos muy fiables y en tiempo real
muy útiles para las campañas de marketing y para los Webmasters profesionales.
Es un sistema en continua evolución desde el año 2004 hasta hoy en día. Comenzó
utilizando el código originario de urchin (urchin.js) para ir desarrollando con el tiempo
su propio motor (GA.js) e interfaz. Google Analytics es un claro ejemplo de la apuesta
de Google por la desarrollo continuo, y la innovación.
Los datos estadísticos de Google Analytics se almacenan en los mismos servidores de
Google, confiriéndo al sistema una alta fiabilidad, gran robustez, fuerte integridad y
seguridad.
Google Analytics permite medir de manera minuciosa todas las campañas online de
nuestra empresa: envío de emails, publicidad patrocinada, campañas de promoción en
buscadores, etc... Además de integra perfectamente con Google Adwords para medir el
retorno de la inversión de nuestras campañas de marketing.
Además los usuarios de Google Analytics disponen de un gran número de recursos y
webs de ayuda a su disposición: Centro de Ayuda, Conversión University, Foros de
ayuda, el blog oficial de Google Analytics, e incluso cursos presenciales de formación y
una red mundial de consultores autorizados.
Google Analytics es una solución realmente buena para la mayoría de los casos pero es
cierto que tambieé presenta una serie de limitaciones y problemas que no debemos pasar
por alto:
- Los datos estadísticos se basan en la URL y Título de cada página web.
- No existe un histórico de datos.
- Los datos estadísticos de nuestra web son visibles desde dentro de Google.
- Utiliza Javascript y Cookies.
- No identifica las visitas de los propios motores de búsqueda.
- Google Analytics no es un medidor independiente, más bien se trata de una parte
interesada. Le interesa darle a entender lo importante que es Google y esto
pordía llevarnos a pensar que presenta los resultados bajo el prima que mejor le
conviene.
Algunos de estos problemas pueden solventarse y el resto son inherentes a la propia
naturaleza de la aplicación. En cualquier caso, las enormes ventajas de Google
Analytics eclipsan por completo a sus limitaciones.
34
Google Analytics ofrece un informe completo de nuestra web para que
lo leamos, interpretemos y tomemos las acciones apropiadas en cada momento.
Imagen: Dashboard Google Analytics. Fuente: Google.com/analytics
El paso previo necesario para poder utilizar las Analytics es tener claro cuál es
el propósito de la web que se desea analizar y conocer qué métricas son relevantes para
nosotros:
Si se trata de una tienda on-line sería de gran interés conocer por ejemplo qué
porcentaje de visitantes compran, cuántos usuarios abandonan la web durante el
proceso de compra, o cuáles de nuestros productos son los más populares.
En el caso de tratarse de un blog, interesaría saber cuántos artículos lee cada
visitante, cuánto tiempo se dedica a la lectura de cada artículo, o cuántos de los
visitantes no encontraron en nuestra web la información que buscaban.
El siguiente paso es conocer cómo poder extraer los indicadores que requerimos para
nuestra web. Para ello es necesario familiarizarse con el panel de control y conocer las
diferentes opciones de configuración que existen.
Los números que devuelve Google Analytics deben ser puestos en su contexto
apropiado para poder ser interpretados.
Por ejemplo, un número alto de páginas vistas por cada visitante podría indicar
que nuestros contenidos son de gran interés pero también podría ser un síntoma
de que nuestros usuarios no encuentran con facilidad aquello que entraron
buscando.
La web se ha convertido en una plataforma tan variada y extensa que requiere de
un estudio aislado para poder elegir los indicadores clave de medida en cada caso
particular.
35
Por este motivo es necesario que cada Webmaster utilice el conocimiento sobre su
mercado, sus clientes potenciales y su propia web para identificar qué datos deben ser
analizados en cada momento y poner los números que ofrece Google Analytics en el
contexto correcto.
Una de las principales bazas de Google Analytics frente a su competencia es su aspecto
visual. Las gráficas, animaciones y efectos, lejos de ser algo anecdótico forman la
columna vertebral del sistema y representan la principal fuente de información para los
usuarios.
Imagen: Gráfico Google Analytics. Fuente: Google.com/analytics
La interfaz de Google Analytics ha sido diseñada de tal modo que sea sencillo de utilizar
e interpretar por Webmasters, anunciantes, editores. En contraposición a la figura del
experto en Google Analytics, es recomendable distribuir el acceso y uso de las
analíticas entre todos los miembros del equipo implicados en el desarrollo, edición,
mantenimiento y promoción de una web.
Desde el panel de control podemos conocer la siguiente información:
- Cómo son los visitantes que de su web. (Usuarios)
- Cómo llegan los visitantes a su web. (Fuentes de tráfico)
- Cómo navegan por su web. (Contenido)
- Cómo se convierten en usuarios.(Objetivos)
- Cómo compran en nuestra web. (Comercio electrónico)
Imagen: Dashboard Google Analytics. Fuente: Google.com/analytics
36
La página inicial llamada Panel ofrece una visión global del Site y acceso a todas las
funcionalidades del sistema. El panel está formado por un conjunto personalizable
de resúmenes de informes. Ha sido diseñado de forma modular de tal forma que cada
usuario puede añadir, eliminar y arrastrar los diferentes informes hasta adaptarlo a sus
necesidades. Cada informe puede ser examinado en detalle pulsando sobre el enlace
"ver informe".
Imagen: Dashboard Google Analytics. Fuente: Google.com/analytics
Las métricas pueden segmentarse. Por ejemplo: es posible segmentar el tráfico
proveniente de buscadores para conocer cuál es de pago (adwords) y cual
es gratuito (posicionamiento orgánico). Estos datos también pueden ser objeto de una
segunda segmentación, si por ejemplo establecimos varias páginas de destino
podríamos segmentar el trafico de pago proveniente de buscadores por página de
destino.
Google Analytics ofrece una serie de indicadores básicos que pueden servirnos para
observar la situación general de una web.
1. Visitas: Corresponde con el número de personas han accedido a nuestra web en
un periodo de tiempo. Sólo se contabiliza una visita por cada sesión,
independientemente del número de páginas a las que haya accedido durante la
sesión. Así tendríamos que un usuario que visite diariamente nuestra web
contabilizará como 30 visitas a lo largo de un mes. Esta estadística nos permite
conocer cuál es el nivel de fidelización de nuestra web.
2. Usuario único absoluto: Se trata del número de individuos únicos que visitan
nuestra web durante un periodo de tiempo. Un visitante que visite diariamente
nuestra web durante un mes sólo contabilizará como una visita única. Esta
estadística nos permite conocer cuál es el alcance de nuestra página web.
37
3. Páginas vistas: Es el número total de páginas que han sido visionadas durante
un periodo de tiempo. Si el último mes tuvimos 100 visitantes y cada uno leyó 10
artículos, tendríamos 1000 páginas vistas para ese periodo de tiempo. Esta
estadística refleja el interés que generan nuestros contenidos entre nuestros
público.
4. Fuentes de entrada: Nos ofrece información detallada sobre la procedencia de
nuestras visitas: desde qué páginas se nos enlaza, por qué keywords nos
encontraron, etc.
5. Tiempo en el sitio: Indica el tiempo medio que dedican nuestros visitantes a
navegar por la web en cada visita. Es un dato que puede conllevar a confusión ya
que es frecuente que los usuarios no cierren la pestaña del navegador aunque ya
no estén visitando el sitio. Refleja la calidad de las visitas de una web.
6. Porcentaje de abandonos: Muestra que porcentajes de usuarios se ha limitado a
visitar una sóla página, o lo que es lo mismo, qué porcentaje de usuarios salieron
del Site por la misma página que entraron. Este dato refleja el interés que
despiertan las páginas de acceso a nuestro Site. Para mejorar este indicador es
importante que nos esforcemos por ofrece a nuestros visitantes aquello que
buscan cuando acceden a nuestra web.
7. Nuevas visitas: Refleja el número de usuario que acceden por primera vez a
nuestra web. Es un dato que debe ser medido con especial cuidado para evitar
caer en contradicciones. Un porcentaje alto de usuarios nuevos refleja que la web
tiene un poder de atracción de tráfico alto, ya sea por buscadores, publicidad o
sites de referencia. Por otro lado un porcentaje alto de usuarios recurrentes indica
que nuestra web fideliza de manera exitosa a sus visitantes ya sea por ofrecer un
contenido atractivo, de mucha utilidad, muy actualizado, etc... Los
comportamientos de un usuario nuevo y uno recurrente pueden ser muy distintos.
Un usuario que accede por primera vez desconoce los flujos de navegación de
una web, no está familiarizado con la forma en la que se muestran los contenidos,
ni las "llamadas a la acción" de la web. Por este motivo, este tipo de usuarios
abandonan la web con más facilidad y muestran un comportamiento diferente al
de los usuarios recurrentes.
Los objetivos o Goals constituyen un mecanismo para medir las conversiones de un
Site. Una conversión es el proceso en el que un visitante realiza una acción de especial
interés para nuestro negocio.
A efectos prácticos un objetivo es simplemente una página vista. Podría tratarse de un
artículo específico, o de la página que el usuario llega tras completar un proceso de
compra satisfactoriamente.
Un objetivo se define precisamente indicando la URL de esta página. A nivel de
negocio, un objetivo representa una acción de especial interés para nuestro negocio que
puede ser acometida por nuestros visitantes. A modo de ejemplo podríamos citar los
siguientes objetivos: Inscribirse en un newsletter, registrarse como usuario, realizar con
éxito una compra, finalizar correctamente una descarga, etc.
38
4. Conclusiones
Como se ha visto a lo largo de este trabajo académico, las cifras y la importancia del uso
del Social Media por parte de la empresa tiene sentido en un mercado que está
cambiando hacia la Web. El desarrollo de nuevas tecnologías y de nuevas plataformas
que permiten una mayor interactividad entre los usuarios (clientes) y las empresas está
produciendo que muchas de éstas tengan que reorientar sus estrategias comerciales y de
marketing para adaptarse a los nuevos medios.
La inteligencia de negocio por lo tanto también está cambiando al convertirse la Web en
la principal fuente de información. Ya no es necesario únicamente analizar la
información que se produce internamente en las organizaciones, sino que la importancia
está en medir y observar lo que sucede en el entorno Web. La mayoría de las personas
con acceso en la actualidad consulta Internet para informarse acerca de productos y
servicios antes de decidirse por adquirirlos. Estos consumidores potenciales dejan un
rastro que se puede medir con las herramientas adecuadas, facilitando a las empresas un
mejor seguimiento de su estrategia de Marketing, y permitiendo adecuarse a las
necesidades y costumbres de los mismos. Dichas herramientas de analítica web son muy
avanzadas y permiten obtener datos muy concretos acerca del comportamiento de los
usuarios, sus intereses dentro de las Webs empresariales, lo cual es muy útil para valorar
el diseño de las mismas y adaptarse.
Con la llegada de la Web 2.0 y las plataformas sociales, la minería de datos en la Web
pasa por una evolución centrándose no sólo en el comportamiento que los usuarios
tienen en nuestra propia web, sino que ahora lo importante es conocer qué opinan, cómo
se comportan y cuáles son sus intereses que comparten en las Redes Sociales. Gracias a
la Web 2.0 se podrá medir pues el impacto que una marca tiene en el mercado, con un
porcentaje de seguridad cada vez más alto debido a la gran cantidad de usuarios que
existen en las redes sociales, número que asciende ya a los millones. La importancia de
conocer qué opinan los usuarios y cómo reaccionan ante las marcas en los entornos de
Social Media es también muy importante para conocer y medir la reputación que una
empresa tienen en Internet, además de poder obtener mediante determinados análisis el
retorno de la inversión (ROI) que se obtiene al participar en la misma.
La Web en tiempo real es un concepto que evoluciona al mismo tiempo que la
tecnología en Internet y en dispositivos, permitiendo que cada vez sea más sencillo
compartir información desde cualquier lugar y desde cualquier dispositivo. El aumento
de conexiones móviles y de aplicaciones que permiten interactuar con las redes sociales
está provocando que su uso aumente y se extienda a otros aspectos como la
geolocalización o el ocio. De este hecho se puede obtener aún mucha más información
acerca del comportamiento de los usuarios y sobretodo de sus intereses, de un modo
actualizado y preciso.
La principal conclusión de éste estudio es que las redes sociales no son un fenómeno
pasajero del que las empresas no deben ser conscientes, sino que se presenta una gran
oportunidad para que muchas de éstas, además de medir mejor la situación del mercado,
puedan interactuar con sus propios clientes como nunca antes había sido posible.
39
5. Bibliografía
[ Blog Enrique Dans, Enrique Dans 2010, http://www.enriquedans.com]
[ Google Analytics, Google 2010, http://www.google.com/intl/es/analytics ]
[Web Analytics, Omniture SiteCatalyst, 2010, http://www.omniture.com/en ]
[Twitter Enigeering Blog, Twitter Inc., 2010, http://engineering.twitter.com]
[ Compete Site Analytics, 2010, http://siteanalytics.compete.com ]
[ Comsultor 2.0, Francesc Grau 2010, http://blog.francescgrau.com/gestion-de-crisis-2-
0-unirse-al-dialogo ]
[ Master New Media, Robin Good’s 2010, http://www.masternewmedia.org/ ]
[ Consumer Eroski, 2010, http://www.consumer.es/web/es/tecnologia/internet ]
[ Real Time Search, Social Mention 2010, http://www.socialmention.com/ ]
[ Blog Pulso Social, 2010, http://pulsosocial.com/2010/01/04/herramientas-para-medir-
los-resultados-cuantitativos-en-social-media ]
[ Blog Gaby Castellanos, 2010, http://www.gabycastellanos.com/51-herramientas-
social-media/ ]
[ Blog Roberto Carreras, 2010, http://robertocarreras.es/post/81756750/herramientas-
para-monitorizar-la-presencia-online ]
[ Nielsen BlogPulse, Nielsen 2010, http://www.blogpulse.com ]
top related