Uno de los problemas con los que nos encontramos siempre es la tasa de rebote, tanto, que en algunos casos, como el de los blogs, algunos asumen que tiene que ser alta, y se quedan tan tranquilos. Otros hacen lo que pueden para decidir en que cuánto tiempo tiene que estar el lector en una página para que no sea considerado rebote.
Mirad, el problema del rebote, es que se consideran rebotadas todas las visitas de una sóla página, independientemente del tiempo que pasen en ella antes de irse los lectores. Ésto afecta también a cómo se calcula el tiempo de las visitas. Como ya sabéis, Google Analytics es incapaz de saber el tiempo que pasamos en la primera página ( si sólo hacemos una página vista), y si hacemos mas de una página, el tiempo final no tiene en cuenta el tiempo pasado en la última página.
Últimamente ha resucitado el asunto de lanzar un evento a los XX segundos, con lo que hacemos posible que Google Analytics no considere rebote los de una sóla página que pasan mas de esos XX segundos. Ésto es ya todo un avance, pero ¿cómo decidir cuántos segundos de tiempo significan interés desinterés de la visita? yo siempre pongo 20 segundos, otros 40 y otros.. pues pasan del tema. Una forma de tomar esta decisión es cronometrarnos mientras leemos y tomar ese tiempo como referencia. Yo hoy os propongo un sistema un poco más «científico».
La idea es calcular cuánto tiempo pasan en la primera página las visitas de una sóla página, eso si, haciéndolo sin que afecte al rebote, para poder tomar la decisión acertada.
Con el valor en rojo puesto en «TRUE», lo que estamos diciendo es que el evento no sea tenido en cuenta para el rebote, es decir, lanzamos un evento, pero no afecta al cálculo.
Teniendo éste pequeño detalle en cuenta nos queda picar unas líneas de javascript.
ga('send', 'event', 'Videos', 'play', 'Fall Campaign', { nonInteraction: true});
En el momento en que se carga la página debemos registrar el tiempo en que se inicia y crear una función que lanzaremos al descargarse la página para que calcule el tiempo, tal que así:
<head>
<script language=«javascript» type=«text/javascript»>
var inicio=new Date();
inicio=inicio.getTime();function tiempo() {
fin=new Date();
fin=fin.getTime();
pagina=documet.URL;
tiempoTotal=(fin–inicio; //atencion que esto da milisegundos
_gaq.push([‘_trackEvent’, ‘Tiempo’, ‘TiempodePagina’, pagina, tiempoTotal, ‘TRUE’]);
}
window.onunload= tiempo();
</script>
</head>
Muy fácil, al descargarse la página estaremos enviando un evento a Google Analytics con la información de la url de la página y el tiempo ( en milisegundos) que ha estado activa.
De ésta forma, si hacemos un segmento de «visitas de una sola página», al ir a EVENTOS–>»TIEMPO», en la columna «valor medio del evento» veremos el tiempo medio en mili segundos que permanecen las visitas al aterrizar en nuestra web y podremos decidir en que tiempo lanzamos el evento de NOBOUNCE. Pero aún hay mas, ¿recordáis que almacenábamos en la etiqueta la url?, con eso podemos tener el tiempo medio que están las visitas en cada página concreta y si lo cruzamos con las páginas de aterrizaje… la de cositas moladoras que podríais hacer ¿no?
En fin, que sepáis que yo no le he probado aún.. y creo que tardaré en hacerlo, pero si alguien se anima que nos lo cuente, yo, gustosamente os cederé el sitio en este humilde blog para que lo contéis
Hola! me he encontrado con tu blog en google pues estoy buscando información para hacer una investigación cualitativa sobre divulgación científica en medios digitales.
Sin embargo me siento perdido! ojalá puedas ayudarme, pues en tus posts veo muchas cosas valiosas. Te explico un poco:
El objetivo de mi investigación es estudiar la forma en que las páginas de ciertas revistas de divulgación científica se han adaptado a los procesos de convergencia digital en la red, esto es… como se sirven de las posibilidades de diálogo y participación de la web 2.0 – 3.0 para mejorar los procesos de comunicación con sus usuarios.
Entonces el estudio implica no solo estudiar lo que hacen en Facebook o Twitter… sino el uso general que hacen de las herramientas de la web actual.
¿Es viable un estudio así? ¿O sólo me enfoco a una herramienta? ¿Que técnica cualitativa me recomiendas?
Ojalá tengas tiempo para hacerme un comentario, lo agradecería mucho.
Saludos!
Hola Paco,
Gracias por tu comentario.
Aunque tu pregunta requiere una respuesta bastante mas larga, te apunto lo que puedes hacer.
Dices que tu objetivo es: «la forma en que las páginas de ciertas revistas de divulgación científica se han adaptado a los procesos de convergencia digital en la red»
Deberías tener un histórico de las páginas a estudiar, es decir, qué hacían antes y cómo ha ido cambiando.
lo suyo es que elijas unas cuantas descriptivas y con la diferencias de como hacían antes y como hacen ahora puedes ir empezando. Después podrías «catalogar» el uso que hacen, unas como crm otras para vender ofertas, etc
no se si me explico…
en fin espero servirte de ayuda.
Hola, tu blog parece muy interesante. Volveré a pasarme. 😉
Saludos.
Genial recurso. He encontrado el blog gracias al recurso de Web Analytics recopilando el blog como referente de analítica web. Buen descubrimiento.
Gracias por esta informacion es de mucha utilidad para poder mejorar el contenido que mostramos a los usuarios de nuestros sitios… un abrazo.