Conversación con Enric Quintero

Enric Quintero, fundador y CEO de www.Datarmony.com, es uno de los pioneros de la analítica digital en España. Con una experiencia de más de 20 años, ha desarrollado sus habilidades en empresas como Ogilvy Interactive, eDreams, Multiplica y Vueling Airlines, convirtiéndose en un gurú y un reconocido experto nacional en productos como Google Analytics. También fue el fundador de www.Metriplica.com, primer socio de Google Analytics en España y reconocida como mejor consultora de analítica en los E-awards 2014. Actualmente su empresa forma parte de MIO group, cotizada en bolsa.

Enric, en tu caso llevas ya más de 20 años vinculado al mundo de Analytics, así que lo primero que quiero preguntarte es cómo y cuándo te adentraste en este campo.¿Qué te llamó la atención? ¿Tenías claro que ésta era tu vocación?

Prepárate para un salto en el tiempo, mediados de los 90 en España, llega Internet a las facultades (no a todo el mundo), hay bofetadas para ser informático y al que hace matemáticas o estadística le preguntan ¿pero por qué te matas en hacer esto si no tiene salida? Vas a acabar siendo profe… En mi caso, estaba ahí por pasión por los números. Me fascinaba y me sigue fascinando explicar lo que nos rodea con un idioma universal, e incluso poder predecir el futuro con ello. Vi claramente que mi misión sería mejorar las denominadas entonces “autopistas de la información” gracias a los números. El “cómo” y el “cuándo” fueron los retos necesarios para enfrentarse a algo poco definido, donde las probabilidades de equivocarse eran pocas precisamente por eso: estaba todo por hacer. 

Y desde aquel primer momento hasta ahora ¿qué grandes cambios y avances ha vivido lo que en aquel entonces se conocía como Web Analytics?

A mi entender la evolución ha sido tan notable, que incluso el nombre se ha transformado, pasando de “Web” a “Digital” Analytics. Hasta llegar allí, podemos diferenciar varias épocas, todas ellas marcadas por el contexto económico y la entrada de una nueva tecnología:  

  • 90’s: El boom de internet y el inicio de su medición, donde las webs eran meras páginas con texto, imágenes y enlaces azules, y sólo se aspiraba a conocer qué cantidad de tráfico llegaba a una web y qué contenido se miraba más. Internet era la tierra prometida donde todo era posible y por tanto, se daba rienda suelta a la especulación; no importaba la rentabilidad de los negocios, sólo su popularidad. Es por eso que no sorprende la poca ambición de los indicadores que se seguían. Para hacer una medición con fines de marketing, no se diseñó un sistema propio sino que se reutilizó algo ya disponible en el departamento de IT, los ficheros log, una especie de “caja negra” donde se registraba toda la actividad de la web en miles de líneas y situado dentro del servidor, que servía para saber qué problemas estaba sufriendo una web. Como era de suponer, en esta época no habían perfiles específicos para estas tareas, en la mayoría de casos éramos profesionales del ámbito de “data” con conocimientos de programación, para poder hacer de puente entre los departamentos de marketing e informática. Aquí me acuerdo de mí mismo recuperando logs de múltiples servidores y reconstruyéndolos después dentro de BBDDs o usando el software por excelencia de aquellos años: Webtrends.

  • 2001: La explosión de la burbuja propicia el cambio de paradigma de medición, dadas las claras carencias del anterior modelo. La necesidad del momento impulsó a escoger sistemas que ayudasen a saber el retorno económico de esos negocios: qué y cuánto vendían, qué contenidos y campañas ayudaban a vender más, con qué ROI, ROAS, etc. Además, la sofisticación de las presencias online (con elementos cada vez más creativos como los vídeos) hizo imprescindible el diseño del modelo de datos, para conseguir saber lo usable que era ese entorno (cuanto más fácil e intuitivo, más “conversión”). Todo eso empujó a un nuevo paradigma de medición: el basado en un código javascript en cada una de las páginas a medir o “tags”. Las herramientas de medición basadas en tags habían surgido a finales de los 90, y su adopción aunque obvia no fue generalizada por su alto precio. Eso hizo que las herramientas basadas en logs estirasen su vida útil, añadiendo mejoras para poder incorporar de alguna forma lo comentado. Sin duda aquí me enamoré de Urchin, una tool que era híbrida (logs+tags), a un precio muy asequible. Tanto fué así que nos fuimos a conocerlos a California, yo quería darla a conocer a todo el mundo. Nos dijeron que sí, que formaríamos parte de sus primeros partners en el mundo, pero que no nos asustáramos por las noticias...No entendí nada hasta que se lanzó la noticia meses después: ¡¡Google compraba Urchin!!. Efectivamente me asusté ¿se acordarían de nosotros?. La respuesta fue sí.

  • 2005: Se democratiza la medición basada en tags. Y fue gracias a Google, que al ofrecer Google Analytics gratis consiguió que todo el mundo instalara una herramienta de tags para medir su web. Evidentemente había una razón de peso para hacerlo, y es que más allá de la acción altruista, esta inmejorable acción de marketing consiguió potenciar sus anuncios de pago (Adwords) versus los de la competencia. La razón fue muy sencilla: “te regalo el sistema para que midas la efectividad de mis anuncios frente a otras campañas, y además podrás aprender a optimizarlos al conocer el comportamiento de tus usuarios”. Este es un punto de inflexión para muchas profesiones online y entre ellas la del analista web o web analytics consultant. Aquí realmente empieza una tendencia ascendente que no ha parado de crecer.

  • 2010: Por fin la estadística entra en juego. Desde un inicio mi gran anhelo como estadístico ha sido aplicar algoritmos avanzados de Data Mining a los datos de la web. Hasta el 2010 la analítica web se limitaba a hacer análisis descriptivos, es decir, meros contajes y cálculos de medias, eso sí, sobre cantidades ingentes de datos pero nada más. Esto cambió en 2006, cuando empezaron a aparecer tools que realizaban tests A/B, es decir, en vez de medir un acción antes y después para ver su impacto, utilizar una prueba estadística para predecir el resultado. No era algo muy sofisticado en términos de algoritmia, pero sí muy adecuado para mejorar la web. De nuevo Google liberó gratuitamente estas tools en 2010, y contribuyó a que ahora sea un estándar y base del método del CRO (customer rate optimization).   

  • 2015 hasta hoy: Pasamos definitivamente a hablar de Digital Analytics. Incluso lo podríamos situar antes en el tiempo, y es que la medición deja de ser sólo de web para incorporar la medición de smartphones y apps, además de conectarse a todas las fuentes digitales que se tenga disponibles (CRM’s, ERP’s,etc). Se entendió que lo importante ya no solo era conocer qué se hacía en un entorno concreto, sino saber cuál era el “customer journey”, de ahí que las herramientas de medición empiezan a diseñarse en modo “user centric”, para poder llegar a impactar a nivel usuario con técnicas de remarketing, scoring o personalización, en definitiva algoritmos avanzados. El Big Data entra en escena ya que el entorno web es el más idóneo, por la cantidad de datos disponibles y su necesidad de ser activados asap para no perder su valor. Hoy tenemos ya departamentos de datos compuestos por data scientists, data analysts y data engineers, que utilizan herramientas sobre todo en la nube, que no cumplen un propósito meramente web.

Y si hablamos del presente, parece que vivimos un cambio de paradigma: el reinado de las cookies parece llegar a su fin y la medición de la experiencia digital se adentra en un nueva etapa. ¿Cuál crees que debe ser la manera de enfocar la medición online? 

En mi opinión está pasando algo muy lógico, la información tiene un valor y se ha estado traficando con ella sin que el usuario final haya recibido nada a cambio. Esto va a promover algo que se debería haber dado desde el principio: premiar por dar más información sin castigar a los que prefieren no hacerlo. Para ello se prodigarán las áreas privadas con acceso vía login, que permitirá una experiencia más personalizada y con muchos más beneficios que un acceso anónimo. La medición seguirá siendo clave tanto en el entorno público/anónimo como el privado, usando la estadística más que nunca para extrapolar comportamientos.

En el caso de Google estamos en plena transición hacia su nueva solución: GA4. ¿Qué grandes cambios incorpora?

Siendo realistas, más que grandes cambios, GA4 responde a la gran necesidad de Google por tener una herramienta que, en mi opinión:

  • Unifique la medición de web y app (se adquirió Firebase en 2014 con ese propósito).

  • Cambie el paradigma de medición de GA pasando de sesiones a eventos, para conseguir lo anterior y a la vez ser mucho más flexible y adaptable (comentar que Adobe Analytics ha seguido este modelo desde mucho antes)

  • Potencie Google Cloud, siendo una de las primeras herramientas que ha entendido que la clave no es tener el dato en un informe, sino activarlo.

  • Reduzca costes para el propio Google, dado que se eliminan muchos de los informes estándar que proporcionaba GA, y se presenta Big query como el complemento perfecto para ir mucho más lejos

  • Finalmente, consigue una herramienta capaz de llegar mucho más allá que el resto a nivel publicitario, dado que modela las características de los usuarios anónimos basándose en su ecosistema de aplicaciones Google (gmail, youtube, etc.). 

A nivel usuario de la herramienta, también hay cambios pero no son tan espectaculares, por ahora…:  

  • Posibilidad de hacer un modelo de datos basado en eventos con más información (Antes solo podías poner categoría, acción y etiqueta y ahora nombre de evento y 50 parámetros)

  • Mide automáticamente algunos eventos comunes en la web, como los vídeos, las descargas de documentos o el scroll (se pueden desactivar). Un evento importante como la tasa de rebote desaparece, pero llega el ratio de interacción.

  • Embudos abiertos o cerrados: Se pueden aplicar segmentos y permite construir embudos basados en el valor de los parámetros.

  • Análisis de rutas directas o inversas y construidas a medida

  • Conexión con Bigquery para la versión free (antes solo en GA360). Permite acceder a los datos en bruto de cada evento y solo se paga por el consumo de BQ que se haga. Se convierte en imprescindible para sacarle toda la potencia a GA4.

  • Deduplicación de usuarios por user ID o Google Signals sin tener que tener una vista específica de User ID (Conteo de usuarios más fiable)

Alguna de las críticas que GA4 está recibiendo y que esperamos se mejorarán en breve son:

  • A nivel segmentos se da un paso atrás, dado que existen muchas menos opciones que antes

  • Los informes son más básicos, especialmente los de ecommerce, dando mucha más potencia a la explotación de la información vía big query (se necesitan conocimientos de SQL o trabajar los reports desde Data Studio o Looker)

Lo que también está sucediendo es que la transición a GA4 está generando dificultades con el famoso “Consent Mode”. ¿Cuál es tu valoración?

Para mi tanto la migración a GA4 como el “consent mode” van de la mano, ya que no sólo se consigue cumplir con la GDPR, haciendo que todos los servicios publicitarios de Google funcionen de acuerdo a ella, sino que también se proporciona una medición más precisa que el resto de la competencia, al modelarla de mejor manera.

Tal y como hemos estado comentando, históricamente Google siempre ha tratado la medición como una necesidad  clave, pero también como una ventaja competitiva en el mundo publicitario. Proponer un “consent mode” para que funcione la publicidad Google, sin una medición a la altura, proporciona menos control al anunciante y por tanto una posible reducción de sus inversiones. 

No sólo eso, uno de los principales usuarios de su medición es el propio Google, dado que está apostando por servicios de puja automática que utilizan el aprendizaje automático para maximizar las conversiones (Google smart bidding). Es por eso que la solución a nivel medición sirve tanto para el usuario final como para Google.

Otro asunto del que también se habla mucho es el de los CDPs (Customer Data Platform) y de hecho creo que andas involucrado en un proyecto sobre este tema. ¿Qué ventajas crees que aporta un CDP respecto a un CRM clásico y en qué casos una empresa debería apostar un CDP? 

No soy fan de las tecnologías que te obligan a invertir 6 meses de trabajo, con grandes promesas al final de ese período, pero sin ningún resultado hasta entonces. Ha pasado con los DMPs, pasa con los CDPs y lamentablemente seguirá pasando porque es donde se cierran los grandes deals.

Yo abogo por reutilizar y aprovechar al máximo infraestructuras o sistemas que ya existen, ya dan servicio a muchas áreas y que encima de ellas se puede trabajar para ir un paso más allá.

En ese sentido, estamos apostando por trabajar el Data Warehouse del cliente, que puede estar en la nube de Google, Amazon, Snowflake, etc, y convertirlo en un “CDP”. Esto consigue potenciar lo que ya tiene el cliente, minimizando costes y tiempos de implantación, activando cuando antes su uso.

El CRM es una herramienta fundamental pero se basa en datos transaccionales, es decir, no cuenta con datos de comportamiento antes de que un usuario se convirtiera en cliente. Eso impide saber el customer journey completo del cliente, y por tanto, que fue clave a la hora de convertirlo en cliente. Ahí es donde entra en escena del CDP.

¿Cuándo apostar por un CDP? Todo depende de la situación en la que te encuentres, del presupuesto que tengas y de la premura de resultados que necesites. Evidentemente, si no recoges datos precisos, de nada te servirá tener un CDP, CRM o las siglas que vengan en adelante :D

Sé que ahora andas inmerso en un nuevo proyector: Datarmony. Cuéntame un poco en qué consiste y cuál es la diferencia respecto al modelo clásico de consultoría

Tras muchos años haciendo consultoría de datos estaba algo frustrado por no poder impactar tanto como me gustaría en los clientes. Empecé a analizar la razón y salían justificaciones como las siguientes: no se invierte en proyectos realmente diferenciales, el cliente se conforma con proyectos tácticos, etc.

A la conclusión que llegué fue que no me veía como parte del problema y eso era un error. Si el cliente no estaba preparado para asumir proyectos más ambiciosos, quizás era por mi culpa. Ahí vi que, en general, la consultoría sigue un modelo que fomenta los clientes cautivos para así tenerlos por muchos años, es decir, es mejor que el cliente quede apartado de los proyectos, para que no pueda realizarlos sin tu ayuda. Eso provoca que el cliente no aprenda y siempre te pida los mismos proyectos. 

Datarmony nace para cambiar la consultoría de datos clásica (data consulting) hacia otro modelo, el data consulteam. Aquí la clave ya no son los proyectos, son las personas y su transformación en mejores profesionales de data. Evidentemente existen los proyectos, pero se utilizan para corroborar que el equipo del cliente está adquiriendo adecuadamente los conocimientos que le transmitimos, hacemos de data coach

Datarmony tiene 2 objetivos fundamentales:

  1. Fomentar el talento, al compartir el conocimiento y al crear equipos del cliente en aprendizaje continuo

  2. Potencia la Inteligencia Artificial, para aprovechar al máximo el valor del dato, activándolo en tiempo real

En conclusión, Datarmony construye equipos para orquestar los datos, a través de la unión de lo mejor de la Inteligencia Artificial y las personas.

¿Qué es para ti la Inteligencia Artificial? ¿Qué casos de uso actuales te parecen más sorprendentes?

La Inteligencia Artificial es la clave para obtener el máximo valor del dato, porque aplica sus hallazgos en tiempo real. Visto de otra forma, cuanto más tiempo pase entre el descubrimiento que hemos hecho gracias a unos datos y su aplicación, menos impacto tendrá ese descubrimiento. Es por esta razón que la IA ha adquirido tanta importancia.

Aunque parezca una disciplina muy reciente, los algoritmos en los que se basa tienen dos siglos. Lo que sí que es reciente es su aplicación, por dos sencillas razones: el poder de procesamiento de la tecnología de los últimos años, la gran cantidad de datos disponibles.

Lo más sorprendente del uso actual, es ver cómo se cumple la ley de Amara: “Amara’s Law: we tend to overestimate the effect of a technology in the short run and underestimate the effect in the long run”

Todo el mundo ha hablado de la IA como el “Terminator” del mundo (las máquinas acabarán con nuestra raza) y lo que vemos realmente es como cada día se hace más clave en nuestro día a día.

Las tres tendencias más marcadas ahora mismo serían:

  1. Ciberseguridad con inteligencia artificial, que actualmente es la que aporta más dinero

  2. La línea ética, corrección de algoritmos sesgados, optimización de recursos de procesamiento, ya aplicada a la ecología

  3. IOT, procesamiento de lenguaje natural, algoritmia de interpretación visual

Los ejemplos que surgen a diario son incontables, pero el que más me sorprendió esta semana fue el siguiente: Dos experimentos consiguen el control remoto de dispositivos con la mente y sin implantes, gracias a la IA

Uno de los aspectos que más me inquieta del mundo del IA es la “no explicabilidad” de ciertos algoritmos y los sesgos que incorporan algunos modelos. ¿Cuál crees que es la forma de gestionar este problema?

Muy sencillo, la IA está hecha por humanos y si dentro de los requerimientos que se siguen para diseñar esos algoritmos, no se tienen en cuenta temas éticos, muy probablemente obtengamos modelos sexistas, machistas, etc. porque los algoritmos se basan en históricos de datos, datos de comportamientos humanos que en muchas casos son efectivamente sexistas, machistas, etc. Es decir la IA no deja de ser un espejo de nuestra realidad.

Internet está lleno de noticias en las que grandes compañías salen retratadas, al usar algoritmos que por desgracia discriminan a un colectivo. Hay veces que por ignorancia otras con mala fe, pero en definitiva, el problema reside en que a la hora de diseñar estos modelos nadie le dió importancia a esto.

Es indispensable ser consciente de ello, para exigir y validar si los algoritmos que usamos están teniendo en cuenta esa ética. 

Termina esta frase. Un buen Digital Analyst es…

Es un curioso por naturaleza que disfruta usando el idioma de los números para explicar el pasado, el presente y el futuro. Aunque sus conocimientos técnicos son los que despiertan más interés (programación, estadística, matemáticas)*, su espíritu crítico y creatividad son incluso más importantes para resolver problemas, además de su facilidad de comunicación para explicar la solución a los mismos**

*En mi opinión las máquinas nos superarán en estos ámbitos 

**En mi opinión las máquinas no nos superarán fácilmente en estos ámbitos 

Miremos ahora hacia el futuro. ¿Qué grandes cambios vivirá el mundo de la Analítica en los próximos 5 años?

  • El reportar quedará en un segundo plano y se fomentará más el actuar, donde la IA será clave

  • Obtendrán más relevancia los factores humanos que la IA no controla: la creatividad, la experimentación y el diseño de nuevas pruebas

  • Los análisis se enfocarán más hacia la reducción de costes que a maximizar ventas, dada la escasez de los recursos

  • En un escenario sin cookies la IA se hará todavía más necesaria, dado que gracias a sus modelos se podrán inferir muchas de las características que identificamos ahora.

  • La IA y la publicidad tomarán la calle. Por fin tendremos un DOOH inteligente, es decir, dotado de sentidos basados en IA como“computer vision” o “Natural Language Processing”, que identifica al público ideal y le propone el producto más afín según su comportamiento, el momento del día, la temperatura, el histórico de ventas, etc. Aunque parezca Minority Report, esto ya se ha aplicado con éxito en España (ver caso Cepsa

  • Los móviles ahora y wearables en el futuro (relojes, gafas, chips, etc) serán las nuevas cookies para la publicidad, con la diferencia que el usuario los podrá configurar a voluntad para ser o no impactado por los anuncios. Otra vez aquí la IA será utilizada para inferir datos.

Anterior
Anterior

Conversación con Francisco Ramírez

Siguiente
Siguiente

Conversación con Eduard Gil