Conversación con Jordi Poll

Soy ingeniero industrial por la Universitat Politècnica de Catalunya, aunque muy pronto me di cuenta de que la electrotecnia y la termodinámica no me apasionaban y rápidamente me orienté a la rama de la carrera donde se tratan más temas de empresa y negocio. Al acabar la carrera, tuve la oportunidad de trabajar en consultoría en entornos de componente estratégico pero donde la tecnología jugaba un papel importante, primero 1 añito en Everis y luego durante 3 años en PwC. En 2017 di el salto a la industria tech, embarcándome en la aventura de letgo (un marketplace como Wallapop, que ha operado en EEUU, Canadá y Turquía) desde Barcelona. Primero como analista del equipo de Monetización, donde estoy orgulloso de decir que ayudé a que la compañía ingresara sus primeros dólares, y ahora desde hace casi 2 años llevando el equipo de Data Analytics.

Suelo comenzar estas conversaciones con un pequeño viaje al pasado En tu caso, estudiaste Ingeniería Industrial pero has acabado desarrollando tu carrera profesional en el ámbito de Data & Analytics. ¿Cómo fue tu evolución y en qué momento tuviste claro que el mundo del Dato era tu vocación?

Los que me conocen bien suelen decir que soy el ingeniero menos ingeniero que hay, y es verdad. Nunca en la vida he entendido un sistema trifásico y si un mueble del IKEA es complicadito mejor no cuentes mucho conmigo para la mudanza. Lo cierto es que, aunque suene raro, yo creo que tengo vocación de abogado. Lo mío es el debate, la argumentación, la discusión. De todos modos, estudié ingeniería porque se me dan bien los números y aplicarlos para cosas prácticas y, buscando tema para un trabajo de la universidad que no tuviera que ver (por una vez!) con turbinas o vigas flexionadas, me encontré en unas sesiones del CCCB sobre Open Data - la práctica que persigue que determinados tipos de datos estén disponibles de forma libre para todo el mundo. 

Aquellas sesiones me marcaron muchísimo: desde la filosofía del movimiento en sí mismo, hasta las tecnologías en las que se apoyaba, pasando por los ponentes que impartían los talleres: auténticos Data Evangelists, como está de moda llamarlos ahora. Hoy en día soy de esos que se bajan los datos sobre el COVID en crudo y me monto mis propias gráficas para saber cómo está la cosa: es mucho más informativo que fiarse de según qué medios, que no dudarán en producir un titular capcioso si eso puede traducirse en unos cuantos clicks que a su vez generen ingresos por publicidad. De hecho, también fue en aquellas sesiones donde escuché por primera vez una de mis citas favoritas: “If we have data, let’s look at data. If all we have are opinions, let’s go with mine”, de Jim Barksdale. Para un discutidor empedernido como yo, eso sonaba al santo grial del debate: si tienes los datos, tienes la razón. Luego descubriría que eso dista mucho de ser verdad: no solo hay infinitos ángulos desde los que mirar los datos, sino que la manera como se expliquen influye muchísimo en la toma de decisiones, que es al final para lo que acostumbran a usarse los datos.

Una vez tenía el gusanillo dentro, era cuestión de encontrar el mejor entorno. Lo bueno de trabajar en grandes consultoras es que ves en tu día a día a los clientes (normalmente grandes empresas) enfrentándose a los grandes retos del momento, y es fácil darse cuenta de de qué tipo de capacidades y soluciones está hambriento el mercado laboral, así que tienes pistas para formarte y para intentar elegir tu propio camino. En el mío se cruzó letgo, y fue una oportunidad buenísima para unirme al mundo tech en Barcelona, en una empresa que ha invertido muy fuerte en Data, y donde durante ya casi 5 años he podido seguir creciendo. Y, desde luego, sigo siendo un enfermo de los datos y de pintarlos de todas las maneras posibles, hasta el punto que mi pareja mi chincha llamándome “Head of BI” cada vez que me pongo pesado.

Y desde ese primer momento en el que se despierta tu pasión por el dato hasta ahora ¿qué cambios dirías que ha vivido el campo de Data & Analytics? Estoy pensando en aquellos cambios relacionados con plataformas, procesos, modelos, etc

La verdad es que soy un profesional joven, y se me hace raro pensar en echar la vista atrás para hacer un análisis retrospectivo como si fuera un gran gurú con 30 años de experiencia en un mismo campo.

No obstante, no es ningún tópico que el mundo cada día evoluciona más rápido, y más aún en entornos relativamente emergentes como todo lo relacionado con Data y computación. Yo diría que los cambios que más he podido ver son aquellos relacionados con la madurez de la industria. Recuerdo asistir a muchos talleres sobre Big Data cuando trabajaba en consultoría, tanto a título individual como a nivel profesional, y salir siempre con la misma impresión: todo muy interesante, todo muy avanzado, pero ¿quién sabe realmente de esto? ¿Cómo va a revertir un paradigma como este en una PYME cualquiera, si las formaciones sobre el tema no pasan de power points muy superficiales? Hoy en día en Barcelona hay (no tantísimos, pero hay) auténticos arquitectos de Data que saben cómo construir plataformas de datos que se adapten a las necesidades de la empresa en cuestión.

Lo mismo recuerdo con la fiebre de los CRM, y especialmente de Salesforce. Parecía que si no tenías un CRM no eras nadie, y recuerdo proyectos de consultoría donde empresas sin ninguna necesidad de tener un CRM potente buscaban asesoramiento para saber cual implementar. Hoy en día pasa con el Machine Learning. Es una industria que está en expansión, con nuevas tecnologías apareciendo a diario, y vivimos en un constante Hype Cycle para cada una de ellas.

Actualmente eres Head of Data Analytics en letgo. Me gustaría que me contaras con qué tipo de datos trabajáis tú y tu equipo y cuáles son las grandes preguntas de negocio qué tenéis que responder

Letgo es un marketplace de bienes usados, y como tal, tenemos en una cara de la moneda la oferta y en la otra cara de la moneda la demanda. Nuestro objetivo es diseñar una experiencia satisfactoria para ambos, obviamente tratando de optimizar nuestro beneficio. Para ello, usamos todo tipo de datos: sobre nuestros usuarios, sobre los productos que publican, sobre las interacciones que ocurren entre ellos, sobre elementos externos (competidores, tendencias del mercado, etc.), etc.

La mayor parte de la experiencia es online, cosa que facilita muchísimo la creación e ingestión del dato. Medimos al milímetro el comportamiento de los usuarios en nuestra plataforma para ayudar a los equipos de Producto a seguir diseñando la mejor experiencia, apoyándolos con análisis, formulación de hipótesis y experimentación. También agregamos todo tipo de datos para ayudar en la toma de decisiones más tácticas (campañas de marketing, etc.) y estratégicas (verticales a potenciar, inversiones a realizar, etc.).

Hace años, un compañero que trabajaba en una App de venta de productos de segunda mano, me habló de un reto analítico “curioso”. Te explico: la legislación vigente en aquel momento impedía la venta de animales, vacunas, medicamentos, etc. Sin embargo los usuarios se las ingeniaban para camuflar estos “artículos” con un cambio de nombre. Esta compañía tuvo que implementar un sistema de reconocimiento de imagen para detectar estos fraudes. ¿Habéis tenido que lidiar con casos similares? En caso afirmativo, ¿podrías decir el enfoque analítico que habéis seguido? 

Por supuesto, este es un reto importantísimo para nosotros. Nos tomamos este tema muy en serio; al final, nosotros ponemos a personas en contacto y en cierta manera jugamos un papel en aquello que les ocurra. Piensa que en EEUU, con la proliferación de armas de fuego que hay en la calle, no es nada raro que tengas un susto yendo a comprar o a vender un iPhone o una Play Station - es lógico, vas a una cita con un desconocido o bien con un objeto valioso o bien con bastante dinero en efectivo, y eso conlleva un riesgo. Por desgracia, han ocurrido incidentes muy tristes y no nos podemos permitir no estar muy encima de este tema. 

Ya desde una óptica más fría, cualquier tipo de comportamiento indeseado (no solo la venta de bienes ilegales o prohibidos, sino también el fraude, el acoso, etc.) tiene un impacto grave en el negocio: de una forma u otra empobrece la experiencia de usuario, que pronto se refleja en peores cifras de retención de usuarios e inevitablemente impactará en la cifra de negocio. O los usuarios percibirán la plataforma como un lugar inseguro y cutre, y no un lugar para intercambiar bienes de alto valor monetario, que son los interesantes a nivel de negocio. 

Por todo ello hemos invertido muchos recursos en potenciar la confianza y la seguridad de los usuarios en la plataforma, y la analítica ha sido una herramienta clave. Uno de los equipos más potentes analíticamente en letgo es precisamente el responsable de estos temas. Hemos optado por un enfoque analítico muy exhaustivo: hemos diseñado indicadores que nosotros consideramos que nos sirven como brújula para monitorizar la confianza y la seguridad de los usuarios, y a partir de ahí hemos desgranado todos los conceptos que entendemos que impactan en estos indicadores, desarrollando a su vez métricas para monitorizar estos últimos. Cada uno de estos conceptos tiene responsables en nuestra organización: a veces equipos de producto, a veces de operaciones, y a veces partners externos.

Y qué herramientas utilizáis y con qué finalidad

Para moderar los productos que se suben a nuestra plataforma usamos reconocimiento de imagen - hemos explorado soluciones de terceros, soluciones in-house, híbridos (hay opciones de terceros fáciles de usar como Clarifai o Cloudsight, y también plataformas cloud como Sagemaker donde crear, entrenar y desplegar modelos de ML). Iteramos continuamente buscando un compromiso entre eficiencia y precisión. Es la clase de proyecto dónde funciona muy bien que participen perfiles diversos: gente de producto para cuidar la experiencia de usuario y dar claridad sobre el roadmap de producto, gente de operaciones para entender el impacto de la solución en nuestra organización, gente de data science para el modelado, Machine Learning Engineers para la implementación y gente de analytics que monitorice el rendimiento y ayude a comprender los trade-offs de cada solución.

El tema del roadmap de producto es algo a tener en cuenta siempre: nosotros dedicamos un esfuerzo tremendo a la moderación de contenido cuando este se publicaba como imágenes, y de repente el equipo de producto implementó los video-anuncios. Los productos se subían a la plataforma en formato video. Imagínate el problema. Moderar contenido no solo de vídeo, sino también su correspondiente audio - usuarios que hacen un video de una taza y si escuchas el audio te das cuenta de que está ofreciendo droga. No me imagino como deben moderar en los marketplaces chinos: allí los vendedores publicitan sus productos en streaming. A tiempo real. En cualquier caso, la colaboración de los usuarios es inestimable, ellos mismos también cuentan con la posibilidad de reportar el mal contenido o comportamiento. Aunque de eso también se abusa, y también tenemos que monitorizarlo.

En ese sentido, usamos motores de reglas tanto propios como de terceros para moderar el comportamiento de los usuarios en real time y también en batch, dependiendo del contexto. Y esas reglas se definen usando técnicas tanto de analytics como de ML.

Hablando de herramientas. Me consta que eres un experto en herramientas de Product Analytics. Espero no ponerte en un brete, pero te voy a pedir que me digas los puntos fuertes y los puntos débiles de tres herramientas que algunos equipos de Producto usan para Product Analytics: Amplitude, MixPanel y Google Analytics.

Es curioso, porque estas 3 herramientas se comparan bastante a menudo entre sí y (como siempre) la comparativa depende radicalmente del caso de uso. En mi opinión, podemos hacer un grupo con Amplitude y Mixpanel, y otro con GA.

Es cierto que GA puede usarse para lo mismo que Amplitude o Mixpanel en determinados casos. Por ejemplo, en webs de contenido, en e-commerce, o incluso (desde que integraron Firebase) en apps que no tengan demasiada complejidad de interacción de usuario. A la que la complejidad crece, GA pierde muchos puntos debido a su menor profundidad en muchos aspectos (taxonómicos, analíticos, de reporting, etc.) y es por ello que yo personalmente no la considero una herramienta de Product Analytics, entendiendo Product como un producto de software complejo, con un nivel de funcionalidad elevado, y con muchas necesidades de análisis específicas del propio producto, más allá de las métricas relevantes para cualquier entorno digital.

Si estamos hablando de un producto complejo (un Spotify, un N26, un Glovo) GA se nos queda corto para hacer Product Analytics, y sin embargo es muy posible (e incluso recomendable) que sigamos usándolo en paralelo a herramientas como Amplitude o Mixpanel para todo aquello que sucede ANTES de que el usuario empiece a utilizar el producto: la atribución de marketing. No obstante, para todo aquello que sucede EN el producto, usaremos Mixpanel o Amplitude. ¿Cuándo elegir uno u otro? Depende de los casos de uso, pero en general se puede afirmar que Amplitude tiene más potencia, flexibilidad y profundidad en la parte analítica, y que Mixpanel tiene algunas capacidades out-of-the-box muy útiles (ab testing, in app notifications, integraciones) que pueden hacerlo muy interesante. En tema precios, hasta llegar a volúmenes bastante grandes de datos a procesar, ambos ofrecen planes gratuitos. Luego, Amplitude es considerablemente más caro.

Hablemos ahora de las personas. ¿Qué perfiles son necesarios para tener un buen equipo de Data & Analytics? 

Más allá de Data Analysts, Data Scientists y Data Engineers, los más habituales dentro de los equipos de Data, hay algunos roles que (pienso) son menos habituales y sin embargo opino que aportan muchísimo a los equipos de Data y a sus compañías.

Uno es un híbrido entre Data Engineer y Data Analyst que en algunos sitios se bautiza como BI Engineer. Es un rol muy enfocado a catalizar el procesado del conjunto de datos concreto que va a requerir un equipo o una parte de la organización (su modelado, su extracción, etc.) a diferencia del Data Engineer que trabaja sobre la plataforma de datos de un modo mucho más holístico.

Otro es el ML Ops, o ML engineer. Es un rol a veces reciclado de un ingeniero de backend, pero con conocimiento sobre el ciclo de vida de los proyectos de ML y que es muy útil para asegurar que la implementación de un proyecto de ML llegue a buen puerto, cosa que suele ser un reto importante.

Finalmente mi favorito es el híbrido entre analista y product owner. A veces se le llama Data Product Owner. Es aquel rol que entiende Data Analytics como un equipo que tiene clientes internos (los demás equipos de la organización) a quienes tiene que servir productos (reportes, dashboards, modelos, etc.) para darles más autonomía, potenciando el concepto del self service. Esto se dirige a evitar que los equipos de Analytics se conviertan en meros “contestadores de preguntas concretas”.

¿Y qué perfiles son ahora mismo más complicados de encontrar? 

En general es complicado encontrar ese balance entre capacidad técnica y comprensión del negocio que hace que un profesional de Data pueda ser realmente útil en los equipos. Y a nivel técnico, seguramente los perfiles más complicados de encontrar sean los Data Engineers y Data Architects experimentados.

Termina esta frase. Un buen equipo de Data Analytics es aquel que….

Es aquel que funciona de manera independiente al resto de equipos, está vertical y horizontalmente integrado (analytics, science, engineering) pero está fuertemente alineado con los objetivos de negocio, y colabora muy estrechamente con los demás equipos (producto, marketing, operaciones). 

Lo primero lo considero importante para centralizar la toma de decisiones respecto al enfoque de proyectos complejos, análisis complicados, armonización de recursos, etc. en una organización de Data madura. 

Lo segundo es evidente: los demás equipos son nuestros clientes, y debemos proveerles de aquellos productos (en cualquier forma) que les ayuden a tomar mejores decisiones y a ser más eficientes.

¿Y cuál es la clave para que surja la magia y que sea un equipo de alto rendimiento? 

En mi opinión es importante el reto, el propósito. Sentir que se trabaja con los datos para conseguir un objetivo motivador. 

En segundo lugar, pienso que influye mucho el hecho de que la empresa decida invertir en tecnologías modernas y atractivas. Al fin y al cabo, muchos profesionales del dato tienen una vocación experta: quieren estar al día de todo lo nuevo, quieren tener más conocimientos. Es un modelo de gestión de personas distinto, ya que muchas veces el objetivo no es crecer para gestionar equipos, sino crecer para ser más experto. Si esto no se reconoce y no se integra en la cultura de la empresa, es difícil que un equipo tan técnico rinda al máximo.

Por otro lado, también dedicas parte de tu tiempo a impartir formación, como por ejemplo en el Barcelona Data Institute. ¿Qué es lo que más te gusta de dar formaciones? 

Tengo bastante vocación de profesor, toda la vida he dado clases particulares de muchas materias. Lo que más me gusta es reconocer en los demás dudas que también he tenido yo, y poder compartir mi propio proceso de aprendizaje. También me gusta notar que cuando explico algo que me interesa y me motiva, cambia el tono de quien escucha. Creo mucho en la frase que dice que no hay malos estudiantes, sino profesores desmotivados.

Y sobre qué temas de Data Analytics crees que hay más necesidad de formación

A la vista de las veces que salimos al mercado a buscar personas, diría que las áreas de Data Engineering son en las que encontramos menos candidatos (¡y sobre todo candidatas!) con la formación necesaria.

Si miramos hacia el futuro ¿qué grandes podemos esperar en los próximos 5-10 años en el mundo de Data & Analytics?

No soy mucho de pronósticos, pero me la jugaré con dos. Uno más mundano y el otro “más a lo grande”. Creo que próximamente veremos muchas novedades en materia de herramientas de análisis y reporting super self-service, plataformas que prometerán que se puede prescindir de equipos enteros de analistas. No creo que esa promesa tenga base, desde luego, porque los datos siempre hay que interpretarlos.

Y mi segundo pronóstico es que en 10 años la inteligencia artificial habrá dado pasos decisivos para ser plenamente productiva no solo en el sector privado sino también en el público, donde probablemente se concentren ahora mismo las mayores ineficiencias.

 

Recientemente entrevisté a Israel Olalla (Customer Engineer Manager del equipo de Google Cloud) y le pedí que hiciera una pregunta para la siguiente persona a entrevistar. Su pregunta fue: ¿Cuál es tu dataset favorito?

No sé si es mi favorito, pero desde luego algunos de los que más he usado en los últimos 2 años son los de Dades COVID. Ante la tormenta de datos sobre el coronavirus que tenemos encima día sí y día también, donde entre medios y entorno nos pasamos el día oyendo pontificaciones basadas en datos que nunca sabemos cómo de sesgados o objetivos son, a mi me ha ido muy bien contestar mis propias dudas y tener una comprensión sobre la realidad a través del análisis de estos datos. En mi opinión están bien estructurados, cubren suficientes dimensiones como para poder analizarlos desde múltiples perspectivas, su frecuencia de actualización es muy buena y es muy fácil acceder a ellos para explotarlos.

Y tú ¿qué pregunta le harías a la próxima persona entrevistada?

Tú qué preferirías, ¿un equipo de Data Analytics centralizado donde los analistas tocan todos los dominios, o un equipo de Product Analytics, otro de Operations Analytics, otro de Marketing Analytics, etc.?

Anterior
Anterior

Conversación con Enrique Mora

Siguiente
Siguiente

Conversación con Israel Olalla