Conversación con Justo Hidalgo

Justo Hidalgo es un apasionado de la creación de productos digitales responsables basados en datos, IA y psicología comportamental. Tras años de investigación, emprendimiento y roles de gestión de todo tipo de productos, es ahora director de inteligencia artificial en Adigital. Es doctor en informática y autor de varios libros.


Siempre empiezo estas conversaciones con un pequeño salto en el tiempo. Viajemos a los años 90, que es cuando iniciaste tus estudios en Ingeniería Informática. ¿Qué te llevó a tomar esa decisión?  

Pues con total sinceridad, estudié ingeniería informática porque… no me dio la nota para Teleco, que fue mi sueño durante años. Eso de lanzar satélites al espacio para que llegase la señal de la final de baloncesto de los Juegos Olímpicos…me fascinaba. Pero una mala selectividad (lo que ahora es la EBAU) me obligó a buscar un plan B. Seguí intentando saltar a Teleco (convalidación de asignaturas, hacer una carrera técnica tras la de informática, doctorado) pero todo parecía estar en contra mía. Y sin embargo, cuando empecé a trabajar y a ver que los Telecos hacían lo mismo que yo y que incluso empezaba a gestionar equipos con Telecos, me di cuenta de que realmente llevaba tiempo haciendo lo que soñaba hace años. Y cuando me ofrecieron la posibilidad de irme a Teleco a terminar mi tesis doctoral… lo rechacé. Ya tenía mucho más claro lo que quería. 

Y una vez acabaste tus estudios, veo que en los primeros años de tu carrera profesional te sumergiste en el área de I+D. Cuéntame algo de esa etapa 

Tras terminar la carrera, realicé una summer session en una universidad americana, una especie de tercer trimestre que tienen en EEUU para aquellos alumnos que quieren terminar antes el grado, pero que también permite que estudiantes extranjeros pasen un verano estudiando y teniendo la aventura de vivir en un campus, etc. Y justo al acabar tuve la inmensa suerte de, empezar a trabajar en la pequeña empresa de un profesor que tuve en la Autónoma. Esta empresa tenía varios enfoques que sigo considerando casi únicos. El primero es que su idea inicial era montar un “bufete de ingenieros”. Con foco en áreas como las redes de telecomunicaciones, el internet 1.0 o los sistemas en tiempo real, curramos muchísimo pero aprendiendo muchas cosas. Ahí es cuando me vi en equipos híbridos con Telecos y físicos. Empezamos a programar web sites con cgi-bins que se conectaban con nuestros servidores, creando uno de los primeros motores de búsqueda en Internet; el primer comparador de productos en español; el primer medidor de calidad de servicio de páginas web basados en tecnologías de browsers como Mozilla o Internet Explorer… fue una época de mucho trabajo (casi no recuerdo un sábado tarde que no estuviese allí) pero apasionante.

El segundo enfoque es que no solo se permitía sino que se animaba a que impartiésemos clases en diversas universidades y que buscásemos obtener una tesis doctoral. Y así una persona tímida y reservada como yo terminó dando clases, defendiendo proyectos y demás. Aunque mi tesis doctoral la terminé en una segunda etapa que mencionaré después, fue aquí cuando empecé a darme cuenta de que los proyectos que me motivaban habían de tener ese componente de innovación, de algo único, de algo desafiante que no fuese “lo de siempre”, aunque eso supusiese más trabajo y más riesgo de fracaso. El camino es lo que lo hace especial. 

¿Y en qué momento empezó tu idilio con los datos?

Desde mi summer session en la universidad de Maryland: allí estudié una asignatura de bases de datos avanzadas y empecé a meterme en el mundo de los sistemas distribuidos. Vi que el aumento de volumen de datos que ya empezábamos a ver con la llegada de Internet y la World Wide Web implicaría nuevas maneras de tratarlos. Jamás se me hubiese ocurrido pensar en lo que terminaría siendo el Big Data, pero era evidente que iban a pasar muchas cosas. Yo venia, en la carrera, de pensar que me iría hacia temas de hardware, pero en esas seis semanas cambié de opinión totalmente. 

Después, con mis primeras experiencias creando un motor de búsqueda en Internet o ya con los primeros proyectos de Denodo, me metí de lleno. 

Hablemos pues de tu etapa en Denodo, empresa en la que estuviste casi 7 años, en diferentes roles y con estancia incluida en Palo Alto. ¿Qué grandes aspectos relacionados con la utilización de los datos destacarías de ese periodo? ¿Algún caso de uso que quieras remarcar?

En Denodo volví a coincidir con mis compañeros de la empresa anterior, así que para mí cuenta como más de diez años ;) Lo que ocurre es que en Denodo ya teníamos un foco de empresa de producto, algo casi impensable en el año 2000-2001 en España. Aprendí muchísimo y sobre todo la experiencia vital de Palo Alto durante dos años fue mi máster. Defendí mi tesis doctoral un lunes y el domingo estaba volando a Palo Alto con mi mujer a ser la interfaz técnica del incipiente equipo que se estaba montando allí. Así que traté con los primeros clientes en EEUU: tenía la relación técnica con los consultores de Gartner o Forrester, acompañaba a las visitas comerciales y de partners a California, Las Vegas o Washington, empecé a liderar un equipo internacional de ingenieros preventa,… Fue muy muy intenso, pero me sirvió para comprender la complejidad de una empresa de producto en la NBA del mundillo tecnológico. 

Casos de uso hubo muchos. Me quedo quizá con uno muy pequeño pero que creo que me sirvió a mi y a mi incipiente equipo de preventa a ver el potencial que podía tener la herramienta de Denodo en un entorno empresarial abierto. En 2008 competimos en un hackathon que se celebraba en el Computer History Museum de Mountain View, al lado de Google. Allí, mi compañero Juan Lozano (que sigue en Denodo) y yo integramos LinkedIn, Salesforce y algunos servicios más para mostrar cómo automatizar procesos de ventas complejos. El resto de los participantes estaban creando integraciones B2C (mapas con información de cines, esas cosas), pero nosotros veíamos el potencial de aplicar estos enfoques a la gran empresa. Denodo es ahora líder mundial de la virtualización de datos y acaba de levantar 336 millones de dólares, así que parece que lo han conseguido ;)

Y regresando ya al presente. En mayo de 2023 te incorporaste como Chief Artificial Intelligence Officer en Adigital. ¿En qué consiste tu rol y cuáles son tus principales responsabilidades?

Adigital es una asociación con más de 25 años en España que representa a más de 500 empresas en todo lo que tiene que ver con la economía digital. Yo llevaba años colaborando con ellos en temas formativos y me asombraba su capacidad informativa y de llegada a sus asociados. 

Aunque llevo en el mundo de los datos y la Inteligencia Artificial (IA) muchos años, yo he sido uno más de los muchos que se quedaron atónitos con la llegada de ChatGPT. Me metí a fondo, dedicando muchas noches y fines de semana a comprobar que, lo que hacía apenas cuatro años, en mi última empresa como socio, nos llevaba técnicamente semanas o meses construir, ahora se podía hacer en unas horitas. 

Si yo, con supuestamente algo de conocimiento sobre el tema, me encontraba flipando casi cada día… ¿cómo se encontrarían muchas empresas y profesionales que no habían estado expuestas a los últimos doce años de IA?

Y ahí surgió una reflexión conjunta con Adigital de que hacía falta un rol que, empezando con IA pero evolucionando en el futuro hacia cualquier tendencia tecnológica con realidad de mercado y que afecte a la sociedad, se encargase de acompañar a las empresas asociadas desde la parte formativa a la regulatoria, pasando por la ética. ¡Y aquí estamos! 

De hecho, me gustaría preguntarte por el sello de transparencia algorítmica, el proyecto  por el que tú y yo nos conocimos ¿En qué consiste y qué fines persigue?

En esa reflexión sobre cómo acompañar adecuadamente a las empresas españolas, aparece evidentemente la cercana regulación europea de IA. Para no aburrir a tus lectores, el tema es que este reglamento puede potencialmente afectar a muchísimas empresas de todo tipo. Pero todavía hay mucha incertidumbre, y la seguirá habiendo durante los años de carencia hasta que sea de cumplimiento obligatorio. 

Por otra parte, hay una tendencia cada vez más clara y necesaria hacia una IA “responsable” (más sobre esto después). 

¿Cómo ayudar a las muchas empresas afectadas a prepararse para el reglamento? Desde Adigital hemos propuesto y puesto en marcha un Certificado de Transparencia Algorítmica, que permita a las empresas, voluntariamente, evaluar y analizar sus sistemas de IA más relevantes y prepararles para las partes más relevantes de la IA responsable que consideramos que se pueden medir adecuadamente con el estado del arte actual: la privacidad, la seguridad, y sobre todo la transparencia y la explicabilidad de los modelos. 

Lo que buscamos se puede resumir en tres puntos: (1) que las empresas dispongan de un sello que ofrezca confianza a sus clientes, usuarios y también a los reguladores. (2) Que el certificado ayude a que las empresas mejoren sus iniciativas de transparencia y analicen técnicamente hasta dónde pueden llegar en cuanto a explicabilidad, análisis de sesgos o representatividad. Y (3) que estos sistemas certificados se conviertan en ejemplos que sirvan a los reguladores para aplicar adecuadamente la regulación teniendo en cuenta lo que se está haciendo en el mercado real. 

De hecho, este proyecto se puede considerar como una de las piezas de todo lo que se llama Inteligencia Artificial (IA) responsable. ¿Cuál es tu definición de IA responsable?

No sé si seré capaz de definirlo sin convertirlo en una lista de los elementos que, en la actualidad, lo componen. Pero lo intentaré, aunque luego termine listándolos ;).

La IA responsable, para mí, es la capacidad y posibilidad de crear sistemas de IA éticos y transparentes, asegurando que estén alineados con los valores sociales, los derechos fundamentales de los seres humanos y de nuestra sociedad, y las normas legales, promoviendo resultados beneficiosos y previniendo daños.

Creo que no lo he conseguido, pues al final he metido los elementos fundamentales: transparencia, alineamiento con los objetivos humanos, seguimiento legal, justicia y equidad, sostenibilidad de nuestra sociedad, … Estos son algunos de los componentes que hemos de evaluar en nuestros sistemas de IA, así como de algoritmia compleja. 

Lo importante para mi es que más allá de las métricas de fiabilidad y de prestaciones, hemos de tratar los sistemas de IA como algo mucho más relevante. Soy muy pesado con esta frase, pero pasamos de ser los que creábamos los algoritmos, a ser los que creamos el algoritmo QUE CREA LOS ALGORITMOS. Este paso intermedio lo cambia todo. 

¿Y por qué una empresa debería dedicar tiempo y recursos a cuestiones de responsabilidad en IA? Algunas personas podrán pensar que supone un esfuerzo considerable sin un retorno evidente

Creo que ya hemos pasado esa puerta y no se va a volver a abrir. La Web 2.0 nos trajo ejemplos de aplicaciones que no tuvieron en cuenta la responsabilidad en cuanto al uso de los datos, etc., porque ni los usuarios ni los reguladores sabíamos lo que podía llegar a pasar. Más allá de documentales como “El Dilema Social”, lo cierto es que la sociedad entiende mucho mejor que antes el potencial positivo y negativo que la mala utilización de los datos y la información puede conllevar. Y eso implica que, por definición, todo proyecto digital ha de ser un proyecto responsable.  Y todo proyecto de IA, de IA responsable. 

Así que, respondiendo por fin a tu pregunta, creo que hay dos razones. La primera, porque regulatoriamente se nos va a exigir. Y si el Efecto Bruselas sigue existiendo - que determina que las regulaciones europeas terminan llegando a gran parte del mundo-, huir no va a ser una opción. La segunda, más importante, es que DEBEMOS hacerlo. Y muchas empresas, como la tuya, hace tiempo que lo entienden.

Otra cosa es cómo interpreta cada uno conceptos tan complejos como la justicia o la equidad. Eso da para otro debate. 

También hay quien sostiene que: un exceso de regulación sobre la IA puede frenar la innovación. ¿Cuál es tu punto de vista al respecto?

Y es cierto. El gran desafío de la Unión Europea no es lo que ha hecho hasta ahora, que es regular con leyes como la DSA, la DMA, el reglamento de IA, etc. Sino cómo ella y sus países miembros van a implementar la interpretación de estas leyes para encontrar el equilibrio entre la defensa de nuestros derechos fundamentales y la necesidad de ser competitivos a escala global. El reglamento de IA, por ejemplo, parte de objetivos muy nobles y loables. Pero al ser un reglamento horizontal que aplica a cualquier sistema de IA, surgen dudas de cómo será capaz de gestionar cambios tecnológicos y sociales tan grandes como los que nos aguardan en los próximos años. Anu Bradford, en su último libro “Digital Empires”, explica muy bien la diferencia entre los estilos regulatorios de EEUU, China y la UE. Parece que la UE eligió un camino interesante y potencialmente equilibrado, pero solo lo sabremos cuando el anexo III de definición de sistemas de alto riesgo sea interpretado por una agencia de supervisión o por un juez. 

Nuestro desafío adicional como empresas es cómo, independientemente de la regulación, conceptualizamos productos de IA que salvaguarden esos derechos de nuestros usuarios y clientes al mismo tiempo que les ayudamos a conseguir lo que buscan y mientras nos dan unos beneficios económicos. Es un circo de tres pistas. Pero es nuestro nuevo rol. 

Y ya que estamos, ¿cuál es tu definición de Inteligencia Artificial? 

Lo más básico y al mismo tiempo lo más difícil. Pero lo intentaré: para mí la inteligencia artificial es la capacidad de resolver problemas y crear de maneras que, hasta ese momento, considerábamos que solo estaban al alcance de los seres humanos y algunos otros seres vivos de inteligencia demostrada. Una vez entendemos que esa capacidad se puede explicar mediante matemáticas o procesos complejos, redefinimos de nuevo qué es la IA y volvemos a empezar. 

Si echamos la vista hacia adelante, ¿qué grandes avances vivimos en el terreno de la Inteligencia Artificial en los próximos 3-5 años?

Cualquier cosa que escriba, la revisamos en cuatro años y nos reímos juntos seguro :) Pero apunto a dos líneas de trabajo actuales y que podrían ser enormes si llegan a funcionar.

La primera es la de los agentes inteligentes. Si piensas en todo lo que hace un ChatGPT o un Bard, ¿qué pasa cuando tienes cuatro, diez o cien instancias de estos sistemas, cada uno de ellos especializado en temas concretos, y los pones a trabajar en un proyecto? Un agente coordina al resto, otro verifica que los resultados están alineados con los objetivos iniciales, y el resto ejecuta lo que les toca. Una gestión completa de un viaje de trabajo, una implementación de un producto software a partir de los requisitos de un cliente,… Esto no es fácil y nos lleva además a temas de IA Responsable como la autonomía y el alineamiento. Pero como siempre, hay un potencial enorme. 

La segunda es la de la vuelta a modelos fundacionales y de propósito general más pequeños y especializados. Esto no solo permitiría contar con empresas pequeñas o medianas creando estos modelos, y por tanto creando una competitividad sana, sino que potencialmente afectaría positivamente a temas como la sostenibilidad y el gasto energético. 

Y ya para cerrar, me ha llamado la atención tu faceta como escritor. Hasta la fecha has publicado tres libros (uno de ellos editado recientemente). Cuéntame de dónde surge esa inquietud y dame algunas pinceladas de cada uno de ellos

Siempre me ha gustado escribir y ya había intentado alguna vez, sin éxito, terminar algo. Mi mejor amigo lleva años escribiendo novelas fantásticas y me maravillaba esa capacidad. Y sin embargo, mis libros han surgido por razones muy pragmáticas. 

El primero, “Idea, producto y negocio” nació de querer mejorar unas notas de clase de una asignatura que llevaba impartiendo algunos años, en la que en un cuatrimestre ayudaba a alumnos de un máster de ingeniería industrial a conceptualizar, analizar, crear y comercializar un producto físico o digital. Cuando vi que llevaba 150 páginas de notas, me di cuenta de que podía escribir un libro que además no existía en el mercado. Me llevo todavía años ver este proyecto realizado, pero ha sido una de las mejores experiencias de mi vida. 

El segundo libro, “Todo cuenta”, tuvo un nacimiento diferente. Tras casi diez años impartiendo una charla / clase sobre analítica de datos, decidí ponerle un lacito con un libro que bajase más a tierra todo lo que contaba en una, cuatro o dieciséis horas. Además, lo hice en colaboración con Tetuan Valley, una asociación de apoyo a emprendedores con quien llevo muchos años poniendo un granito de arena. Publicado durante la pandemia, con un crowdfunding con Libros.com, fue otra experiencia única.

Y ahora, de nuevo con mi primera editorial, Libros de Cabecera, me meto en un nuevo proyecto, que es escribir sobre producto digital pero desde el marco del uso de la psicología comportamental. Llevo años creando productos en los que aplico de manera explícita que los usuarios no somos racionales y que por tanto los creadores no somos ingenieros de procesos, sino arquitectos de decisiones. Solo entendiendo a nuestros usuarios y sus sesgos podemos ayudarles a que cumplan sus objetivos. Pero al mismo tiempo, esas mismas técnicas que nos llevan a que alguien deje de fumar o tenga una vida activa, sirven para crear adicciones de todo tipo. Así que los creadores de producto tenemos una responsabilidad (¿ves? Al final llevo ya algo de tiempo pensando en estos temas) mucho mayor de la que creíamos. Y hemos de afrontarla. De eso va “En la mente del usuario”… o al menos ¡eso he intentado! 

¡¡¡Muchas gracias Manuel por una excelente entrevista!!!

Anterior
Anterior

Conversation with Ariadna Font (Part 1)

Siguiente
Siguiente

Conversación con Jofre Folch