Conversación con Enric Guinovart
Me gustaría empezar esta conversación con un breve repaso a tu trayectoria profesional. No tanto a los roles y a las empresas sino al proceso “evolutivo” desde que empezaste a estudiar Ingeniería Informática allá por las 90 hasta la actualidad
Quizás esta pregunta es una de las que empiezo a poder responderme a mí mismo. Siempre he sentido una apasionada curiosidad por los seres vivos, su evolución y sus comportamientos, pero siempre con el interés en comprender el mecanismo subyacente. Ese interés en los mecanismos ahora entiendo que también me llevara al estudio de la computación, y en esa búsqueda, derivé al campo que en los 90 se llamaba supercomputación o computación paralela. Tras más de 20 años de una doble vida profesional de consultor tecnológico y de ingenuo explorador de la comprensión del procesamiento cognitivo, los campos de la biología y la computación se conjugan en la creación de Avatar Cognition para absorber todo mi esfuerzo en la actualidad.
Y más específicamente te quería pedir la reflexión que os llevó a ti y Pare Mayol a crear Avatar Cognition.
Pere y yo coincidimos en el tiempo en DiamondCluster, aunque eso no era garantía de tener la oportunidad de conocer a todos tus compañeros debido al gran número de viajes, como me temo que te consta a ti también. Fue aproximadamente hace 4 años cuando decidí dejar atrás mi faceta de consultor de sistemas de información y dedicarme exclusivamente al desarrollo e implementación de un modelo cognitivo. Pere, en ese momento estaba sumergido en el mundo de la inversión en startups y en la búsqueda de tecnologías disruptivas, y se interesó de inmediato. No tardamos ni un mes en fundar juntos Avatar Cognition. Tras estos 4 años tan intensos, sí que nos conocemos bien y nos complementamos al máximo. Compartimos la excitación por el impacto tan amplio que puede tener el comprender computacionalmente los fundamentos del procesamiento de los seres vivos neuronales y el poder transformacional general de disponer de computación cognitiva genuina de forma nativa en nuestros computadores.
De hecho, mientras revisaba la información que me enviaste de Avatar Cognition, me vino en mente un fragmento del libro “En defensa de la Ilustración” de Steven Pinker, publicado en 2018. Hay un fragmento que dice así “Sin lugar a dudas, la década de 2010 nos ha traído sistemas capaces de conducir coches, poner una leyenda las fotografías, reconocer la voz y vencer a los humanos en los videojuegos de Jeopardy! Go y Atari. Pero los avances no han sido fruto de una mejor comprensión del funcionamiento de la inteligencia, sino del poder de la fuerza bruta de chips más veloces y datos más masivos, que permiten que los programas entrenen con millones de ejemplos y generalicen a otros nuevos semejantes. Cada sistema es un sabio idiota, con escasa capacidad para saltar a problemas que no está diseñado para resolver y un dominio precario de aquellos para los que sí está preparado para solucionar” . ¿Cuál es tu punto de vista al respecto?
No solo Steven Pinker apunta a algún tipo de “desvío” en los enfoques tanto académicos como técnicos en el ámbito de la IA, indicando que nunca han resuelto el problema tal como lo resuelve la naturaleza. Marvin Minski ya opinó que nunca se ha atacado seriamente la majestuosidad de la inteligencia general, debiendo retroceder hasta los fundamentos más profundos de la computación para encontrar líneas viables de investigación. Yo pienso que los modelos y tecnologías desarrollados hasta ahora, o se basan en la simulación de una biología demasiado desconocida, o se basan en métodos de naturaleza simbólica y/o sistémica/estadística producto de la mente de ingenieros, que producen sistemas específicos con capacidades lejos de la universalidad, escalabilidad y plasticidad de un sistema distribuido y paralelo del procesamiento que podemos observar en la naturaleza. Alan Turing, más allá de su test de inteligencia basada en una evaluación final, también argumentó que, en lugar de pretender replicar un cerebro adulto, podríamos crear un cerebro de bebé y que, con la experiencia adecuada,podría madurar hasta la estructura y función del cerebro adulto. En Avatar Cognition somos más de este enfoque, única vía para la evaluación del mecanismo computacional subyacente y no tan solo de las respuestas a modo de examen. Lo que importa es cómo se desarrolla el proceso cognitivo.
Y antes de entrar en los detalles de lo que hay detrás de Avatar Cognition, te quería preguntas, cuál es la diferencia, en tus propias palabras, entre Symbolic Artificial Intelligence y Strong Artificial Intelligence.
Como te dije, en las ciencias cognitivas hay muchas palabras imprecisas, y sin marco mental común. Por un lado, Strong AI y GI (General Intelligence), se refieren a un algoritmo o sistema que explique tanto la cognición moto-perceptual como la cognición reflexiva, así como la cognición emocional que completaría el triune brain. La Inteligencia Artificial General (AGI) parece haber tomado una acepción que añadiría las capacidades GI a escala y rendimiento cognitivo humano.
Por otro lado, tenemos distintas familias de modelos que atacan escalas distintas de expresiones de inteligencia. Symbolic AI y GOFAI (Good Old-Fashion AI) son los modelos nativos de la computación digital y procedural. Se basan en la discretización del mundo y en procesos sistémicos. Estos modelos se basan en un diseño intelectual que no corresponde a las características mecánicas del procesamiento biológico. Su terreno de juego es la cognición reflexiva.
Y para completar la foto deberíamos destacar la gran familia de modelos basados en DL (Deep Learning), que atacan el problema del procesamiento de bajo nivel perceptivo. Estos métodos utilizan variantes de redes neuronales artificiales con millones de parámetros y pocas capacidades de generalizar y adaptabilidad. Su terreno de juego es la cognición moto-perceptual.
Y ya adentrándonos en Avatar Cognition, he visto que planteáis lo siguiente: “Neural networks or symbolic AI haven’t been able to produce intelligent AIs. We discarded them and took a completely new approach to model the computation produced by biological cognitive systems and reproduce it on computers.”. ¿Podrías detallar un poco más a que os referís cuando habláis de “biological cognitive systems”?
Nos referimos a los seres vivos que disponen de algún tipo de procesamiento basado en neuronas, ya sea el control de un dedo o un cerebro con neocortex. Hasta donde sabe la humanidad, ellos son las únicas evidencias y referencias de auténtico procesamiento cognitivo y respuesta de inteligencia. No podemos entender bien el procesamiento cognitivo sin contextualizarlo en las características de los seres vivos en un mundo físico y cambiante en el que deben desarrollarse.
Esta línea de pensamiento nos lleva al final a una pregunta previa a diseñar un sistema cognitivo. ¿Cuál es la naturaleza de la información que procesan los sistemas cognitivos? ¿Qué tipo de información asimilan que les permite responder de forma inteligente? ¿Cómo se captura? ¿Qué complejidad tiene?
Eso me lleva a la siguiente pregunta. ¿En qué consiste vuestro modelo de “Computational Fractal Cognition” (CFCM)?
Nuestro modelo CFCM se basa en la definición computacional de lo abstracto manifestado en la experiencia literal y un algoritmo que lo asimila a la vez que lo utiliza para inferir o interpretar lo asimilado como base de respuesta heurística ante nuevas experiencias. El modelo resultante no es un constructo procedural complejo sino que consiste en una primitiva única con capacidades de auto-replicación y auto-referencia a escalas superiores. Un modelo distribuido y paralelo que, a la vez que representa información, constituye el propio mecanismo de procesamiento de información. A distintas escalas, esta primitiva puede explicar desde la percepción hasta la integración sensomotora e incluso, el procesamiento reflexivo y figurativo.
Me vas a permitir que haga de abogado del diablo. Uno de los casos de uso de vuestra solución “Synthetic Cognition” permite resolver retos como el reconocimiento de dígitos. Me parece algo formidable pero a día de hoy ese reto ya se está resolviendo con modelos de redes neuronales. ¿Por qué una empresa debería plantearse prescindir de TensorFlow o Sagemaker y utilizar un modelo como el vuestro?
En la faceta didáctica de explicar nuestro modelo, utilizamos casos conocidos que sean fáciles de interpretar por parte de la audiencia y que puedan destacar la naturaleza computacional distinta de sus principios. En este sentido, el caso de dígitos escritos a mano por distintas personas es un buen ejemplo para demostrar cómo el procesamiento abstracto soluciona este típico problema de clasificación perceptual. Pero planteamos el caso de forma distinta, donde lo importante es el proceso de aprendizaje y la evolución de la calidad de las respuestas. De este modo, ilustramos como el procesamiento abstracto es adaptativo, transparente y requiere menor cantidad de datos.
La cognición sintética permite a cualquier tipo de usuario descubrir transparentemente la estructura de complejidad de patrones o perfiles de clientes, o productos o cualquier relación entre ellos, sin necesidad de grandes cantidades de información. Además, es en sí mismo un mecanismo que, dada una información concreta, infiere de forma explicable toda la información no presente mediante el uso de su modelo de representaciones abstractas.Estos sistemas realizan esta función de forma adaptativa y progresiva, con lo que no existe ningún coste de reentrenamiento.
Otra pregunta capciosa ¿Qué diferencia hay entre vuestro enfoque y el de Deep Mind?
En Deep Mind son excelentes en llevar el Deep Learning a límites increíbles. Las barreras a superar, si se dirigen realmente a la búsqueda de la inteligencia general, las encuentran constantemente en cada cambio de ámbito de aplicación para mantener un modelo que cumpla la condición de general. Los logros son espectaculares pero no se basan en un modelo plausible en la biología, con dificultades para escalar cognitivamente y mucho prior knowledge.
Nuestro enfoque apuesta por el procesamiento de lo abstracto y su valor de inferencia. Además no utilizamos ningún tipo de red neuronal o simulador, sino un modelo representacional distribuido que a su vez es un mecanismo de computación de respuestas.
Entre las ventajas que citáis es que vuestra solución cubre un tema que yo considero muy relevante: la transparencia y la explicabilidad de la AI. Entiendo el beneficio “conceptual”, pero si te soy sincero me cuesta imaginarlo en un caso tangible. ¿Me podrías dar algún ejemplo?
La transparencia la entendemos como la característica de interpretar el modelo representacional de conocimiento de un sistema. Mientras el DL tiene muchas dificultades para ser interpretado, la cognición sintética permite hacerlo de forma natural. Esta característica permite que, mientras se va asimilando conocimiento, podemos ir observando y navegando el modelo interpretadamente, identificando por ejemplo, los patrones de perfiles de pruebas médicas que son foco de falsos positivos en predicción de cáncer de pulmón. O qué perfiles de clientes (a mayor o menor discriminabilidad) van a darse de baja. Detección de sesos de género o cualquier otra característica.
La explicabilidad la entendemos como la característica de descomponer la causalidad de la respuesta proporcionada por un sistema, ya sea de forma técnica o mediante el uso de la comunicación y un lenguaje específico. Los sistemas cognitivos al recibir un estímulo, producen una respuesta. Esta respuesta está basada en la experiencia previa y un mecanismo que la construye. La cognición sintética proporciona de forma natural el “camino” de activación que sigue al estímulo y construye la respuesta.
Otro tema que me cuesta asimilar es cómo funciona vuestro modelo de aprendizaje. ¿Podrías hacer un paralelismos entre vuestro enfoque, el de una red neuronal clásica y el de un modelo de Reinforcement Learning? (ej. ¿cómo entrenáis un modelo? ¿ cómo validais la validez de los resultados?)
Una red neuronal clásica se plantea como un mecanismo de correlación estadística. El procesamiento abstracto se basa en un proceso heurístico de modelado que no está restringido a la existencia de dos variables a correlacionar porque modela las manifestaciones abstractas a partir de la experiencia literal. El campo del Reinforcement Learning es una combinación entre un planteamiento de agente en un mundo en activo y la priorización por la capacidad de auto-descubrimiento de los sistemas cognitivos, soslayando la cuestión clave sobre qué concepto abstracto hay que asimilar y qué mecanismo lo representa a modo de molde abstracto. Nuestro modelo se centra en el proceso de aprendizaje más que en la capacidad innovativa, la cual emerge de los mecanismos que estamos proponiendo.
La validación de los efectos inteligentes es una cuestión clave a la vez que escurridiza a la mente. La función cognitiva captura lo abstracto a partir de experiencias literales, pero también lo proyecta generando respuestas literales, con la implicación que solo otro sistema cognitivo externo puede interpretar semánticamente sus respuestas. Nosotros apostamos por una evaluación basada en la definición del concepto abstracto a inducir al sistema, la generación de una experiencia continua de manifestaciones literales, el proceso de exposición y desarrollo del modelo, proceso de experimentación de manifestaciones literales con distintos grados y formas de distancia semántica y, finalmente, la observación de todas las interpretaciones proporcionadas por el sistema cognitivo y medir el grado de coherencia con un criterio externo de referencia supuestamente acorde a la experiencia proporcionada. Si es coherente, podemos afirmar que el sistema cognitivo ha asimilado el concepto abstracto objetivo y lo proyecta consistentemente mostrando comprensión abstracta. La evaluación de la comprensión de las respuestas solo puede ser interpretada por otro sistema cognitivo externo y sus respuestas esperadas.
¿Y qué tipo de perfiles necesitáis para vuestro proyecto?
Dentro de sentir pasión y curiosidad por la comprensión de la cognición biológica, trabajamos la ciencia y la tecnología desde perspectivas distintas: la perspectiva científica (integración con casos bio-like), la académica, la de tecnología core, la de uso analítico, la de integración con entornos virtuales, la de integración con entornos robóticos.
Ahora estamos en la fase de crecimiento de perfiles para refinar la demostración académica y construcción de una mayor variedad y escala de las demostraciones. Estamos en ampliación de equipo de forma continua, buscando ingenieros C++ con experiencia PDP y HPC, para trabajar en el modelo core actual y escalarlo a las capacidades reflexivas. También ingenieros AI, con sólidos conocimientos de Python y problemas de naturaleza cognitiva, para trabajar en la creación de soluciones AI utilizando nuestra tecnología, definiendo el encapsulado y los procesos educativos y evaluativos, tanto en ámbitos de data analysis como en casos de integración robótica.
Entremos ahora en terrenos más filosóficos. Una de las cuestiones que planteáis desde Avatar Cognition es resolver el problema de la Inteligencia General. ¿A qué os referís? ¿Estamos hablando de HAL-9000 de 2001 Odisea en el Espacio?
No. Pensamos que estamos al inicio de un camino que puede llevarnos a niveles de inteligencia humano o de mayor amplitud y profundidad, pero que debe empezar en las expresiones de inteligencia de más bajo nivel, a nivel moto-perceptivo. Por ello, nuestro interés es encontrar el mecanismo general subyacente a todas las expresiones de inteligencia. Nuestro viaje empieza en la percepción fundamental y termina en el pensamiento reflexivo.
Una vez dispongamos del sistema con capacidades reflexivas, el resto es responsabilidad del conocimiento y el diseño del proceso de asimilación, que definirán la educación necesaria para inducir de forma robusta conceptos o comportamientos abstractos. Todos sabemos el esfuerzo que requiere educar a un bebé para transformarlo en adulto en el dominio mal llamado “sentido común”. Adicionalmente, el nivel humano requiere de muchas diferencias en el cuerpo difíciles de reproducir, de tipo límbico o emocional, que tiene un gran impacto en el funcionamiento general del sistema.
Y ya que estamos en estos derroteros, me gustaría preguntarte cómo crees que funciona el cerebro humano
Nuestra teoría nos propone que los sistemas cognitivos biológicos se componen de 3 funciones imbricadas, la función senso-motora (mediante mecanismos de moto-percepción de conceptos abstractos multimodales), la función imaginativa (mediante una capacidad episódica de memoria y un mecanismo de control atencional) y la función límbica (mediante mecanismos de percepción/inferencia de estados de condicionamiento (conveniente/inconveniente) que actúan generalizando la política de refuerzo/inhibición a generalizar a partir de feedback.
Parece coherente con la lucha vital entre el control de nuestro cuerpo, nuestros automatismos reactivos, nuestro patrones de pensamiento atencional y las diferencias entre las expectativas resultantes y la percepción emocional consecuente del mundo físico.
Recientemente entrevisté a Eduard Montserrat (Cofundador y CEO de Stream Hatchet). Le pedí que hiciera una pregunta para la siguiente persona a entrevistar. Su pregunta fue ¿Crees que en el futuro próximo el acceso a datos estará monopolizado por grandes empresas? ¿O que, por lo contrario, se llevará a cabo una gran descentralización de acceso y uso de datos?
Es precisamente uno de los pilares que una General Intelligence va a transformar totalmente. Ahora, el valor fundamental de las tecnologías actuales reside en los propios algoritmos o modelos parametrizados. Y como no procesan lo abstracto, sino que son estrategias literales de procesamiento, requieren mucha cantidad de datos para imitar la producción de efectos cognitivos de asimilación/generalización. La consecuencia es el monopolio de pocas compañías que disponen de esa cantidad de datos y pueden pagar el coste de su procesamiento.
Cuando dispongamos de forma generalizada y aplicada la Cognición Sintética, cualquier persona con un conocimiento abstracto valioso puede transferirlo a un computador de forma directa, o pueda incorporar conocimiento de su interés de otros sistemas y asimilarlo en el conocimiento previo. Será una oportunidad destacada para la democratización del acceso a las tecnologías de procesamiento cognitivo y el inicio de la era del conocimiento sintético.
Y tú ¿qué le preguntarías al siguiente entrevistado?
¿Con qué barreras se enfrenta el campo de HR Analytics en relación a las limitaciones de las tecnologías disponibles y sus consecuencias para los empleadores y candidatos? ¿Qué debe mejorar para alcanzar los objetivos ideales de valor de HR analytics?