Las máquinas (la inteligencia artificial y los robots, para ser más precisos) hace décadas enfrentan lo que a priori nos parece un contrasentido. Son en extremo habilidosos en asuntos complejos, como pilotear un avión de guerra o vencer al ajedrez al campeón del mundo; pero fallan en tareas que un niño de tres años realiza sin problemas, como caminar con dos piernas, eludir obstáculos o agarrar un vaso sin romperlo (amén de los avances conseguidos en los últimos años). Esa contradicción tiene una formulación, conocida como la paradoja de Moravec.

Nacido en 1948, el ingeniero austríaco Hans Moravec es quien formuló la paradoja que lleva su apellido. Lo hizo con la colaboración de otros expertos del área, como Marvin Minsky y Rodney Brooks. Dice su fórmula, célebre en el mundillo de la robótica y la inteligencia artificial: “Es relativamente fácil conseguir que los ordenadores muestren capacidades similares a las de un humano adulto en un test de inteligencia o a la hora de jugar a las damas; y muy difícil lograr que adquieran las habilidades perceptivas y motoras de un bebé de un año”.

Moravec es miembro del Instituto de Robótica en la Universidad Carnegie Mellon, de Estados Unidos.Por: (Foto: frc.ri.cmu.edu)

¿Cómo se explica este desbalance? ¿Qué rol adquiere en este examen la evolución de las habilidades humanas, mucho más antigua que la de los robots?

“Creo que la explicación está en definir complejidad”. Así arranca el análisis de Gonzalo Zabala, especialista en robótica educativa y autor de Robots, o el sueño eterno de las máquinas inteligentes. “¿Qué es complejo para el ser humano? Por ejemplo, respirar es una actividad altamente compleja pero por diversas razones evolutivas lo hacemos automáticamente, prácticamente sin esfuerzo y sin reflexión del acto. Todo el procesamiento de las señales de entrada (sentidos) también lo hacemos en forma automática, descartando millones de cosas que sería inútil almacenar o procesar con mayor nivel. Y así muchas tareas más que el desarrollo evolutivo fue puliendo a través de millones de años”, dice el experto en diálogo con TN Tecno.

Zabala señala que a las tareas que realizamos en forma natural las desligamos de aquello que consideramos difícil de practicar y que, en cambio, aquellas que requieren procesamiento y mucha información, como jugar ajedrez, las encasillamos en lo complejo. “Un lindo ejemplo es el de aprender a manejar. Cuando uno lo encara lo ve como una tarea compleja, pero en realidad utilizamos un montón de herramientas de procesamiento de señales que ya tenemos incorporadas, y que combinándolas con un pequeño conjunto de habilidades nos lleva a automatizar esta habilidad que al comienzo nos parecía imposible. Cuando llevamos esto a una computadora, solamente el proceso y filtrado de los elementos del entorno ya es de una complejidad inmensa. Y aún hoy no hemos logrado vehículos autónomos con la habilidad de un ser humano. En ciertos contextos se comportan realmente mal, por ejemplo, cuando el clima está nublado o lluvioso”.

El quid de la cuestión es, siguiendo a Zabala, definir qué es verdaderamente una tarea compleja.

¡Por favor armá este mueble!

Muchos de nosotros no somos habilidosos para armar esos muebles que llegan en una caja, en piezas separadas. Podríamos creer que un autómata podría hacerlo con soltura, pero eso no ocurrió en una prueba que realizaron investigadores de la Universidad Tecnológica de Nanyang, en Singapur. El denominado Test de Kamprad (el nombre refiere al fundador de las tiendas de mobiliarios IKEA) reveló que las máquinas demoraron en analizar el entorno y las herramientas, igual que al momento de ensamblar el mueble. Más allá de las fallas, los ingenieros celebraron el avance del sistema que, naturalmente, deberá mejorar.

En función de ese experimento (y de otras tantas ocasiones en las que las máquinas cometen errores) le preguntamos a Zabala si la ya célebre paradoja de Moravec será derribada a medida que avance el desarrollo de robots y sistemas de inteligencia artificial. “No se resolverá la paradoja en sí”, nota el experto. “A medida que avance el desarrollo tecnológico se irán resolviendo esos desafíos, y muy probablemente se resuelvan de una manera completamente distinta”, señala y concluye que “un desafió interesante es cómo pensar la resolución de tareas en forma no humana”.

“Los robots no entienden, aprenden”

“El hecho de que nosotros consideremos como complejas determinadas actividades como el ajedrez, el armado de un cubo Rubik o la resolución de problemas matemáticos de alto grado, no significa que sean difíciles de programar y ejecutar”, explica Nadia Mir, docente en Robótica y experta en transformación digital.

– ¿Cómo se comprende, entonces, esta paradoja?

– Primero tenemos que tener en claro cómo funciona la robótica y la inteligencia artificial. Las actividades nombradas se componen de algoritmos, es decir instrucciones que si se siguen al pie de la letra terminan por arrojar los resultados esperados. Distinto es el movimiento y nivel de procesamiento de humanoides, androides o zoo-robots que son programados, o por lo menos se intenta que lo sean, para mantener una interacción continua con el medio social y natural que los rodea. Espacios que mantienen un nivel de dinamismo absoluto, sumado a la variedad de decisiones que estas máquinas deben de tomar en milisegundos.

Un robot que camina debe controlar de forma perpetua su estabilidad, reconocer los elementos que lo rodean y las posibilidades que tiene bajo la información que proporcionan sus sensores. No es tarea fácil ponerse de pie, el ser humano lleva más de 200.000 años intentando no caerse, pese a eso, todos nos tropezamos en algún momento. Sabemos qué se siente hacer algo por amor, pero nadie puede explicárselo a una máquina.

– ¿Hay algún modo para superar esta paradoja?

No lo creo. Si tenemos en cuenta cuánto le ha costado a la inteligencia artificial llegar hasta donde hoy está, podríamos decir que queda mucho camino por recorrer. La inteligencia artificial y la robótica comienzan desde la observación de un objeto de estudio natural, es decir, un ser humano o animal. En base a ese análisis, los ingenieros y programadores intentan crear sistemas similares que copien las acciones de los individuos estudiados.

No siempre se logra el avance esperado, son campos muy complejos en los que intervienen diferentes disciplinas y el tiempo puede parecer eterno. La creatividad y la sensibilidad humana son prácticamente imposibles de replicar, nuestra mente es tan compleja que continuamente abre nuevas cajas sorpresa que ningún robot puede asimilar. Esto tiene que ver con la historia y la genética de cada uno, cuestiones que los robots no aprenderán. Los robots no entienden, aprenden. Los robots no sienten, actúan en base a programaciones determinadas, los robots no conocen ni conocerán el concepto de empatía, su accionar dependerá únicamente de la ética del programador.

– ¿Considerás que las máquinas adquirirán sentimientos similares a los nuestros?

Nuestra vida, la mayor parte del tiempo, se mueve bajo algoritmos. Instrucciones similares a una receta de cocina que aprendemos mediante prueba y error. Si elevamos el concepto a las matemáticas, por ejemplo, notamos que aparecen limitaciones que en el campo de la IA no. Esto se debe a que funciona de forma automatizada. Ahora bien, determinados aprendizajes no son tenidos en cuenta porque los naturalizamos e incluso podríamos decir que son instintivos. Un ejemplo claro es aprender a caminar, comer, mantener conversaciones sentimentales, entre otras experiencias. Son hábitos que acuden a procesos lógicos que todavía no fueron 100% analizados por la complejidad de nuestra mente.

La relación entre los humanos y los robots, en plena evolución y bajo examen.Por: (Foto: Adobe Stock)

Sumado a ello, la parte emocional brinda un aporte importante que logra cerrar el circuito de aprendizaje e internalizar esa experiencia como un nuevo saber conquistado, una vez más intervienen emociones que son imposibles de replicar. ¿Se imaginan enseñarle a un robot cómo debe enseñarle a un niño/a? ¿Cuándo abrazar, contener e incluso qué pedagogía utilizar para su aprendizaje? Dudas que los educadores no tenemos porque la experiencia sentimental nos lleva a comprender cuándo y cómo proceder, a diferencia de la IA que no lo logra procesar.

La sensibilidad, ¿un terreno impenetrable?

Algunas máquinas han demostrado su habilidad para crear obras de arte e incluso para componer poemas. Aunque, siguiendo a Mir, lo que hacen no es más que seguir instrucciones previamente recibidas, sin un margen para la creatividad tal como la conocemos. Al respecto, Zabala subraya las diferencias entre la creatividad y la sensibilidad.

“¿Serán los robots creativos? Entiendo que sí, principalmente si avanzan los métodos de aprendizaje automático donde la intervención del ser humano en el proceso de enseñanza es menor. En relación a la sensibilidad, no podría darte una opinión. ¿Por qué somos sensibles los humanos? ¿Qué ventaja evolutiva ha tenido la simpatía, el vínculo social, el afecto? ¿Será algo que las máquinas necesiten? ¿Se aprende? ¿Es algún tipo de “cableado” especial? ¿Es programable? No tengo respuesta para eso”.