¿Deberíamos temer a la inteligencia artificial?

En la segunda entrega del podcast de Órbita Laika, Eduardo Sáenz de Cabezón, matematico y divulgador, y el biologo, Ricardo Moure, se sumergen en lo que Bill Gates llamó “la mayor oportunidad y la mayor amenaza de nuestro tiempo”.

¿Existe un solo tipo de inteligencia artificial o las hay de diversas clases? ¿Cómo se le enseña ética a una máquina? ¿Es capaz una IA de entender un chiste? ¿Y de hacerlo? ¿Llegarán algún día a superar a los humanos? Y, de ser así, ¿cómo sabremos que lo han hecho?

Hoy en día convivimos con máquinas que aprenden solas y lo cierto es que no tenemos muy claro cómo lo hacen ni si conlleva riesgos esta tecnología. En este segundo capítulo de Órbita Laika, el podcast se preguntan si realmente deberíamos temer a la inteligencia artificial.

¿Cómo definimos la inteligencia artificial?

“La inteligencia artificial es una rama de conocimiento que se apoya en la informática y las ciencias de la computación para tratar de trasladar los comportamientos humanos a una máquina a través del aprendizaje”, explica Nerea Louis, doctora en Ciencias de la Computación y cofundadora de Tex Fest.

Generalmente hablamos de la inteligencia artificial como si fuera una sola cosa pero realmente es un campo muy extenso y multidisciplinar. “La inteligencia artificial general es aquella que persigue que tengamos una máquina que sea capaz de realizar cualquier tarea”, afirma la experta, y añade que “actualmente lo que se están desarrollando son inteligencias artificiales específicas, que lo que hacen es acotarse a un contexto. Realizan una tarea concreta, un conjunto de tareas muy limitado, pero son capaces de hacerlo de forma excelente”.

¿Cómo aprende una inteligencia artificial?

En el año 2015 una inteligencia artificial diseñada por Google Deep Mind, llamada al Alpha Go, venció por primera vez a un jugador profesional de Go, un juego tradicional chino basado en la estrategia. Actualmente, la versión más moderna de esta inteligencia artificial llamada Alpha Zero es el mejor jugador del mundo de ajedrez, de Go y de Shogi, que es otro juego de estrategia.

No resulta fácil imaginar cómo consigue aprender una máquina. Nerea Louis nos explica que la clave está en la detección de patrones: “Cosas que se parecen, que se repiten en el tiempo, se convierten en aprendizaje a través de la detección de patrones y de forma prolongada en conocimiento”.

“Podemos pensar que en realidad los datos por sí solos no valen nada. Si nos imaginamos una Excel de ofimática, pues hasta que no ponemos los datos en columnas no valen nada por sí solos. Pues un poco, lo que hace la máquina es lo mismo. Al final intenta agrupar ciertos datos para transformarlos en información. Así detecta patrones, que pueden ser texturas -según sean imágenes- pueden ser combinaciones numéricas -si solo son números-, y entonces, a partir de ahí generamos ese aprendizaje”, argumenta.

¿Dónde está la inteligencia artificial en nuestro día a día?

María Teresa Gómez, Ingeniera Informática y Catedrática en la Universidad de Sevilla nos aclara las diferencias entre las capacidades de cálculo de una máquina y un ser humano. “A las máquinas les falta mucho para ser como los humanos. Para saber si estamos en una situación de peligro, los humanos utilizamos muchísimos sensores, todos los sensores que tenemos en nuestro cuerpo para saber si realmente estamos en esa situación o no. A las máquinas, por falta de esa sensorización y conocimiento del entorno les queda mucho para aprender”, subraya.

¿Se puede entrenar la empatía a una IA?

La capacidad de identificarse con alguien y compartir sus sentimientos, la empatía, es un atributo humano básico que en opinión de la experta, María Teresa Gómez, sí se puede enseñar a una máquina. “La IA utiliza datos de comportamientos humanos para simular esa empatía de forma que podrían simular que tiene sentimiento por nosotros pero no tenemos que dudar que no los tiene. Aún es más complicado que las máquinas tengan humor o incluso ironía", afirma.

Además de la empatía y el humor, hay otro aspecto clave eminentemente humano: la ética. En 2006, el filósofo estadounidense James H. Moor acuñó el concepto de “ética de las máquinas”, que nos lleva a reflexionar sobre si en un futuro podríamos tener máquinas conscientes con capacidad de distinguir el bien del mal. María Teresa Gómez asegura que las máquinas no tienen capacidad ética, “simplemente utilizan una base de conocimiento sobre la cual toman unas decisiones que imitan los comportamientos que se encontraron”.

Escucha el segundo capítulo completo de ‘Órbita Laika, el podcast”’. Ya disponible en RTVE Play Radio, en el canal de YouTube RTVE y en las principales plataformas de podcast.