Noticias en Monterrey

Buscar
Cerrar este cuadro de búsqueda.

Daniel Innerarity, escritor y ensayista, presenta su libro: ‘Una teoría crítica de la inteligencia artificial’

“El problema no es que la inteligencia artificial sea (ahora o en el futuro) demasiado inteligente, sino que lo será demasiado poco mientras no hayamos resuelto su integración equilibrada y justa en el mundo humano y en el entorno natural”, dice a MILENIO el escritor Daniel Innerarity Grau (Bilbao, 1959).

El filósofo y ensayista presenta Una teoría crítica de la inteligencia artificial (Galaxia Gutenberg), ganador del III Premio de Ensayo Eugenio Trías.

“Esto no es un combate entre los humanos contra las máquinas, como a veces parecen hacernos creer, sino un acuerdo entre humanos que usan una máquina y humanos que usan otra máquina. El problema y la solución es el uso que los humanos hagamos de la inteligencia artificial”, agregó el catedrático de Filosofía Social y Política e investigador en la Universidad del País Vasco; publica MILENIO.

—¿Está sobrevalorada la inteligencia artificial?

Sí, y llevamos un montón de tiempo en el que nos anuncian que la inteligencia artificial va a superar a la inteligencia humana en breve. Eso no se ha producido, salvo en las dimensiones del cálculo y la computación, pero no en las dimensiones más específicamente humanas del conocimiento, que tienen que ver con la empatía, las emociones, la autoconciencia. Eso no se ha producido ni se va a producir en absoluto.

—¿Tiene que haber una integración equilibrada?

En el fondo, todo se juega en la configuración de un ecosistema humanos-máquinas en el que seamos capaces de discernir bien qué tipo de problemas o qué parte de los problemas se resuelven mediante computación, lógica binaria o cálculo, y qué tipo de problemas o qué parte de los problemas requieren una inteligencia humana más o menos expresa. Acertar en esa división del trabajo, podríamos decir, es lo crucial en estos momentos.

—¿También tiene que ver el asunto del debate democrático, de la supervisión ética, la regulación?

Sin duda, porque esa nueva definición de un ecosistema implica muchas cuestiones que tienen que ver con ética, con justicia, con democracia. Y esa es la parte que a mí más me interesa, porque yo no soy un tecnólogo. He estudiado la tecnología suficiente para entender ese tipo de problemas. Y suscita muchas cuestiones de igualdad, de impacto medioambiental, de cómo corregimos los sesgos de los algoritmos, etc. Toda esa parte es la más interesante, la que no es una parte estrictamente tecnológica, sino que compete a juristas, filósofos morales, filósofos en general, etc.

Catedrático de Filosofía Social y Política e investigador en la Universidad del País Vasco. (Foto: Especial / MILENIO)

—¿Seguiremos debatiendo el tema?

Los humanos resolvemos cualquier problema difícil poniendo en marcha procesos de liberación, de discusión. Cuando las cosas no son evidentes, cuando hay intereses en juego, cuando hay diversas conclusiones de lo justo, lo que hacemos los humanos es debatir. Y a cada avance que vaya proporcionándonos la inteligencia artificial, como cualquier otra tecnología, habrá que establecer procedimientos de discusión. Así lo hemos hecho y así lo seguimos haciendo.

—¿Y la infobasura que nos tiene inundados?

Hace cien años, la mayor parte que teníamos los humanos, los gobernantes, los científicos, los profesores, tenía que ver con que estábamos en un ámbito de información escasa, difícil y cara. Hoy en día estamos en todo lo contrario. La información es baratísima y está a nuestro alcance, hasta niveles tales, que se ha producido incluso un exceso. ¿Qué tipo de habilidades tenemos que desarrollar los seres humanos cuando el entorno es de información escasa? No tiene nada que ver con el tipo de habilidades que tenemos que desarrollar los humanos cuando nuestro problema más bien es un exceso de información que aturde, desorienta y dificulta encontrar un criterio para definir el ruido de la información acreditada.

—Daniel, ¿cómo crees que la inteligencia artificial está cambiando nuestra comprensión de la realidad y nuestra capacidad para tomar decisiones? (Pregunta formulada por AI)

Bueno, podría pedirle la respuesta a ella misma (risas), pero la voy a dar yo brevemente porque eso es un libro entero; le he dedicado 500 páginas en mi libro y me resulta muy difícil resumir. Diría que estamos en un momento en el que la humanidad está confrontada a una reflexión sobre algo que es reflexivo: el entorno digital. Vivimos en entornos digitales, hay muchas cosas que se exigen automáticamente y que no están exigiendo nuestra reflexión. Creo que lo que tenemos que hacer es pararnos a pensar individual y colectivamente. Yo creo que eso es el principio del éxito de lo que vayamos a hacer.

—¿Estamos en un momento crucial con la IA?

Es un momento de la historia de la humanidad que reúne varias condiciones. Por un lado, es intrigante, inquietante, interesante y exigente. Norbert Wiener (1894-1964), uno de los padres fundadores de esta tecnología, decía que ‘el futuro no será unos seres humanos tumbados en unas hamacas servidos por robots esclavos, sino que será una lucha, un combate cada vez más exigente contra los límites de nuestra inteligencia’. Creo que la frase es insuperable. No va a haber la comodidad de que la inteligencia artificial nos sustituya, sencillamente porque no se trata de dos inteligencias similares, sino bastante diferentes.

Imagen portada: Especial / MILENIO

Fuente:

// Con información de MILENIO

Vía / Autor:

// Staff

Etiquetas:

Compartir:

Autor: Staff
Ver Más