La inteligencia artificial (IA) se desarrolla en medio de preocupación por sus usos maliciosos, el daño accidental que pueden producir los prejuicios inscriptos en su diseño y otros problemas éticos. “Desde los gigantes como Google y Microsoft hasta las startups que se prueban, muchos están fijando principios corporativos para asegurar que sus sistemas se creen y se desplieguen de manera ética”, presentó The New York Times el conflicto que afecta esta tecnología, en una edición especial sobre el tema.
Pero las empresas pueden cambiar su misión, sus objetivos, su administración; la presión financiera puede torcer los principios. Incluso algunas compañías consideran necesaria la regulación: “No queremos ver una carrera hacia el abismo”, dijo al Times Brad Smith, director legal de Microsoft. “La ley es necesaria”.
El artículo recordó el caso de la firma Clarifai, que trabajó con el Pentágono en el diseño de IA que analiza video tomado desde drones. Luego de una crítica de los trabajadores de la firma, Matt Zeiller, fundador y director ejecutivo, anunció que la administración garantizaría una definición de ética para todos los proyectos.
Muchas empresas y organismos crean sus propias reglas de ética, pero no existe legislación.
Eso nunca sucedió, agregó el texto. “A medida que esta startup de Nueva York avanzó en las aplicaciones y los servicios de reconocimiento facial para las fuerzas de seguridad, algunos empleados se preocuparon cada vez más por la posibilidad de que su trabajo terminase alimentando la guerra automatizada o la vigilancia masiva“.
A finales de enero pidieron, mediante una carta colectiva, que Zeiler explicara hacia dónde se dirigía la empresa, cuyo producto reconoce objetos en fotos y videos. El CEO dijo que un día contribuirían a las armas autónomas.
“Esta y otras formas de IA que avanzan rápidamente pueden mejorar el transporte, el cuidado de la salud y la investigación científica. O pueden alimentar la vigilancia masiva, los ataques de phishing y la diseminación de noticias falsas“, advirtió el Times. Sin contar con los problemas derivados de su diseño, como que identifican con mucha menos exactitud la cara de una mujer o de una persona afroamericana que la de un hombre blanco.
“Google trabajó en el mismo proyecto del Pentágono que Clarifai, y luego de una protesta de los empleados de la compañía, finalmente canceló su participación“, señaló el artículo. “Pero como Clarifai, otras 20 empresas han trabajado en el proyecto sin ceder a las preocupaciones éticas“.
Tras la polémica, Google estableció una serie de “principios sobre IA”, como guía para proyectos futuros. Pero siguen siendo normas privadas que, además, deben ser interpretadas y aplicadas por ejecutivos que también deben cuidar los intereses financieros de la empresa. “En términos funcionales, hay situaciones en las que los zorros están vigilando el gallinero”, dijo Liz Fong-Jones, quien dejó Google en 2018.
Google, Microsoft, Facebook y otras firmas han creado organizaciones de colaboración como Partnership on A.I., que apunta a guiar las prácticas de toda la industria. Pero los funcionamientos de esas entidades no es siquiera consultivo, mucho menos vinculante.
“El Pentágono ha dicho que la IA construida por empresas como Google y Clarifai no se han utilizado con fines de ataque. Y actualmente crea su propio conjunto de principios éticos, advirtiendo que necesita el apoyo de la industria, que se ha quedado con la mayoría de los principales investigadores de IA del mundo en los años recientes“, agregó el Times.
Pero esos principios difícilmente puedan tener más influencia que los de las grandes corporaciones privadas. “En especial porque el Pentágono tiene que ir al compás de China, Rusia y otros rivales internacionales a medida que desarrollen tecnologías similares”, destacó.
Sin embargo, la carta colectiva de los empleados de Clarifai no se inclinaba abiertamente por la legislación sobre IA. “La regulación demora el progreso, y nuestra especie necesita progresar para sobrevivir a las muchas amenazas que enfrentamos hoy”, escribieron. “Tenemos que ser lo suficientemente éticos para que se nos confíe el desarrollo de esta tecnología por nosotros mismos, y le debemos al público definir nuestras éticas con claridad”.
Y, como otra muestra de la complejidad del debate, Sam Altman —quien hasta hace pocos días, en el momento en que el Times lo invitó a un panel sobre el tema, era presidente de la incubadora de startups Y-Combinator— se opuso. “La idea de que estas empresas que no nos deben rendir cuentas y a la que no elegimos deberían decidir los nuevos dispositivos de seguridad de la sociedad no me parece la forma correcta de actuar”.
Y Evan Spiegel, fundador de Snapchat, se manifestó “muy impresionado” por la legislación de la Unión Europea, cuyo enfoque le pareció “muy bien razonado, muy considerado” y que “realmente pone primero a los consumidores”. En su opinión es necesario hablar del “otro lado del progreso económico, que puede ser la conservación de los valores que nos importan“.