Por Ernesto Ángeles
Si regularmente usas Facebook, X o el buscador de Google, seguramente te habrás encontrado algún tipo de contenido o usuario que no te parezca auténtico tal como: al papa vestido a la moda; perfiles creados recientemente que defienden alguna persona o causa siendo de otro país y hablando un idioma distinto; una fotografía de un accidente que nunca pasó; la reseña de un producto que no tiene sentido; la imagen de unos niños pobres al lado de una supuesta creación tecnológica con frutos o basura; o el tan famoso Jesús camarón. Lo que tienen en común estos elementos es que se trata de producciones digitales sintéticas, las más antiguas de éstas creadas por personas y las más nuevas con Inteligencia Artificial (IA).
Tal como la mayoría de las personas lo hemos experimentado, en entornos digitales resulta muy fácil mentir, falsear y engañar -con o sin IA-; es por esto por lo que desde antes de 2017 había surgido en los confines de internet una teoría de la conspiración que centraba su atención en la poca autenticidad de usuarios, contenido e interacciones en línea: la teoría del internet muerto.
La teoría del internet muerto nació en foros en línea de conspiración como en Reddit y postula que la mayor parte de actividad y contenido en internet es creado y automatizado por agentes de IA (y otros programas) con el fin de manipular a la población según agendas de gobiernos como el de Washington. Y si bien la teoría se popularizó en 2021 con un artículo escrito por Kaitlyn Tiffany en la revista The Atlantic, esta idea ha rondado internet desde antes de 2016, cuando la IA aún no estaba al nivel de GPT.
Lo interesante de la teoría de la conspiración del internet muerto es que con el paso del tiempo algunos de sus elementos han sido rescatados por analistas más serios, quienes ocupan los postulados del internet muerto para exponer el riesgo de un internet engullido por creaciones sintéticas de IA, en donde el contenido de IA alimente la producción de IA, dejando fuera del ciclo a las personas.
Y es que aunque la falsedad y el engaño han sido un elemento presente y constante en los entornos digitales desde su masificación, el abaratamiento y mejoramiento de tecnologías como la IA ha añadido una nueva capa de riesgo, ya que no sólo se pueden crear más contenido falso en menor tiempo y con un costo cercano a cero, sino porque la mentira es cada vez más difícil de identificar y porque una tecnología como la IA no sólo puede generar una imagen falsa, sino también usuarios, reacciones, republicaciones, audiencias y tendencias ilusorias que den la sensación de autenticidad, lo que podría desencadenar diversos problemas políticos, económicos y sociales.
Es importante señalar que tras la popularización de ChatGPT y la IA generativa, las empresas, gobiernos y actores privados comenzaron una carrera en la producción de contenido y agentes sintéticos creados con IA, sobre todo por los beneficios económicos y de irresponsabilidad político-social que conlleva: es más barato y opaco este modelo de distribución, por lo que se puede crear y distribuir contenido multimedia engañoso o abiertamente falso con el fin de ganar dinero o poder político sin tener que marcarlo como propio o auditarlo en alguna campaña, por ejemplo.
Entre los usos que puede tener la producción de contenido y agentes sintéticos están: la popularidad y el nivel de compromiso, ya sea un producto, una marca, un partido político o una causa político-social, esto se puede hacer usando perfiles creados y administrados por IA que no sólo actúen como seguidores, sino que también interactúen de distinta forma, tal como promoviendo contenido sintético, lo que crearía la sensación de tendencia, apoyo o legitimidad y en poco tiempo encontraría su camino a la conversación pública y los motores de búsqueda.
Por otro lado, está la censura y el control, el cual podría lograrse por distintos medios, tal como la producción de contenido o publicaciones sintéticas a nivel masivo para opacar publicaciones y contenido orgánico, lo que se reforzaría por medio de las reacciones y republicaciones sintéticas. Esta táctica de comandar varios perfiles también puede ser usada para atacar a contrincantes, lo que sumado a la capacidad de crear contenido como fotos, audios o videos con IA podría fácilmente destruir carreras políticas, reputaciones empresariales o desatar conflictos sociales.
Si bien la teoría de un internet muerto es una teoría de la conspiración cuyo valor recae en la crítica a tendencias como la automatización, la manipulación o la censura, se queda corta a la hora de fincar responsabilidades, ya que el deterioro de internet no es un plan maestro de una persona o élite megalómana que quiere dominar el mundo, sino que es el resultado de una serie de decisiones y acciones de empresas, gobiernos y personas cuyo objetivo es maximizar sus ganancias a toda costa sin pensar en consecuencias políticas, sociales o económicas, ni mucho menos como sus acciones pueden afectar a otros, al mercado o a los países.
Además, antes de preocuparnos por la muerte de internet, cabría preguntarnos ¿Qué internet? Ya que desde antes de la IA generativa las personas ya sufrimos las consecuencias de un internet privatizado, automatizado y sin responsabilidades, el problema ahora es que esta amenaza pone en riesgo el modelo de negocio del internet corporativo, el cual requiere de datos e interacciones humanas para monetizar. Lo peor que puede pasar en un mundo en donde todo se mide, categoriza y se vuelve un producto es que tales mediciones no sean correctas, fidedignas o justas.