Por Carlos Chavarria Garza
En medio de la actual efervescencia de los conflictos en el Medio Oriente, ha surgido un fenómeno tan notorio como alarmante: la muy abundante proliferación de videos de entrevistas protagonizados por personajes de posturas severas y acreditamientos rimbombantes que, bajo el disfraz de una intelectualidad profunda, se dedican, si es necesario a desmantelar la historia con una precisión quirúrgica. Ustedes me dirán que cual historia porque si algún área del conocimiento ha sido siempre politizada es precisamente la historia, por la simple razón de que alguna parte de la microhistoria hasta el Siglo XX se empezó registrar, y aun así las crónicas y sus versiones son escritas por seres humanos falibles o interesados también.
Estos «pseudo-intelectuales» carismáticos expertos en todo tipo de temas operan mediante la siembra de medias verdades, utilizando una retórica diseñada para capturar a quienes, por falta de un entrenamiento riguroso en historia o por el abandono del hábito de la lectura, carecemos de las defensas cognitivas para detectar la manipulación. Su objetivo no es el debate académico, sino provocar una desconfianza sistémica hacia las instituciones y los liderazgos vigentes, empleando una estrategia de propaganda que guarda ecos escalofriantes con los métodos de exterminio moral y físico perfeccionados en el siglo XX.
Mi inquietud nace de observar cómo la tecnología actual no solo facilita la difusión de estos relatos, sino que les otorga una pátina de veracidad incuestionable. La facilidad con la que se «destruye» el pasado para justificar políticas de odio en el presente nos obliga a reflexionar sobre nuestra vulnerabilidad ante lo que he denominado el «Efecto Barrabás». Al igual que en el juicio bíblico, donde una turba sesgada suplantó la voluntad de un pueblo entero, hoy nos enfrentamos a una turba digital alimentada por algoritmos que prefieren el grito de la mayoría ruidosa por sobre la evidencia del hecho documentado. Es en esta intersección entre el carisma manipulador y la opacidad tecnológica donde se gesta la mayor amenaza para un futuro viable
Históricamente, el juicio de Jesucristo ante Poncio Pilatos no solo representa un hito teológico o jurídico, sino que constituye, quizás, el primer error de estimación estadística con consecuencias universales. Pilatos, en un intento de legitimar (lavarse las manos) una decisión política mediante un barniz democrático, convocó a lo que él creyó una muestra representativa del pueblo. Sin embargo, lo que tenía frente a sí no era el «pueblo», sino una muestra sesgada: una turba instigada y seleccionada por el Sanedrín para gritar un nombre específico a saber.
Así las cosas al preguntar Pilatos «¿A quién suelto?», la respuesta no fue el fruto de una reflexión ciudadana, sino el resultado de una manipulación de la percepción. El resultado fue la liberación de Barrabás. Hoy, la Inteligencia Artificial está replicando este fenómeno a una escala global, creando lo que podemos denominar el Efecto Barrabás Digital, donde la sofisticación tecnológica se pone al servicio de la antigua maniobra del engaño.
En estadística, un sesgo de selección ocurre cuando la muestra analizada no representa fielmente a la población total. En el patio del Pretorio, la muestra estaba «envenenada» por la agitación y la presencia física de grupos de interés. En la actualidad, la IA y los algoritmos de redes sociales actúan como los instigadores del Sanedrín. No nos presentan la realidad completa, sino una dieta personalizada de datos que confirman nuestros prejuicios. Esta «Muestra Barrabás» moderna se manifiesta cuando el entorno digital nos presenta a supuestos expertos que sostienen verdades absolutas que contradicen siglos de consenso histórico sin aportar pruebas sólidas. El olfato crítico debe activarse aquí: si la voz es aislada pero se presenta como la «voluntad del pueblo» o la «verdad oculta», estamos ante una selección malintencionada diseñada estratégicamente para validar un prejuicio preexistente. Cuando la IA prioriza el contenido que genera más reacción emocional, está seleccionando sistemáticamente a los «Barrabases» de la información, y el usuario moderno corre el riesgo de confundir la tendencia de su feed con la verdad absoluta.
Es imperativo que los lectores comprendamos que en las tripas de los algoritmos no reside la verdad, sino un complejo entramado de mediciones estadísticas diseñadas para diversos propósitos de clasificación y predicción.
La hoy llamada Inteligencia Artificial utiliza estas métricas para maximizar la verosimilitud(); es decir, no busca lo que es «cierto» en términos históricos o fácticos, sino lo que es estadísticamente más probable que aparezca según los datos con los que fue entrenada. Si la base de datos está contaminada con sesgos o propaganda, la máquina simplemente optimizará la apariencia de verdad de una mentira, presentándola con una fluidez y una seguridad que resultan hipnóticas para el ojo no entrenado.
En este sentido, he insistido en que todos los modelos generativos de lenguaje deberían mostrar abiertamente sus matrices de confusión y sus niveles de confianza. Al ocultar estas herramientas de diagnóstico, la industria tecnológica nos priva de ver los falsos positivos del relato; se nos oculta cuántas veces la máquina está «acertando» en una falacia simplemente porque esa falacia es la tendencia dominante en su muestra. Debemos recordar que, aunque la estadística es una herramienta poderosa para enseñarnos patrones y tendencias, nunca debe confundirse con la verdad. La verdad requiere evidencia, contexto y un contraste que ningún cálculo de probabilidades puede sustituir. Sin este rigor, seguiremos siendo víctimas de un «Juicio de Pilatos» automatizado, donde el algoritmo elige a Barrabás simplemente porque su nombre es el que más resuena en la base de datos de la turba digital.
La peligrosidad de la IA no radica únicamente en la mentira total, sino en su capacidad para manufacturar medias verdades con una apariencia de seriedad académica. Este fenómeno se apoya en el «Anclaje», donde el manipulador comienza con un dato real y verificable para ganar la confianza del lector, utilizándolo como un caballo de Troya para introducir una conclusión extrema o descalificatoria.
Al mismo tiempo, se despliega una estética de la autoridad con barniz rimbombante: un exceso de títulos y lenguajes complejos que buscan intimidar a quienes no poseen un entrenamiento previo en historia. Si el expositor apela más a su acreditamiento que a la lógica de sus fuentes, está operando una captura de la voluntad a través de la sofística moderna. Como se observa en los discursos actuales sobre conflictos geopolíticos, se utilizan fragmentos de verdad para construir narrativas que pretenden destruir la historia mediante la omisión selectiva del contexto. La historia es un tejido continuo; si alguien intenta recortarlo para que solo veamos el trozo que le conviene, omitiendo antecedentes fundamentales, está operando una cirugía estética sobre la memoria histórica.
El «Efecto Barrabás» en la era de la IA se completa mediante la provocación del Pathos, es decir, la prioridad de la emoción sobre la razón. Si un contenido genera una reacción inmediata de ira o indignación y utiliza frases ganchos sobre «verdades prohibidas», lo más probable es que estemos ante una manipulación algorítmica. La verdad suele ser serena y compleja, mientras que la propaganda es ruidosa, simple y urgente. El espectador que ha renunciado a la lectura profunda es la víctima perfecta de este sistema. Sin el hábito de contrastar fuentes, el individuo queda atrapado en la superficie de la imagen, aceptando la liberación del error y condenando a la verdad a la irrelevancia.
Como advirtiera Blaise Pascal, «la multitud que no se reduce a la unidad es confusión». Advierte sobre cómo una «verdad» impuesta (la unidad) que no brota de una muestra real y honesta (la multitud representativa) se convierte en una herramienta de control, justo como el Sanedrín manipulando el veredicto de Pilatos.
En la era de la IA, estamos sumergidos en esa confusión de datos que pretenden ser verdades. El sano escepticismo no paralizante es hoy más que nunca el único instrumento capaz de reducir ese ruido estadístico a una unidad con sentido, impidiendo que la «verosimilitud» del algoritmo nos arrebate nuestra capacidad de discernir entre el criminal y el inocente, entre la propaganda y la historia.
La tecnología no puede sustituir el juicio crítico. La IA es una herramienta de cálculo, no de sabiduría. Si permitimos que el algoritmo elija por nosotros qué es veraz, estamos entregando nuestra conciencia a la turba digital. La solución no es el aislamiento, sino el retorno a la lectura de profundidad y al entrenamiento en el olfato crítico. Leer es el único método que permite detener el tiempo, analizar el sesgo y preguntar, como debió hacer Pilatos: ¿Quién seleccionó a esta multitud?. Un futuro viable depende de nuestra capacidad para entender que la realidad no se mide por la intensidad de un grito digital, sino por la solidez de la evidencia y el contraste constante de las ideas.
«Debemos saber dudar donde es necesario, asegurar donde es necesario y someterse donde es necesario. Quien no hace esto, no entiende la fuerza de la razón.»¹
—Blaise Pascal.
Pascal, B. (1670). Pensamientos (Pensées). Fragmento 268, edición Brunschvicg.https://www.mercaba.org/PDF/Pascal,%20Blaise%20-%20Pensamientos%201.PDF



