En el corazón de la Santa Sede, entre las oficinas climatizadas del Dicasterio para la Comunicación, algo se mueve silenciosamente, sin credencial ni contrato. No tiene rostro ni firma, pero produce textos, traducciones y contenido multilingüe. Es la inteligencia artificial, y no solo como herramienta de apoyo, sino cada vez más como sustituto estructural del trabajo periodístico, editorial y lingüístico.
Durante meses, dentro del Dicasterio ha circulado contenido publicado que muestra inconfundibles rastros de generación automática : sintaxis artificial, construcciones estereotipadas, errores de traducción de modelos lingüísticos y una neutralidad perfecta y perturbadora. Todo esto mientras empleados humanos dedican su tiempo a curiosear en Twitter, Instagram y Facebook, observando lo que Silere non possum escribe sobre ellos. Parece que esta es la solución que alguien ha encontrado a los errores de Andrea Tornielli, Salvatore Cernuzio y compañía. Antes, era cuestión de copiar y pegar; ahora ni siquiera eso.
El problema no es el uso de la IA, sino su abuso.
Que la IA puede ser un valioso aliado en el periodismo y el trabajo editorial es indiscutible. Esto está respaldado no solo por el sentido común, sino también por las directrices éticas publicadas por organizaciones y agencias internacionales. Associated Press (AP), por ejemplo, ha establecido que la IA solo se puede utilizar para tareas de apoyo (como titulares, resúmenes o traducciones parciales), pero nunca debe producir contenido publicable sin una supervisión humana competente.
USA Today Network, en su código actualizado en 2023, prohíbe el uso de IA para generar imágenes y exige la revisión directa de un editor sénior para cualquier contenido que la utilice. Además, la Radio Television Digital News Association (RTDNA) ha aclarado que cualquier uso de IA en el periodismo requiere transparencia, precisión, contexto y supervisión humana.
En Austria, la agencia nacional APA ha introducido directrices específicas (“Directrices de IA”) que vinculan a las redacciones a un principio de no sustitución, exigiendo que la IA siga siendo una herramienta entre otras, nunca un editor invisible. Sin embargo, en el Vaticano están procediendo en la dirección opuesta: están reemplazando habilidades con algoritmos, delegando todo el contenido a la máquina y luego confiando en la providencia (digital).
El cortocircuito de la competencia
Detrás de esta práctica se esconde no solo un sesgo organizacional, sino también una peligrosa ilusión epistémica: esperar que la IA cubra las necesidades de quienes carecen de las habilidades necesarias, en lugar de mejorar a quienes sí las tienen. De hecho, no es raro que directivos sin conocimientos lingüísticos introduzcan textos en plataformas de IA para traducirlos al inglés, francés o portugués, confiando en el resultado automático, sin ser capaces de reconocer un error grave, el uso de títulos inexactos o una estructura de contenido consistentemente idéntica. Por lo tanto, la IA se utiliza no para fomentar el profesionalismo, sino para ocultar su ausencia.
El problema de la seguridad: datos sensibles en manos equivocadas
El problema más grave, sin embargo, es la seguridad . En los procesos editoriales del Vaticano, los textos producidos (incluso los confidenciales) suelen alimentar a herramientas comerciales de IA, que procesan y almacenan los datos para su procesamiento. En otras palabras, los documentos sensibles pasan por sistemas externos que recopilan, archivan y potencialmente reutilizan dicha información. Este es un riesgo que las directrices internacionales denuncian enérgicamente. La APA austriaca, por ejemplo, exige que la IA se utilice únicamente en plataformas internas y protegidas, precisamente para evitar filtraciones de datos, violaciones de la privacidad y apropiación indebida de contenido. El Instituto Poynter, en su conjunto de herramientas éticas 2025, insiste en el principio de “auditabilidad interna y trazabilidad de uso”. Todos estos principios se ignoran sistemáticamente en Piazza Pia.
Necesitamos dar un paso atrás. Pero un paso humano.
Si bien León XIV aboga claramente por el uso ético y justo de la inteligencia artificial -«Aunque es un producto excepcional del genio humano, la inteligencia artificial es ante todo una herramienta. Las herramientas se remontan a la inteligencia humana que las creó y adquieren valor moral a partir de las intenciones de quienes las utilizan»-, el Dicasterio para la Comunicación avanza en una dirección completamente diferente.
El Pontífice advierte contra el uso distorsionado de la IA, que, si bien puede servir al bien común y promover la igualdad, también puede ser manipulada para intereses egoístas, alimentando la desigualdad, la tensión e incluso el conflicto. Sin embargo, precisamente donde debe darse testimonio de la integridad de la comunicación eclesial, la inteligencia artificial a menudo se emplea sin discernimiento, con una lógica más orientada a la velocidad y al consenso que a la verdad.
No es un acto de fobia tecnológica pedir una reflexión seria sobre el uso de la inteligencia artificial en el Dicasterio para la Comunicación. Es un llamado a la responsabilidad. La IA puede ayudar, pero no reemplazar. Puede simplificar, pero no discernir. Puede traducir, pero no interpretar. Y, sobre todo, no puede salvaguardar la verdad a menos que sea guiada por el hombre. No debe pasarse por alto que la Santa Sede emplea a cientos de empleados remunerados, quienes deberían realizar su trabajo con competencia y responsabilidad, no delegarlo sistemáticamente en herramientas como ChatGPT. En esencia, también se requiere experiencia en el uso de la IA; no podemos fingir que no ocurre nada.











Leave a Reply