Redacción y agencias.
Un nuevo documento del Vaticano ofrece directrices sobre inteligencia artificial en sectores como la guerra, la educación y la atención sanitaria.
El Vaticano publicó el martes un documento que describe las pautas éticas para el uso de la inteligencia artificial (IA) en todos los ámbitos, desde la economía hasta la atención médica y las relaciones humanas.
El Papa Francisco ha emitido varias advertencias sobre los riesgos asociados con la tecnología de IA, y este nuevo documento de las oficinas de doctrina y cultura del Vaticano amplía lo que el pontífice ya ha dicho.
Esto surge cuando un nuevo chatbot de inteligencia artificial de de la «startup» tecnológica china Deep Seek aumentó las apuestas en la carrera tecnológica de IA, alcanzando a los líderes estadounidenses en IA generativa a una fracción del costo.
La IA y la guerra
«Si bien las capacidades analíticas de la IA podrían ayudar a las nacioneds a buscar la paz y garantizar la seguridad, el uso de la inteligencia artificial como arma también puede ser muy problemática», advirtió el Vaticano.
Agregó que la IA tiene el potencial de aumentar los instrumentos de guerra «mucho más allá del alcance de la supervisión humana», lo que podría provocar «una carrera armamentista desestabilizadora, con consecuencias catastróficas para los derechos humanos».
El documento del Vaticano también habló de la IA como una extensión del poder humano. «Las atrocidades cometidas a lo largo de la historia son suficientes para suscitar profundas preocupaciones sobre los posibles abusos de la IA», afirmó.
La IA y las relaciones humanas
El documento advierte que la IA no es un sustituto de las relaciones genuinas y cita su falta de empatía como un riesgo al antropomorfizar la IA en áreas como el desarrollo infantil o las relaciones interpersonales.
«Si bien la IA puede simular respuestas empáticas, no puede replicar la naturaleza eminentemente personal y relacional de la empatía auténtica», afirma el documento.
La IA y el medio ambiente
El documento subrayó que si bien la IA puede ayudar a combatir el cambio climático a través de modelos para pronosticar eventos extremos, ayudar a gestionar emergencias y ayudar a promover el desarrollo sostenible, también plantea riesgos que quedan oscurecidos por el uso de palabras como «la nube» que separan el almacenamiento de datos «del mundo físico».
«Es fundamental reconocer que su funcionamiento demanda enormes cantidades de energía y agua, lo que contribuye significativamente a las emisiones de CO2», señala el documento.
The European cowboys herding bulls in southern France
In Partnership with Qatar Media City
La IA y la educación
El documento afirma que la IA debería ayudar a promover el pensamiento crítico, y no sólo capacitar a «los jóvenes para acumular información y generar respuestas rápidas». La educación no consiste en «llenar la cabeza de ideas», sino “en asumir el riesgo de las tensiones entre la mente, el corazón y las manos», afirma.
«Las escuelas, universidades y sociedades científicas tienen el reto de ayudar a los estudiantes y profesionales a comprender los aspectos sociales y éticos del desarrollo y los usos de la tecnología», afirma el documento.
La IA y la atención sanitaria
Si bien se cita el potencial de la IA para mejorar la atención médica, por ejemplo en el diagnóstico de enfermedades, el documento afirma que es fundamental que la IA se utilice para mejorar y no «reemplazar la relación entre los pacientes y los proveedores de atención médica».
«Las decisiones relativas al tratamiento de los pacientes y el peso de la responsabilidad que conllevan deben permanecer siempre en manos de la persona humana y nunca deben delegarse en la IA», afirma el documento.
La inteligencia artificial y la desinformación
La IA presenta el riesgo de «generar contenidos manipulados e información falsa, que pueden engañar fácilmente a las personas por su parecido con la verdad», señala el documento.
Contrarrestar las falsedades imnpulsadas por la IA no es sólo el trabajo de los expertos de la industria: requiere los esfuerzos de todas las personas de buena voluntad», afirmó, pidiendo diligencia por parte de quienes comparten contenido generado por IA para verificar «la verdad de lo que difunden».