(Foto: Adobe Stock)
Las reglas de ChatGPT, el poderoso chatbot de OpenAI, hasta hace poco prohibían explícitamente su uso para fines “militares y bélicos”. Ahora, la publicación The Intercept reveló que la organización especializada en inteligencia artificial generativa eliminó esa sección en sus políticas de uso, una movida que profundiza el debate acerca del empleo de estas tecnologías y sus implicancias más allá de las pantallas.
Por: TN
OpenAI cambia las reglas de uso de ChatGPT: ¿un guiño a las organizaciones militares?
De acuerdo a la fuente, la modificación en las políticas de ChatGPT fue realizada el 10 de enero con el propósito de agregar transparencia y “brindar orientación más específica acerca del servicio”. En concreto, se quitó el texto que hacía referencia a la prohibición de empleo del chatbot para fines militares y bélicos. En ese marco, se mantiene las restricciones vinculadas a acciones dañinas y las advertencias respecto al auxilio de estas tecnologías para el “desarrollo o uso de armas”.
En términos prácticos, la mención recientemente eliminada en la lista de usos prohibidos de ChatGPT implicaba que OpenAI no podía trabajar con agencias, como el Departamento de Defensa de Estados Unidos, por mencionar un ejemplo. En esta instancia, aún no es posible evaluar cabalmente las implicancias de esa decisión en la vida real. Sin embargo, la eliminación de esa referencia se produce justo cuando las agencias militares en todo el mundo muestran interés en el uso de la IA.
Puedes leer la nota completa en TN