La compañía de inteligencia artificial OpenAI, responsable de ChatGPT, actualizó sus términos de uso y habilitó la posibilidad de compartir conversaciones privadas con las autoridades en caso de detectar amenazas a la seguridad o riesgos de daño. La novedad fue comunicada a través de una publicación en el blog oficial de la empresa, lo que desató un intenso debate entre especialistas en privacidad y usuarios.
“Cuando detectamos usuarios que están planeando dañar a otros, enrutamos sus conversaciones a flujos especializados donde son revisadas por un equipo reducido entrenado en nuestras políticas de uso, cuyos miembros están autorizados para tomar medidas que incluyen la prohibición de cuentas. Si los revisores humanos determinan que un caso implica una amenaza inminente de daño grave hacia terceros, podríamos derivarlo a las autoridades policiales”, explicaron desde OpenAI.
El artículo publicado por la organización también abordó cómo tratan temas de salud mental y en qué casos se activa la intervención de revisores humanos.
Prácticas habituales en el mundo digital
Aunque la medida generó controversia, no es una práctica aislada. Muchas aplicaciones que ofrecen cifrado de extremo a extremo pueden verse obligadas a liberar información si lo requieren las autoridades mediante una orden judicial.
La diferencia en este caso radica en que la propia empresa estadounidense reconoció que existe una revisión previa de su personal antes de entregar información a las fuerzas de seguridad.
En sus políticas de uso, la compañía aclaró: “Podemos compartir tu información personal con autoridades gubernamentales o de otros terceros si es requerido por la ley o en buena fe (…) para detectar o prevenir fraude u otra actividad ilegal; para proteger la seguridad, integridad y confianza de nuestros productos, empleados, usuarios o el público, o para proteger contra responsabilidad legal”.
De acuerdo con Futurism, la firma dirigida por Sam Altman no detalló exactamente qué pasos seguirá en esos casos.
Demandas y acusaciones tras una polémica con ChatGPT
La actualización de las normas se conoció poco después de una denuncia judicial que vinculó a ChatGPT con el suicidio de un adolescente de 16 años. Los padres de la víctima acusaron a OpenAI de homicidio culposo, alegando que el chatbot proporcionó consejos dañinos y llegó a describir métodos de suicidio sin activar ningún protocolo de emergencia.
Según la presentación, el sistema “no interrumpió” las conversaciones en las que el joven habló de quitarse la vida y tampoco inició alertas a pesar de identificar la intención del menor, llamado Adam.
El abogado de la familia sostuvo: “Lo que este caso pondrá en tela de juicio es hasta qué punto OpenAI y Sam Altman se apresuraron a comercializar la entonces más reciente versión de ChatGPT, a pesar de los evidentes problemas de seguridad”.