Tu chat con ChatGPT no es privado: Altman confirma que tus conversaciones más íntimas no están seguras

Now Allin
5 Lectura mínima
- Publicidad Patrocinada -

Los usuarios de ChatGPT deberían pensarlo dos veces antes de recurrir a la aplicación de IA para terapia o apoyo emocional. Según Sam Altman, el CEO de OpenAI, la industria de la IA todavía no sabe cómo proteger la privacidad de los usuarios en estas conversaciones tan sensibles. ¿La razón? No existe el secreto profesional médico-paciente cuando tu terapeuta es una inteligencia artificial.

Altman hizo estos comentarios en un episodio reciente del podcast This Past Weekend w/ Theo Von.

Conversaciones personales sin protección legal

Al responder una pregunta sobre cómo funciona la IA con el sistema legal actual, Altman señaló que uno de los problemas de no tener aún un marco legal o político para la IA es la ausencia de confidencialidad legal para las conversaciones de los usuarios.

“La gente habla de las cosas más personales de sus vidas con ChatGPT”, dijo Altman. “La gente lo usa —especialmente los jóvenes— como terapeuta, como coach de vida; tienen problemas de relación y [preguntan] ‘¿qué debo hacer?’. Y ahora mismo, si hablas con un terapeuta, un abogado o un médico sobre esos problemas, existe un privilegio legal. Hay secreto profesional médico-paciente, hay confidencialidad legal, lo que sea. Y aún no hemos resuelto eso para cuando hablas con ChatGPT”.

Esto podría generar un problema de privacidad para los usuarios en caso de una demanda legal, añadió Altman, porque OpenAI estaría legalmente obligada a entregar esas conversaciones hoy en día.

“Creo que eso está muy mal. Deberíamos tener el mismo concepto de privacidad para tus conversaciones con IA que tenemos con un terapeuta o lo que sea, y nadie tuvo que pensar en eso hace apenas un año”, expresó Altman.

La batalla de OpenAI por la privacidad de los datos

La compañía entiende que la falta de privacidad podría frenar una mayor adopción por parte de los usuarios. Además de la gran cantidad de datos en línea que la IA necesita durante su entrenamiento, se le está pidiendo que proporcione datos de los chats de los usuarios en algunos contextos legales. De hecho, OpenAI ha estado luchando contra una orden judicial en su demanda con The New York Times, la cual le exigiría guardar los chats de cientos de millones de usuarios de ChatGPT en todo el mundo, excluyendo a los clientes de ChatGPT Enterprise.

En un comunicado en su sitio web, OpenAI dijo que está apelando esta orden, a la que calificó de “excesiva”. Si el tribunal pudiera anular las propias decisiones de OpenAI sobre la privacidad de los datos, la compañía podría enfrentarse a más demandas de divulgación legal o propósitos de aplicación de la ley. Hoy en día, las empresas tecnológicas son citadas regularmente para entregar datos de usuarios con el fin de ayudar en procesos penales. Sin embargo, en años más recientes, ha habido preocupaciones adicionales sobre los datos digitales a medida que las leyes comenzaron a limitar el acceso a libertades previamente establecidas, como el derecho de una mujer a elegir.

Por ejemplo, cuando la Corte Suprema de EE. UU. anuló Roe v. Wade (una decisión que garantizaba el derecho al aborto), los clientes comenzaron a cambiarse a aplicaciones de seguimiento de períodos más privadas o a Apple Health, que encriptaba sus registros.

Altman le preguntó al presentador del podcast sobre su propio uso de ChatGPT, ya que Von había dicho que no hablaba mucho con el chatbot de IA debido a sus propias preocupaciones de privacidad.

“Creo que tiene sentido… querer realmente la claridad de la privacidad antes de usar [ChatGPT] mucho, como la claridad legal”, concluyó Altman.

- Publicidad Patrocinada 2 -
Comparte este artículo