Italia bloquea temporalmente el software ChatGPT AI por preocupaciones de violación de datos

El organismo de control de privacidad del gobierno de Italia anunció el viernes que está bloqueando temporalmente el software de inteligencia artificial ChatGPT a raíz de una violación de datos. La medida se produce cuando el país investiga una posible violación de las estrictas normas de protección de datos de la Unión Europea. La Autoridad de Protección de Datos de Italia dijo que está tomando medidas provisionales "hasta que ChatGPT respete la privacidad", incluida la limitación temporal de que la empresa procese los datos de los usuarios italianos.

Se anuncia el organismo de control de la privacidad del gobierno de Italia

El chatbot de IA, desarrollado por OpenAI, con sede en EE. UU., funciona con grandes modelos de lenguaje que imitan los estilos de escritura humanos basados en una gran cantidad de libros digitales y escritos en línea que han ingerido. Sin embargo, las preocupaciones sobre las violaciones de la privacidad y las posibles filtraciones de datos han ido en aumento. Algunas escuelas públicas y universidades de todo el mundo han bloqueado el sitio web ChatGPT de sus redes locales por preocupaciones de plagio de los estudiantes.

Es poco probable que la medida del organismo de control italiano afecte las aplicaciones de empresas que ya tienen licencias con OpenAI para usar la misma tecnología que impulsa el chatbot, como el motor de búsqueda Bing de Microsoft. Sin embargo, la declaración de la agencia cita el Reglamento General de Protección de Datos de la UE y señaló que ChatGPT sufrió una violación de datos el 20 de marzo que involucró "conversaciones de usuarios" e información sobre pagos de suscriptores.

OpenAI anunció anteriormente que había desconectado ChatGPT el 20 de marzo para corregir un error que permitía a algunas personas ver los títulos o líneas de asunto del historial de chat de otros usuarios. La compañía dijo que se había puesto en contacto con aquellos que podrían haberse visto afectados y que la cantidad de usuarios cuyos datos se revelaron a otra persona era extremadamente baja.

El organismo de control de la privacidad de Italia lamentó la falta de una base legal para justificar la "recopilación y el procesamiento masivos de datos personales" de OpenAI que se utilizan para entrenar los algoritmos de la plataforma y que la empresa no notifica a los usuarios cuyos datos recopila. La agencia también dijo que ChatGPT a veces puede generar y almacenar información falsa sobre individuos. Finalmente, señaló que no hay un sistema para verificar la edad de los usuarios, lo que expone a los niños a respuestas "absolutamente inapropiadas para su edad y conciencia".

A medida que crece la preocupación por el auge de la inteligencia artificial, un grupo de científicos y líderes de la industria tecnológica publicaron una carta el miércoles pidiendo a empresas como OpenAI que detuvieran el desarrollo de modelos de IA más potentes hasta el otoño para dar tiempo a la sociedad a sopesar los riesgos. El CEO de OpenAI, con sede en San Francisco, Sam Altman, anunció esta semana que se embarcará en un viaje por seis continentes en mayo para hablar sobre la tecnología con usuarios y desarrolladores. Esto incluye una parada prevista para Bruselas, donde los legisladores de la Unión Europea han estado negociando nuevas reglas radicales para limitar las herramientas de inteligencia artificial de alto riesgo, así como visitas a Madrid, Múnich, Londres y París.

En respuesta a la violación de datos y las preocupaciones sobre ChatGPT y chatbots de IA similares, el grupo de consumidores europeo BEUC pidió a las autoridades de la UE y a los 27 países miembros del bloque que investiguen. BEUC dijo que podrían pasar años antes de que la legislación de IA de la UE entre en vigencia, por lo que las autoridades deben actuar más rápido para proteger a los consumidores de posibles riesgos.

#buttons=(Accept !) #days=(20)

Nuestro sitio web utiliza cookies para mejorar su experiencia. Más información
Accept !