La reciente prohibición de ChatGPT en Italia es solo uno de los muchos desafíos legales potenciales que enfrenta OpenAI.
Mientras la Unión Europea trabaja para aprobar una Ley de Inteligencia Artificial, Estados Unidos define una Declaración de Derechos de IA y el Reino Unido recomienda que las agencias existentes regulen la IA, los usuarios de ChatGPT han presentado quejas a nivel mundial contra OpenAI por posibles problemas de seguridad.
OpenAI y preocupaciones de seguridad global
El Centro de IA y Política Digital presentó una queja ante la Comisión Federal de Comercio para impedir que OpenAI desarrolle nuevos modelos de ChatGPT hasta que se establezcan medidas de seguridad.
El italiano Garante inició una investigación sobre OpenAI por una violación de datos reciente y la falta de verificación de edad para proteger a los usuarios más jóvenes del contenido de IA generativo inapropiado durante el registro.
La Comisión de Protección de Datos de Irlanda planea coordinarse con la Comisión de Protección de Datos de Italia y la UE para determinar si ChatGPT ha violado las leyes de privacidad.
Según Reuters, los reguladores de privacidad en Suecia y España no tienen planes de investigar ChatGPT ahora, pero pueden hacerlo en el futuro si los usuarios presentan quejas contra la tecnología de IA.
Y esas son solo algunas de las quejas, investigaciones y comentarios recientes de varios países sobre la responsabilidad de las empresas de IA.
Mientras tanto, en Alemania, Ulrich Kelber, portavoz del Comisionado Federal de Protección de Datos de la región, dijo que podría seguir una prohibición similar a las de otras naciones si OpenAI viola GDPR o políticas similares.
Sin embargo, Volker Wissing, Ministro de Transporte e Infraestructura Digital de Alemania, indicó que una prohibición no es el mejor enfoque.
“No necesitamos una prohibición de las aplicaciones de IA, sino formas de garantizar valores como la democracia y la transparencia”, dice Wissing.
Canadá también parece estar siguiendo el ejemplo después de que su Oficina del Comisionado de Privacidad inició una investigación sobre una queja contra ChatGPT que recopila datos personales sin consentimiento.
Y en Francia, Jean-Noël Barrot, Ministro de Transición Digital y Telecomunicaciones, comentó sobre la ola de entusiasmo por la IA, seguida de miedo por la IA. El plan del país, al parecer, es dominar la tecnología de inteligencia artificial y desarrollar modelos y tecnologías que defiendan los valores franceses.
¿Los países prohibirán ChatGPT de forma permanente?
OpenAI publicó recientemente unas preguntas frecuentes para los usuarios italianos y reafirmó su compromiso de crear sistemas que sean seguros, precisos y privados.
Pero, ¿cuáles son las posibilidades de que las investigaciones contra OpenAI resulten en una prohibición permanente de su tecnología en Italia y otros países?
Teniendo en cuenta que un juez en Colombia usó recientemente ChatGPT para ayudar en un fallo judicial y otro en India lo usó para decidir sobre la libertad bajo fianza, OpenAI tiene algunas probabilidades a su favor.
ChatGPT+ con el modelo GPT-4 ofrece puntos sorprendentemente equilibrados sobre el impacto de su tecnología y los riesgos que plantea.
En respuesta al mensaje, «¿Debería un país como Italia prohibir ChatGPT por problemas de manejo de datos?», ChatGPT+ responde:
“Privacidad de datos: es esencial que los sistemas de IA cumplan con las normas de protección de datos, como el Reglamento General de Protección de Datos (RGPD) de la UE. Es crucial asegurarse de que ChatGPT siga estas reglas y respete la privacidad del usuario. Si hay dudas con respecto al manejo de datos, valdría la pena investigar si OpenAI cumple con las regulaciones necesarias”.
La respuesta continúa con una descripción general de los beneficios, la ética y el sesgo, la competitividad y las alternativas de la IA.
Por supuesto, si un país no tiene acceso a ChatGPT, algunos usuarios pueden acceder mediante un servicio de red privada virtual (VPN). Google Trends muestra que Italia tuvo un pico en las búsquedas de VPN a principios de abril, coincidiendo con la prohibición de ChatGPT.
¿Pueden las demandas contra la tecnología OpenAI afectar a los usuarios?
¿Son los usuarios de OpenAI legalmente responsables de los problemas que surjan del uso y el resultado de sus herramientas? Depende, de acuerdo con los Términos de uso de OpenAI.
Si los usuarios violan los términos o políticas de OpenAI al usar herramientas como ChatGPT o la API, podrían ser responsables de defenderse.
OpenAI no garantiza que sus servicios siempre funcionen como se espera o que cierto contenido (entrada y salida de una herramienta de IA generativa) sea seguro, y señala que no será responsable de tales resultados.
Lo máximo que OpenAI ofrece para compensar a los usuarios por los daños causados por sus herramientas es la cantidad que el usuario pagó por los servicios durante el último año, o $100, suponiendo que no se apliquen otras leyes regionales.
Más demandas en AI
Los casos anteriores son solo la punta del iceberg legal de AI. OpenAI y sus pares enfrentan problemas legales adicionales, incluidos los siguientes.
- Un alcalde de Australia puede demandar a OpenAI por difamación por información inexacta sobre él proporcionada por ChatGPT.
- GitHub Copilot enfrenta una demanda colectiva por los derechos legales de los creadores de la codificación de código abierto en los datos de capacitación de Copilot.
- Stability AI, DeviantArt y Midjourney enfrentan una demanda colectiva por el uso de StableDiffusion, que usó arte con derechos de autor en sus datos de entrenamiento.
- Getty Images presentó acciones legales contra Stability AI por usar contenido protegido por derechos de autor de Getty Images en datos de entrenamiento.
Cada caso tiene el potencial de sacudir el futuro del desarrollo de la IA.
Imagen destacada: Giulio Benzin/Shutterstock