Estados Unidos pone el foco sobre ChatGPT y OpenAI

El pasado 13 de julio, se dio a conocer que la Comisión Federal de Comercio de Estados Unidos (FTC por sus siglas en inglés) comenzó a investigar a la empresa OpenAI para verificar si su herramienta Chat GPT ha infringido las leyes de protección de datos personales de sus usuarios. A primera instancia, la noticia suena muy sencilla, pero ¿qué es lo que realmente preocupa a Estados Unidos?.

Primero recordemos que en Estados Unidos las entidades federales como la FTC y la Comisión de Bolsa y Valores (SEC), junto con los fiscales generales de los estados y los reguladores estatales, poseen la facultad de investigar y sancionar a empresas que violen las leyes de privacidad y seguridad de datos. Este alcance de acción también incluye a las empresas que implementan la inteligencia artificial de formas que atenten contra la privacidad de los datos personales de los usuarios.

Además, existen diversas leyes en el país que se encargan de regular la privacidad y la seguridad de los datos. Entre ellas se encuentran la Ley de Privacidad del Consumidor de California (CCPA), la Ley de Privacidad de la Información en Línea de los Niños (COPPA), la Ley de Portabilidad y Responsabilidad de Seguros de Salud (HIPAA) y la Ley de Redes de Publicidad Justa (FCC). La FTC ha emitido directrices que indican que las compañías que utilizan IA y algoritmos deben adherirse a estas leyes de privacidad y seguridad de datos vigentes.

ChatGPT se ha vuelto una de las herramientas favoritas de quienes investigan, redactan y crean contenido. Sin embargo, nada es perfecto, y es que al ser una tecnología que continúa evolucionando cada día para ser perfeccionada, los usuarios han identificado ciertos errores en la información que arroja el chatbot, información que en ocasiones podría ser perjudicial.

Al parecer, Estados Unidos tiene varias preocupaciones relacionadas con las prácticas de entrenamiento de los modelos de IA de la empresa creadora de la herramienta y su manejo de información personal de usuarios. En un documento en el que se exponen los motivos de la investigación, se menciona un incidente ocurrido en 2020 con el que un error de OpenAI permitió a los usuarios ver información sobre otros chats y detalles relacionados con el pago de otros usuarios. Esto plantea preocupaciones sobre la protección de la privacidad y la seguridad de los usuarios.

También se quiere comprobar si la herramienta ha participado en prácticas desleales o engañosas que hayan causado daño a la reputación de los consumidores. En este caso, se menciona que se han estado recopilando quejas recibidas por productos de OpenAI que hayan hecho declaraciones falsas, engañosas, despectivas o dañinas.