El organismo de control de protección de datos del Reino Unido cerró una investigación de casi un año sobre el chatbot de inteligencia artificial de Snap, My AI, diciendo que está satisfecho de que la empresa de redes sociales haya abordado las preocupaciones sobre los riesgos para la privacidad de los niños. Al mismo tiempo, la Oficina del Comisionado de Información (ICO) emitió una advertencia general a la industria para que sea proactiva a la hora de evaluar los riesgos para los derechos de las personas antes de llevar al mercado herramientas de IA generativa.
GenAI se refiere a una versión de la IA que a menudo pone en primer plano la creación de contenido. En el caso de Snap, la tecnología impulsa un chatbot que puede responder a los usuarios de forma humana, como enviando mensajes de texto e instantáneas, lo que permite que la plataforma proporcione interacción automatizada.
El chatbot de IA de Snap funciona con ChatGPT de OpenAI, pero la empresa de redes sociales dice que aplica varias salvaguardas a la aplicación, incluida la programación de pautas y la consideración de edad de forma predeterminada, que tienen como objetivo evitar que los niños vean contenido inapropiado para su edad. También incluye controles parentales.
“Nuestra investigación sobre ‘Mi IA’ debería actuar como una señal de advertencia para la industria”, escribió Stephen Almond, director ejecutivo de riesgo regulatorio de la ICO, en un declaración Martes. “Las organizaciones que desarrollan o utilizan IA generativa deben considerar la protección de datos desde el principio, incluida la evaluación y mitigación rigurosas de los riesgos para los derechos y libertades de las personas antes de lanzar productos al mercado”.
“Seguiremos supervisando las evaluaciones de riesgos de las organizaciones y utilizaremos toda la gama de nuestros poderes de aplicación de la ley, incluidas las multas, para proteger al público de daños”, añadió.
En octubrela ICO envió a Snap un aviso de aplicación preliminar sobre lo que describió entonces como una “potencial falla en evaluar adecuadamente los riesgos de privacidad planteados por su chatbot de IA generativa ‘My AI'”.
Ese aviso preliminar del otoño pasado parece ser la única reprimenda pública a Snap. En teoría, el régimen puede imponer multas de hasta el 4% de la facturación anual de una empresa en casos de violaciones de datos confirmadas.
Al anunciar la conclusión de su investigación el martes, la ICO sugirió que la compañía tomó “medidas significativas para llevar a cabo una revisión más exhaustiva de los riesgos planteados por ‘Mi IA'”, luego de su intervención. La ICO también dijo que Snap pudo demostrar que había implementado “mitigaciones apropiadas” en respuesta a las preocupaciones planteadas, sin especificar qué medidas adicionales (si las hubo) ha tomado la compañía (hemos preguntado).
Es posible que se proporcionen más detalles cuando se publique la decisión final del regulador en las próximas semanas.
“La ICO está satisfecha de que Snap haya realizado una evaluación de riesgos relacionada con ‘Mi IA’ que cumple con la ley de protección de datos. La ICO seguirá supervisando el lanzamiento de ‘Mi IA’ y cómo se abordan los riesgos emergentes”, añadió el regulador.
Cuando se le pidió una respuesta a la conclusión de la investigación, un portavoz de Snap nos envió una declaración que decía: “Estamos contentos de que ICO haya aceptado que implementamos medidas apropiadas para proteger a nuestra comunidad cuando usamos My AI. Si bien evaluamos cuidadosamente los riesgos que plantea My AI, aceptamos que nuestra evaluación podría haberse documentado más claramente y haber realizado cambios en nuestros procedimientos globales para reflejar los comentarios constructivos de la ICO. Acogemos con satisfacción la conclusión de la ICO de que nuestra evaluación de riesgos cumple plenamente con las leyes de protección de datos del Reino Unido y esperamos continuar nuestra asociación constructiva”.
Snap se negó a especificar cualquier mitigación que implementó en respuesta a la intervención de la ICO.
El regulador del Reino Unido ha dicho que la IA generativa sigue siendo una prioridad de aplicación. Señala a los desarrolladores guía se produce sobre la base de la IA y las normas de protección de datos. También tiene un consulta abierta pidiendo opiniones sobre cómo debería aplicarse la ley de privacidad al desarrollo y uso de modelos de IA generativa.
Si bien el Reino Unido todavía tiene que introducir una legislación formal para la IA, porque el gobierno ha optó por confiar en reguladores como la ICO para determinar cómo se aplican las diversas reglas existenteslos legisladores de la Unión Europea acaban de aprobó un marco basado en riesgos para la IA – que se aplicará en los próximos meses y años – que incluye obligaciones de transparencia para los chatbots de IA.