El 14 de junio, el Parlamento Europeo llevará a cabo un debate en Estrasburgo sobre un proyecto de ley relacionado con la regulación de la inteligencia artificial (IA). Durante una visita a Alemania, Sam Altman, director de la empresa OpenAI con sede en California y creadora de ChatGPT, un generador de texto muy debatido, advirtió sobre el exceso de regulación, pero posteriormente retiró la amenaza de dejar de operar ChatGPT en Europa.
Según Altman, es positivo establecer normas para la inteligencia artificial, pero se requiere claridad en su aplicación. Su opinión tiene peso en el campo de la IA y ha sido recibido por el canciller alemán, Olaf Scholz, en Berlín.
Aunque no se prohíben, se establecerán estándares europeos para regular la IA. El mercado europeo es muy atractivo para los proveedores de IA, por lo que aquellos que deseen vender sus sistemas en Europa deberán cumplir con los estándares establecidos. René Reparsi, miembro del Parlamento Europeo del grupo socialdemócrata, afirma que también está en contacto con colegas estadounidenses para buscar la creación de estándares significativos sin competir entre sí. Aunque las grandes empresas tecnológicas estadounidenses tienen una ventaja en términos de capital y datos, Reparsi opina que las reglas europeas no impiden que las nuevas empresas de la UE continúen desarrollando la IA.
Varios expertos, incluido Geoffrey Hinton, uno de los pioneros en el campo de la IA y ex empleado de Google, han advertido sobre los peligros de la IA. Hinton mencionó que los sistemas generativos de IA podrían superar pronto la inteligencia de los humanos que los crearon, y los cambios resultantes en el mercado laboral no son predecibles. Incluso los desarrolladores y altos ejecutivos de empresas como Microsoft y Google admiten que ya no comprenden completamente cómo funcionan las aplicaciones de IA. En una carta abierta, investigadores y empresarios, incluido Elon Musk, propietario de Twitter, sugirieron tomarse un descanso para establecer límites en el desarrollo de la IA.
En respuesta a estas preocupaciones, la Unión Europea está elaborando una nueva ley que ha estado en discusión durante dos años. La ley propuesta clasifica las aplicaciones de IA en diferentes niveles de riesgo. Se prohibirán los sistemas de alto riesgo que analicen o predigan de manera inaceptable el comportamiento social de las personas, mientras que los sistemas de riesgo estarán sujetos a reglas y límites. Las aplicaciones más simples, como los generadores de texto como ChatGPT, no estarán muy restringidas, pero todos los servicios generados por IA deberán ser etiquetados como tales.
Sin embargo, la implementación de la ley europea sobre IA no se espera antes de principios de 2025, ya que requiere la aprobación tanto del Parlamento Europeo como de los 27 Estados miembros de la UE. Axel Voss, eurodiputado y uno de los principales autores de la ley sobre IA de la UE, señala que el desarrollo de la IA avanza rápidamente y gran parte de él podría no estar contemplado cuando la ley entre en vigor. Voss advierte sobre el exceso de prohibiciones.
Comments