El gigante estadounidense firma el código voluntario de prácticas en inteligencia artificial que la UE exige a los desarrolladores de modelos con riesgo sistémico. Meta lo rechaza por considerarlo una “extralimitación”.
Google ha confirmado que firmará el Código de Prácticas de Inteligencia Artificial impulsado por la Unión Europea, en un gesto de acercamiento regulatorio ante la inminente entrada en vigor —este 2 de agosto— de las nuevas normas europeas para proveedores de modelos de IA de propósito general con riesgo sistémico.
Entre los afectados están Google, OpenAI, Meta, Anthropic y otras tecnológicas con sistemas avanzados de IA generativa. Las empresas tendrán dos años para cumplir completamente con la ambiciosa y compleja Ley de IA europea, considerada la más restrictiva del mundo.
Meta se desmarca: “Europa va por el camino equivocado”
Mientras Google acepta el marco voluntario, Meta ha rechazado firmarlo, alegando que la UE está cometiendo una “extralimitación regulatoria” en el desarrollo de la inteligencia artificial. La empresa de Mark Zuckerberg acusa a Bruselas de “ir por el camino equivocado” y perjudicar la innovación con exceso de burocracia.
¿Qué implica firmar el código de prácticas?
Las compañías firmantes deberán cumplir con directrices como:
- No entrenar modelos con contenido pirateado.
- Actualizar la documentación técnica de sus modelos y herramientas.
- Respetar los derechos de autor y excluir contenidos protegidos cuando así lo soliciten sus propietarios.
- Cumplir con obligaciones de gestión de riesgos, transparencia y calidad.
Este código no es legalmente vinculante, pero es la antesala del cumplimiento obligatorio de la Ley de IA, que prohíbe usos de alto riesgo como:
- Manipulación cognitiva o social.
- Sistemas de puntuación social al estilo chino.
- Reconocimiento biométrico masivo, especialmente en espacios públicos.
- Uso de IA en áreas sensibles como educación o empleo sin garantías previas.
Google firma, pero con reservas
En un post firmado por Kent Walker, presidente de Asuntos Globales de Google, la compañía ha reconocido que el texto final del código “mejoró respecto a la propuesta inicial” de la UE, pero también ha mostrado preocupación por los efectos que puede tener en la competitividad europea.
“Nos sigue preocupando que la Ley y el Código puedan frenar el desarrollo de la IA en Europa. Existen desviaciones en materia de derechos de autor, exigencias que revelan secretos comerciales y mecanismos lentos de aprobación”, escribió Walker.
Europa regula, Silicon Valley responde
Con esta decisión, la UE consolida su papel como potencia reguladora global en inteligencia artificial, aunque se enfrenta a la resistencia de parte del sector tecnológico estadounidense. Mientras Google apuesta por adaptarse, Meta opta por confrontar. La pregunta clave es: ¿regular o innovar?