A União Europeia (UE) está elaborando o Ato de IA, uma lei que visa regular o desenvolvimento e uso da inteligência artificial. Mas, o que acontece quando os Estados Unidos pressionam para mudar as regras do jogo?
Prepare-se para uma discussão sobre a influência americana no Ato de IA da UE, e como isso impacta empresas!
Críticas ao Ato de IA
Apesar de promover um desenvolvimento de IA mais transparente e consciente de direitos autorais, muitos criticam o Ato de IA da UE. Acha-se que ele inibe a inovação, é muito burocrático e amplia o escopo da lei original, criando novas regras desnecessárias.
O governo americano alega que o regulamento dificulta a inovação e impõe cargas excessivas às empresas. Eles pressionam por uma revisão, buscando um enfoque menos restritivo.
Pressão Americana
Recentemente, o governo americano pressionou a Comissão Europeia e vários governos europeus a rejeitar o código de prática na sua forma atual. As críticas se concentram na suposta burocracia excessiva e em novas obrigações que vão além do texto legal do Ato de IA.
Especialistas apontam que o código impõe obrigações extras. Isso inclui testes de modelos por terceiros e a divulgação total dos dados de treinamento. Implementar isso em larga escala seria um grande desafio.
Responsabilidade das Empresas
A responsabilidade pela IA responsável está mudando. Antes, focava-se principalmente nos fornecedores. Agora, a responsabilidade recai sobre as empresas que implantam essa tecnologia.
Empresas que atuam na Europa precisam ter seus próprios manuais de gestão de riscos de IA. Isso inclui verificações de impacto na privacidade, registros de origem e testes de segurança. Devem-se evitar problemas contratuais, regulatórios e de reputação.
Independentemente da decisão da UE, as empresas precisam tomar ações proativas. Devem implementar controles de IA responsáveis como parte da sua infraestrutura, e não como um projeto paralelo.
Um Cenário Regulatório Mais Flexível?
Se outros países seguirem a linha americana, o resultado seria uma regulamentação mais flexível. Haveria menos fiscalização federal, dando maior liberdade às empresas.
Os Estados Unidos emitiram uma ordem executiva para remover barreiras à liderança americana em IA. Guias para cientistas foram atualizadas, removendo termos como “segurança da IA” e “IA responsável”. O foco agora é em reduzir o viés ideológico para promover o desenvolvimento econômico.
Essa mudança de foco indica uma postura mais favorável a uma regulamentação mais leve. Isso coloca uma maior responsabilidade nas próprias empresas para garantir o desenvolvimento ético e seguro da IA.
Conclusão
A pressão americana sobre o Ato de IA da UE destaca um conflito de interesses na regulamentação global de IA. Independentemente do resultado final, as empresas precisam assumir a responsabilidade pela IA responsável. Devem implementar práticas seguras e éticas, independentemente do nível de regulamentação.
A adaptação a este novo cenário é crucial para o sucesso futuro. A preparação para riscos e o cumprimento das normas, mesmo sem regulamentações extremamente específicas, devem ser prioridade.
Compartilhe suas experiências e opiniões sobre este tema!
Fonte: Computerworld