Você já se perguntou sobre a responsabilidade das grandes empresas de tecnologia em relação à Inteligência Artificial? Um acontecimento recente chamou a atenção: a remoção silenciosa de compromissos com a segurança da IA, assumidos na era Biden, do site da Anthropic. Vamos explorar essa história intrigante!
A Desaparecida Declaração da Anthropic
A Anthropic, uma empresa de destaque no desenvolvimento de IA, parece ter removido discretamente do seu site declarações de compromisso com a criação de uma IA segura, compromissos assumidos durante a administração Biden.
O Midas Project, um grupo de vigilância da área de IA, foi o primeiro a notar o desaparecimento do texto. A linguagem comprometida, embora não legalmente vinculativa, prometia compartilhar informações e pesquisas sobre os riscos da IA, incluindo vieses, com o governo. Essa informação estava presente no “centro de transparência” da empresa, onde eram listados seus “compromissos voluntários” relacionados ao desenvolvimento responsável da IA.
Contexto: Acordos Voluntários e a Era Biden
Juntamente com outras gigantes da tecnologia – incluindo OpenAI, Google e Meta – a Anthropic participou de um acordo voluntário para autorregulamentação em 2023. Esse acordo fazia parte das iniciativas de segurança da IA do governo Biden, muitas das quais foram posteriormente codificadas em uma ordem executiva.
As empresas se comprometeram com padrões para testes de segurança de modelos antes do lançamento, marca d’água em conteúdo gerado por IA e desenvolvimento de infraestrutura de privacidade de dados. Posteriormente, a Anthropic concordou em trabalhar com o AI Safety Institute para levar adiante essas prioridades.
A Mudança de Cenário com a Nova Administração
Com a mudança de governo, o AI Safety Institute provavelmente será dissolvido, deixando suas iniciativas em situação incerta. A Anthropic não anunciou publicamente a remoção do compromisso de seu site e afirma que suas posições atuais sobre IA responsável são anteriores aos acordos da era Biden.
Essa ação faz parte de uma série de eventos no setor público e privado em torno da IA, muitos dos quais impactam o futuro da segurança e regulamentação da IA sob a nova administração. Já houve mudanças significativas na equipe e no financiamento destinados à pesquisa em IA, levando a uma mudança no tom das grandes empresas de tecnologia.
A Nova Retórica e as Implicações
Algumas empresas estão aproveitando a oportunidade para expandir seus contratos governamentais e trabalhar em conjunto com o governo na formulação de uma política de IA ainda incerta. De forma preocupante, observa-se uma flexibilização nas definições de IA responsável, o que pode comprometer os esforços para garantir a segurança e mitigar os riscos associados à tecnologia.
Em resumo, observa-se uma redução significativa na regulamentação de IA, e as empresas parecem ter menos incentivos externos para implementar mecanismos de autorregulação. Isso levanta preocupações sobre a segurança e a ética no desenvolvimento e uso da IA.
Conclusão: O Futuro da IA e a Responsabilidade Corporativa
A remoção silenciosa dos compromissos da Anthropic levanta preocupações sobre a responsabilidade corporativa no desenvolvimento da IA. A falta de regulamentação e a mudança de cenário político criam um ambiente incerto para o futuro da IA. É fundamental que as empresas, além de regulamentadores, priorizem a segurança e a ética na Inteligência Artificial.
Compartilhe suas experiências e opiniões sobre esse assunto nos comentários!
Fonte: ZDNet