A explosão repentina do DeepSeek gerou preocupações e perguntas, principalmente sobre a origem e o destino dos dados de treinamento, além da segurança dessas informações. Você já ouviu falar desse aplicativo? Prepare-se para descobrir uma história cheia de mistérios e controvérsias no mundo da Inteligência Artificial.
Para quem estava de férias longe das notícias, DeepSeek é um novo ator no campo da Inteligência Artificial (IA). Em apenas uma semana após o lançamento, o aplicativo dominou as lojas de aplicativos, tornando-se o mais baixado gratuitamente nos EUA. Isso causou um impacto significativo nos mercados financeiros.
A polêmica dos dados: de onde vêm e para onde vão?
O DeepSeek é chamado de projeto de código aberto, mas isso não é totalmente verdade. Apenas as saídas do modelo e certos aspectos são publicamente acessíveis. Os dados de treinamento e o código necessários para uma reprodução completa dos modelos não são totalmente divulgados. E é exatamente isso que preocupa muita gente.
A OpenAI acusou o DeepSeek de usar seu modelo ChatGPT para treinar o chatbot de IA do DeepSeek. Se isso não bastasse, a OpenAI já havia sofrido acusações de usar dados que não eram seus para treinar o próprio ChatGPT. Uma situação bastante irônica, não é?
Autoridades entram em ação
As autoridades também começaram a investigar. Um órgão regulador de privacidade italiano solicitou ao DeepSeek informações sobre os dados que ele processa no chatbot e seus dados de treinamento. Existe a preocupação com a privacidade de milhões de cidadãos italianos. Eles solicitaram respostas em 20 dias sobre:
- Quais dados pessoais são coletados
- A origem dos dados
- A finalidade da coleta
- Se os dados são armazenados em servidores na China
De acordo com a imprensa italiana, o DeepSeek desapareceu das lojas de aplicativos Google e Apple na Itália. Essa ação aconteceu em resposta às preocupações levantadas pelas autoridades.
Vazamento de dados: um risco ainda maior
Pesquisadores descobriram um banco de dados publicamente acessível pertencente ao DeepSeek. Esse banco de dados continha uma quantidade significativa de histórico de bate-papo, dados de back-end e informações confidenciais, incluindo fluxos de log, segredos de API e detalhes operacionais. A falta de autenticação permitiu que qualquer pessoa acessasse e até mesmo manipulasse as informações sensíveis.
Conclusão: segurança e privacidade em tempos de IA
A necessidade de desenvolvimento rápido na área de IA está criando riscos de privacidade sem precedentes. A segurança muitas vezes é deixada de lado. Independentemente do chatbot que você usa, seja cuidadoso com as informações que compartilha. Elas podem acabar em lugares inesperados e indesejáveis. Precisamos de mais transparência e responsabilidade por parte das empresas que desenvolvem essas tecnologias.
Deixe seu comentário abaixo compartilhando suas impressões sobre o caso DeepSeek. Quais são suas preocupações com a privacidade e segurança dos dados na era da inteligência artificial?
Fonte: Malwarebytes