Você já se perguntou como evitar que modelos de IA “inventem” informações? A resposta pode estar em uma nova API da Anthropic que promete revolucionar a forma como interagimos com a inteligência artificial.
A Anthropic lançou a Citations API, uma funcionalidade que integra diretamente a capacidade de citação de fontes aos seus modelos Claude. Isso significa que o Claude pode agora não apenas responder a perguntas, mas também indicar exatamente de onde tirou as informações, diminuindo consideravelmente o risco de alucinações (respostas incorretas ou inventadas).
Como a Citations API funciona?
O processo é bastante intuitivo. A API processa documentos fornecidos pelo usuário (PDFs e arquivos de texto simples), dividindo-os em frases. Essas frases, juntamente com o contexto da pergunta, são passadas ao modelo. O Claude, então, usa essas informações para gerar a resposta e, simultaneamente, cita as passagens específicas utilizadas.
Aplicações da Citations API
As possibilidades são vastas. Imagine:
- Resumir arquivos de processos judiciais com citações precisas das fontes.
- Responder a perguntas complexas sobre documentos financeiros, rastreando todas as referências.
- Criar sistemas de suporte ao cliente que citam partes específicas da documentação do produto.
Testes internos demonstraram uma melhora de até 15% na precisão do recall em comparação com implementações de citação personalizadas. Embora não pareça muito, essa integração fundamental de técnicas de RAG (Retrieval Augmented Generation) é um avanço significativo.
Desvendando o RAG
O RAG funciona basicamente buscando porções de documentos relevantes à pergunta do usuário e as incluí no contexto apresentado ao modelo de linguagem. Embora eficaz, ainda existe o risco de respostas baseadas em dados de treinamento ou até mesmo alucinações. A Citations API minimiza esse problema.
Resultados Promissores
Relatórios iniciais são animadores. Empresas como a Thomson Reuters e a Endex já estão usando a API e relatando resultados positivos. A Endex, por exemplo, relatou a redução de alucinações de 10% para zero, com um aumento de 20% nas referências por resposta.
Mesmo com esses resultados positivos, é importante lembrar que depender de LLMs para informações referenciadas ainda apresenta riscos. Mais estudos são necessários para consolidar a confiabilidade da tecnologia.
Preço e Disponibilidade
A Citations API está disponível para os modelos Claude 3.5 Sonnet e Claude 3.5 Haiku, tanto na API da Anthropic quanto no Google Cloud. O preço é baseado nos tokens, mas as citações não são contabilizadas como tokens de saída.
Conclusão
A Citations API representa um salto significativo na busca por modelos de IA mais precisos e confiáveis. A integração do RAG diretamente no modelo melhora a precisão e a transparência, abrindo caminho para aplicações mais responsáveis e robustas da tecnologia. A redução de alucinações e o aumento da rastreabilidade das informações são conquistas importantes, embora seja fundamental lembrar da necessidade de contínua pesquisa na área.
Deixe seu comentário abaixo compartilhando suas impressões sobre essa nova tecnologia e suas potenciais aplicações!