Ao usar este site, você concorda com a Política de Privacidade e nossa Politica de Cookies.
Accept
TechParaTodosTechParaTodosTechParaTodos
Notificação Ver Mais
Tamanho da FonteAa
  • Inovação
  • Produtividade
  • Games
    • Listas e Tops
  • Segurança
  • Criptomoedas
TechParaTodosTechParaTodos
Tamanho da FonteAa
Buscar
  • Inovação
  • Produtividade
  • Games
    • Listas e Tops
  • Segurança
  • Criptomoedas
Follow US
Inovação

IA da Microsoft roda em CPU e rivaliza com sistemas maiores

Redação TechParaTodos
Atualizado em: 18 de abril de 2025 19:46
Redação TechParaTodos
Compartilhar
Compartilhar

Você já imaginou um modelo de inteligência artificial tão eficiente que roda em um processador comum de computador, com desempenho comparável a sistemas muito maiores e mais complexos? Parece ficção científica, mas a Microsoft apresentou recentemente uma solução inovadora que pode revolucionar o futuro da IA: o modelo “1-bit” da BitNet.

Contents
A Revolução de 1,58 BitsSimplificando os PesosMenos Memória, Mais VelocidadeAinda Há Mistérios a Desvendar

A maioria dos modelos de IA atuais utiliza números de ponto flutuante de 16 ou 32 bits para armazenar os pesos da rede neural. Isso demanda muita memória e processamento, especialmente nos modelos de linguagem grandes. A BitNet, no entanto, muda completamente o jogo.

A Revolução de 1,58 Bits

A BitNet utiliza apenas três valores distintos para os pesos: -1, 0 e 1. Essa arquitetura “ternária”, referida como “1,58-bit” (por ser o número médio de bits necessários para representar três valores), reduz a complexidade e aumenta a eficiência computacional de forma significativa.

Isso permite que o modelo rode eficientemente em um simples processador de CPU de desktop. Imagine rodar um modelo de IA potente sem a necessidade de uma placa gráfica poderosa!

Simplificando os Pesos

A ideia de simplificar os pesos dos modelos não é nova na pesquisa de IA. Técnicas de quantização já eram usadas para reduzir o tamanho das redes neurais. A BitNet avança nesse campo, criando um modelo treinado nativamente com essa baixa precisão, ao contrário de abordagens anteriores que apenas reduziam o tamanho de modelos já existentes. Isso garante um melhor desempenho.

O modelo BitNet b1.58b, com 2 bilhões de tokens e treinado em um conjunto de dados de 4 trilhões de tokens, demonstra esse avanço. É o primeiro modelo de linguagem grande (LLM) de código aberto, nativo de 1-bit treinado em larga escala.

Menos Memória, Mais Velocidade

A redução na complexidade dos pesos traz vantagens óbvias. A BitNet b1.58 consome apenas 0,4 GB de memória, em comparação aos 2 a 5 GB de modelos similares de precisão total. Isso representa uma economia incrível de recursos!

Além disso, o sistema simplificado permite operações mais eficientes. A BitNet utiliza mais instruções de adição e menos operações de multiplicação, que são computacionalmente mais caras. Essa otimização resulta em uma economia de energia de 85% a 96% em comparação com modelos de precisão total.

Utilizando um kernel altamente otimizado, o modelo BitNet b1.58 também é muito mais rápido. Sua velocidade é comparável à da leitura humana (5-7 tokens por segundo) usando apenas uma CPU! Isso é incrível. O modelo consegue alcançar velocidades de processamento impressionantes em tarefas de raciocínio, matemática e conhecimento, sem comprometer o desempenho.

Ainda Há Mistérios a Desvendar

Apesar do sucesso, os pesquisadores ainda não compreendem totalmente por que o modelo funciona tão bem com pesos tão simplificados. Mais pesquisas são necessárias para que modelos BitNet consigam competir com os maiores modelos atuais em tamanho e contexto.

Mesmo assim, a BitNet apresenta uma abordagem alternativa promissora para a IA, considerando particularmente os altos custos de hardware e energia associados a modelos de precisão total. É possível que os modelos atuais sejam como carros de corrida que gastam muita energia para uma tarefa que um carro econômico faria igualmente bem.

Em resumo, a BitNet demonstra que a eficiência e o desempenho não precisam ser sacrificados em nome do tamanho. A inovação da Microsoft abre caminho para um futuro da IA mais acessível e sustentável.

Compartilhe suas experiências com modelos de IA eficientes!

Fonte: Ars Technica

TAGGED:inovation

Assine Nossa Newsletter Diária

Fique por dentro! Receba as últimas notícias de última hora diretamente na seu e-mail.

Ao se inscrever, você concorda e reconhece as práticas de dados descritas em nossa Política de Privacidade. Você pode cancelar a inscrição a qualquer momento.
Compartilhe esse Artigo
Facebook Whatsapp Whatsapp Reddit Telegram Copiar Link Print
Deixe um Comentário Deixe um Comentário

Deixe um comentário Cancelar resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

No TechParaTodos, acreditamos que a tecnologia deve ser simples e acessível. Nosso objetivo é descomplicar o mundo digital com dicas, tutoriais e tendências, ajudando você a aproveitar ao máximo as inovações tecnológicas no dia a dia. 🚀

You Might Also Like

Inovação

Direitos autorais de IA: Lei de 1965 resolve a polêmica?

6 Min de Leitura
Inovação

Mansory deixa a Cybertruck ainda mais feia? Veja as fotos

3 Min de Leitura
Inovação

Discord no mobile: anúncios em vídeo chegam em junho

3 Min de Leitura
Inovação

Grok 3: IA do Musk lidera ranking e causa polêmica

4 Min de Leitura

Redes Sociais

TechParaTodos - Alguns direitos reservados.
  • Início
  • Quem Somos
  • Fale Conosco
  • Política de Privacidade
  • Política de Cookies
  • Todos os posts
Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?