


A Academia Chinesa de Ciências anunciou o lançamento do SpikingBrain1.0, o primeiro large language model (LLM) inspirado diretamente no funcionamento do cérebro humano. A inovação representa um marco no setor de inteligência artificial ao propor uma alternativa mais rápida, eficiente e independente da hegemonia de chips Nvidia.
Enquanto modelos tradicionais como ChatGPT e Llama utilizam o mecanismo de attention, que analisa todos os termos de uma sentença ao mesmo tempo, o SpikingBrain1.0 adota um método mais seletivo: ativa apenas os “neurônios” necessários em cada etapa, semelhante ao modo como os humanos processam conversas. O resultado, segundo os pesquisadores, é um desempenho 25 a 100 vezes mais rápido, com consumo muito menor de energia e custos de treinamento reduzidos.
Outro ponto de destaque é a independência tecnológica: o SpikingBrain1.0 roda sobre a plataforma chinesa MetaX, evitando a dependência de GPUs Nvidia em um momento em que as restrições de exportação dos Estados Unidos dificultam o acesso da China a semicondutores avançados.
De acordo com os cientistas responsáveis, o modelo também permite pré-treinamento contínuo utilizando menos de 2% dos dados normalmente exigidos por sistemas convencionais, mantendo níveis de precisão comparáveis a modelos abertos como o Llama. Em alguns casos, os testes indicaram desempenho mais de 100 vezes superior às soluções atuais.
Para os especialistas, a iniciativa sinaliza uma nova geração de arquiteturas de IA inspiradas no cérebro humano, mais sustentáveis, escaláveis e resilientes a barreiras comerciais. Em um cenário de disputas geopolíticas e forte concentração tecnológica, o SpikingBrain1.0 pode reposicionar a China na corrida global pela próxima onda de inteligência artificial.