Em alguns cantos do Vale do Silício, alguns cientistas brincaram com as possibilidades do jeito novo de organizar as redes neurais, modelos de organizar a informação que imitam a arquitetura do cérebro humano. Quando se usa uma quantidade muito grande de dados para treinar esse tipo particular de modelo, ele é capaz de reproduzir a sintaxe gramatical e, de alguma forma, a lógica das reações humanas. É capaz de conversar.
·
Hoje, chamamos modelos como o GPT 3,5 de primeira geração. Eles custam, em média, US$ 10 milhões para
treinar. São muito convincentes na capacidade de conversar, e há muitos desse
tipo por aí.
·
O GPT 4 marcou
o surgimento da segunda geração – custa por volta de US$ 100 milhões para
treinar. Outros dois modelos alcançaram o mesmo nível de capacidade. São o Gemini
1.5, do Google, e o Claude
3,5, da Anthropic, financiada pela Amazon.
· O Llama 3.1, da Meta, está tecnicamente na mesma geração, embora ainda com resultados não tão bons. É a mesma situação do Grok 2, da xAI, de Elon Musk
Recentemente, o GPT ganhou a
capacidade de raciocinar com lógica, tornando-se mais eficiente que os
concorrentes para encarar problemas matemáticos.
Nenhum comentário:
Postar um comentário