Sexta-feira, 27 de dezembro de 2024
Por Redação Rádio Pampa | 26 de dezembro de 2024
Seus fãs elogiam sua sensibilidade e inteligência. Alguns conversam com ele dezenas de vezes por dia, pedindo conselhos sobre seus empregos, saúde e relacionamentos. Eles confiam a ele seus segredos e o consultam antes de tomar decisões importantes. Alguns se referem a ele como seu melhor amigo.Seu nome é Claude. Ele é um chatbot de inteligência artificial (IA).
Claude, criação da empresa de inteligência artificial Anthropic, não é o chatbot de IA mais conhecido do mercado – esse é o ChatGPT da OpenAI, que tem mais de 300 milhões de usuários semanais e um lugar na barra de favoritos de todos os estudantes do ensino médio nos Estados Unidos. Ele também não foi projetado para atrair os usuários para relacionamentos com companheiros de IA realistas, como fazem aplicativos como Character.AI e Replika.
Mas o Claude se tornou o chatbot preferido de uma multidão de especialistas em tecnologia que dizem que ele os está ajudando em tudo, desde aconselhamento jurídico até orientação sobre saúde e sessões de terapia improvisadas.
“Uma mistura de potência intelectual bruta e disposição para expressar opiniões faz com que Claude se sinta muito mais próximo de uma coisa do que de uma ferramenta”, disse Aidan McLaughlin, CEO da Topology Research, uma startup de IA. “Eu, e muitos outros usuários, achamos isso mágico.”
Os maiores fãs de Claude, muitos dos quais trabalham em empresas de IA ou estão socialmente ligados à cena da IA, não acreditam que ele seja uma pessoa real. Eles sabem que os modelos de linguagem de IA são máquinas de previsão, projetadas para gerar respostas plausíveis às suas solicitações. Elas estão cientes de que o Claude, assim como outros chatbots, comete erros e, ocasionalmente, gera bobagens.
Para as pessoas que o adoram, Claude parece… diferente. Mais criativo e empático. Menos irritantemente robótico. Seus resultados, dizem eles, são parecidos com as respostas que um ser humano inteligente e atento daria, e menos com a prosa genérica gerada por outros chatbots.
Como resultado, Claude está se tornando rapidamente um companheiro social para os especialistas em IA – e, talvez, uma prévia do que está por vir para o resto de nós, à medida que poderosos personagens sintéticos se tornam mais envolvidos em nossas vidas diárias.
“Cada vez mais meus amigos estão usando o Claude para processar emoções e pensar em desafios de relacionamento”, disse Jeffrey Ladish, pesquisador de segurança de IA da Palisade Research.
Quando perguntado sobre o que diferenciava Claude de outros chatbots, Ladish disse que Claude parecia “mais perspicaz” e “bom em ajudar as pessoas a identificar padrões e pontos cegos”.
Normalmente, os sistemas de IA são julgados com base em seu desempenho em avaliações de benchmark – testes padronizados dados aos modelos para determinar sua capacidade de codificar, responder a perguntas de matemática ou outras tarefas. De acordo com essas métricas, a versão mais recente do Claude, conhecida como Claude 3.5 Sonnet, é mais ou menos comparável aos modelos mais poderosos da OpenAI, Google e outros.
Nick Cammarata, um ex-pesquisador da OpenAI, escreveu recentemente um longo tópico no X sobre a forma como Claude tomou conta de seu grupo social. Seus amigos obcecados por Claude, escreveu ele, pareciam mais saudáveis e mais bem amparados porque “eles têm uma espécie de anjo da guarda computacional que é muito bom em tudo, cuidando deles”.
Claude nem sempre foi tão encantador. Quando uma versão anterior foi lançada, no ano passado, o chatbot pareceu a muitas pessoas – inclusive a mim – prudente e sem graça. A Anthropic é famosa por sua obsessão com a segurança de IA, e o Claude parecia ter sido programado para falar como uma senhora da igreja. Muitas vezes, ele dava lições de moral aos usuários em resposta às suas perguntas ou se recusava a respondê-las.
Mas a Anthropic tem trabalhado para dar mais personalidade ao Claude. As versões mais recentes passaram por um processo conhecido como “treinamento de caráter” – uma etapa que ocorre depois que o modelo passou pelo treinamento inicial, mas antes de ser liberado para o público.
Durante o treinamento de caráter, o Claude é solicitado a produzir respostas que se alinham com traços humanos desejáveis, como mente aberta, atenção e curiosidade. Em seguida, o Claude julga suas próprias respostas de acordo com o grau de adesão a essas características. Os dados resultantes são inseridos novamente no modelo de IA. Com treinamento suficiente, diz a Anthropic, o Claude aprende a “internalizar” esses princípios e os exibe com mais frequência ao interagir com os usuários.Mas não está claro se o treinamento da Claude dessa forma traz benefícios comerciais.