Segunda-feira, 25 de novembro de 2024
Por Redação Rádio Pampa | 25 de maio de 2024
O Google anunciou nesta sexta-feira que está tomando “ações rápidas” para melhorar os seus novos resultados de pesquisa feitos com inteligência artificial (IA) generativa, depois de utilizadores terem zombado nas redes sociais de erros, como o ex-presidente americano Barack Obama ter sido descrito como “primeiro presidente muçulmano dos Estados Unidos”.
Os usuários do Google recorreram às redes sociais para criticar as respostas errôneas geradas pelas “Visões Gerais de IA” a questões como se as pessoas deveriam comer pedras ou olhar para o Sol, ou quantos líderes muçulmanos americanos já existiram.
“Muitos dos exemplos que vimos eram consultas incomuns e também vimos exemplos que foram manipulados ou que não conseguimos reproduzir”, disse um porta-voz do Google em resposta à AFP. “Estamos tomando medidas rápidas sempre que apropriado no âmbito das nossas políticas de conteúdo e utilizando estes exemplos para desenvolver melhorias mais amplas nos nossos sistemas, algumas das quais já começaram a ser implementadas”, concluiu.
O exemplo de Obama violou políticas do Google e acabou removido, segundo o porta-voz. Uma das respostas dos “Resumos de IA”, que afirmava que adicionar cola não tóxica ao molho de pizza era uma forma de evitar que o queijo escorregasse, foi atribuída a uma postagem infantil no Reddit, o que levou alguns usuários nas redes sociais a se perguntarem se a IA foi tão ingênua a ponto de acreditar em tudo que lê na internet.
Segundo a gigante de Silicon Valley, a grande maioria das respostas produzidas pela sua IA fornecem informação confiável e as barreiras de segurança integradas na tecnologia são concebidas para impedir o aparecimento de conteúdos nocivos.
A recente introdução desses resumos pelo Google em seu mecanismo de busca nos Estados Unidos foi uma de suas maiores mudanças desde sua criação. Em breve, o modelo se espalhará para outros países. Após o seu lançamento, os resultados de pesquisa tradicionais do Google passaram a exibir um resumo criado pela IA no topo da página antes do modelo de exibição típica de links.
Meta
Nos últimos anos, a Meta vem tentando afastar, cada vez mais, as notícias de suas plataformas, seja por alegar que os usuários não têm interesse em acessar informação nas redes sociais ou para escapar de acordos para pagar pelo conteúdo de jornais.
Mas, agora, a nova ferramenta de inteligência artificial (IA) da empresa tem usado o conteúdo produzido por meios de comunicação para dar respostas aos usuários — e sem dar os devidos créditos, aponta uma reportagem do Washington Post.
Em um teste feito pelo jornal americano, quando perguntado sobre quais as últimas e principais notícias, o chatbot da Meta praticamente parafraseava reportagens de matérias originais e, em muitos casos, até reproduzia frases iguais.
De acordo com o Post, as respostas não incluíam quaisquer links para os conteúdos originais ou a citação das fontes. Para acessá-las, os internautas teriam que clicar em outro botão ou em um link na parte inferior da página.
O principal receio de produtores de conteúdo é que o uso indevido e sem pagamento de notícias por ferramentas de IA de grandes plataformas e redes sociais afete a audiência dos sites de informação. Preocupação similar tem surgido em relação à versão com IA do buscador do Google, já lançado nos EUA.
Alimentado pelo modelo de linguagem Llama 3, chamado também de LLM, o chatbot da Meta não é programado por engenheiros. Ao contrário disso: aprende a imitar discursos humanos, conforme é mais é usado.
Em abril, em alguns países, o bot foi adicionado à barra de pesquisa do Facebook, Messenger, Instagram e WhatsApp, sem poder ser desativado. Para ser impactado, o usuário nem precisa procurar qualquer notícia. Se depara com elas no próprio feed. Esse recurso ainda não foi incorporado nos aplicativos da Meta no Brasil.