Domingo, 22 de dezembro de 2024
Por Redação Rádio Pampa | 29 de maio de 2024
Cientistas do Instituto de Neurociências Wu Tsai, da Universidade de Stanford, nos Estados Unidos, conseguiram reproduzir, com a ajuda de técnicas de inteligência artificial (IA), a forma como o cérebro organiza informações visuais e dá sentido ao mundo. O estudo em que detalham a descoberta foi publicado na revista científica Neuron.
Os pesquisadores explicam que as regiões visuais do cérebro atuam de formas diferentes para processar aquilo que o olho vê. Quando se observa o ponteiro de um relógio analógico em movimento, por exemplo, neurônios específicos seletivos para ângulos são ativados e formam mapas em formato de cata-vento.
Já outras áreas visuais do cérebro formam tipos diferentes de estruturas espaciais com os neurônios para interpretar características visuais mais complexas e abstratas, como a distinção entre imagens de rostos familiares e lugares.
Os cientistas chamam isso de mapas funcionais e afirmam que eles podem ser encontrados por todo o cérebro. Esse fenômeno intriga os pesquisadores, que buscavam maneiras de reproduzir os layouts de forma computacional para melhor compreendê-los.
Por isso, durante um extenso trabalho que levou sete anos, o time de Stanford desenvolveu um algoritmo de IA chamado rede neural artificial profunda topográfica (TDANN, da sigla em inglês), que, segundo escrevem no estudo, é “o primeiro modelo a prever vários aspectos da organização funcional (…) no sistema visual de primatas”.
Em resumo, a rede artificial simula como o cérebro humano dá sentido para o mundo ao redor. À medida que o modelo aprendeu a processar estímulos visuais, ele começou a formar os mapas espaciais, reproduzindo a forma como os neurônios do cérebro se organizam.
De forma mais específica, ele reproduziu padrões complexos, como as estruturas mencionadas do cata-vento no córtex visual primário e dos grupos no córtex temporal ventral superior que reagem a rostos e lugares.
Eshed Margalit, o principal autor do estudo e pesquisador de Stanford, explica que foram utilizados modelos de aprendizado de máquina para treinar a rede que simula o cérebro. O resultado, segundo ele, é “parecido com a forma como os bebês aprendem sobre o mundo visual”, diz em comunicado.
Para os especialistas, essa tecnologia possibilitará uma compreensão melhor sobre como o cérebro se organiza – não apenas para a visão, que foi abordada no novo estudo, mas futuramente para outros sistemas, como o auditivo.
“Quando o cérebro está tentando aprender algo sobre o mundo, ele (…) forma mapas. Acreditamos que esse princípio também pode ser aplicado em outros sistemas”, diz Kalanit Grill-Spector, professor da Escola de Humanidades e Ciências de Stanford que participou do estudo.
Para os neurocientistas, o TDANN pode ser um caminho para avanços tanto na neurociência, como na própria área de IA. É uma “nova lente”, citam, para entender como o córtex visual funciona, o que pode levar a descobertas importantes para o estudo de distúrbios neurológicos – e de como tratá-los.
Já no campo da inteligência artificial, o desenvolvimento das redes pode ensinar os computadores a “ver” como os seres humanos. O que seria positivo já que o cérebro opera com uma capacidade acima da observada hoje entre os computadores.
Os pesquisadores citam como exemplo que o órgão humano consegue computar um bilhão de operações matemáticas com apenas 20 watts de energia, enquanto um supercomputador requer um milhão de vezes mais energia para fazer a mesma tarefa.
Segundo os cientistas, esses mapas podem ser justamente a “fiação” que conecta os 100 bilhões de neurônios do cérebro de forma mais simples, o que aumenta a efetividade do processamento do órgão. Isso pode levar à criação de sistemas artificiais mais eficientes inspirados no mecanismo cerebral.