Nobel de Física conquistado por pioneiros do aprendizado de máquina

Nobel de Física conquistado por pioneiros do aprendizado de máquina

Os vencedores foram anunciados pela Real Academia Sueca de Ciências, em Estocolmo.Crédito: Jonathan Nackstrand/AFP via Getty

Dois investigadores que desenvolveram técnicas de aprendizagem automática que sustentam o atual boom da inteligência artificial (IA) ganharam o Prémio Nobel da Física de 2024.

John Hopfield, da Universidade de Princeton, em Nova Jersey, e Geoffrey Hinton, da Universidade de Toronto, no Canadá, partilham o prémio de 11 milhões de coroas suecas (1 milhão de dólares), anunciado pela Real Academia Sueca de Ciências, em Estocolmo, no dia 8 de outubro.

Ambos usaram ferramentas da física para criar métodos que alimentam redes neurais artificiais, que exploram estruturas em camadas inspiradas no cérebro para aprender conceitos abstratos. As suas descobertas “formam os blocos de construção da aprendizagem automática, que pode ajudar os humanos a tomar decisões mais rápidas e mais fiáveis”, disse a presidente do comité do Nobel, Ellen Moons, física da Universidade de Karlstad, na Suécia, durante o anúncio. “Redes neurais artificiais têm sido usadas para avançar pesquisas em tópicos de física tão diversos quanto física de partículas, ciência de materiais e astrofísica.”

Memória da máquina

Em 1982, Hopfield, um biólogo teórico com formação em física, criou uma rede que descrevia conexões entre neurônios virtuais como forças físicas.1. Ao armazenar padrões como um estado de baixa energia da rede, o sistema poderia recriar o padrão quando solicitado por algo semelhante. Tornou-se conhecida como memória associativa, porque a forma como ela “lembra” coisas é semelhante à forma como o cérebro tenta lembrar uma palavra ou conceito com base em informações relacionadas.

Hinton, um cientista da computação, usou princípios da física estatística, que descreve coletivamente sistemas que possuem muitas peças para serem rastreadas individualmente, para desenvolver ainda mais a 'rede Hopfield'. Ao construir probabilidades em uma versão em camadas da rede, ele criou uma ferramenta que poderia reconhecer e classificar imagens ou gerar novos exemplos do tipo em que foi treinada.2.

Esses processos diferiam dos tipos anteriores de computação, pois as redes eram capazes de aprender com exemplos, inclusive com dados complexos. Isso teria sido um desafio para software convencional que depende de cálculos passo a passo.

As redes são “modelos grosseiramente idealizados que são tão diferentes das redes neurais biológicas reais quanto as maçãs são dos planetas”, escreveu Hinton em Natureza Neurociência em 2000. Mas revelaram-se úteis e foram amplamente aproveitados. Redes neurais que imitam o aprendizado humano formam a base de muitas ferramentas de IA de última geração, desde grandes modelos de linguagem (LLMs) até algoritmos de aprendizado de máquina capazes de analisar grandes quantidades de dados, incluindo o modelo de previsão de estrutura de proteína AlphaFold .

Falando por telefone durante o anúncio, Hinton disse que saber que havia ganhado o Nobel foi “um raio do nada”. “Estou pasmo, não tinha ideia de que isso iria acontecer”, disse ele. Ele acrescentou que os avanços no aprendizado de máquina “terão uma influência enorme, será comparável à revolução industrial. Mas em vez de superar as pessoas em força física, vai superar as pessoas em capacidade intelectual”.

Nos últimos anos, Hinton tornou-se uma das vozes mais altas a pedir salvaguardas em torno da IA. Ele diz que se convenceu no ano passado de que a computação digital se tornou melhor que o cérebro humano, graças à sua capacidade de compartilhar o aprendizado a partir de múltiplas cópias de um algoritmo, executado em paralelo. “Até aquele momento, passei 50 anos pensando que se pudéssemos torná-lo mais parecido com o cérebro, seria melhor”, disse ele em 31 de maio, falando virtualmente na Cúpula Global AI for Good em Genebra, Suíça. . “Isso me fez pensar [these systems are] vai se tornar mais inteligente do que nós mais cedo do que eu pensava.”

Motivado pela física

Hinton da mesma forma ganhou o Prêmio Alan Turing em 2018 – às vezes descrito como o ‘Nobel da ciência da computação’. Hopfield da mesma forma ganhou vários outros prestigiosos prêmios de física, incluindo a Medalha Dirac.

“[Hopfield’s] a motivação era realmente a física, e ele inventou este modelo de física para compreender certas fases da matéria”, diz Karl Jansen, físico do laboratório alemão de elétrons síncrotron (DESY) em Zeuthen, que descreve o trabalho como “inovador”. Após décadas de evolução, as redes neurais tornaram-se uma ferramenta respeitável na análise de dados de experimentos de física e na compreensão dos tipos de transições de fase que Hopfield se propôs a estudar, acrescenta Jansen.

Lenka Zdeborová, especialista em física estatística da computação no Instituto Federal Suíço de Tecnologia em Lausanne (EPFL), diz que ficou agradavelmente surpresa com o fato de o Comitê do Nobel ter reconhecido a destaque das ideias da física para a compreensão de sistemas complexos. “Esta é uma ideia muito genérica, sejam moléculas ou pessoas na sociedade.”

Nos últimos cinco anos, o Prêmio Abel e as Medalhas Fields da mesma forma celebraram a fertilização cruzada entre matemática, física e ciência da computação, particularmente contribuições para a física estatística.

A biologia da mesma forma se beneficiou desses modelos artificiais do cérebro. May-Britt Moser, neurocientista da Universidade Norueguesa de Ciência e Tecnologia em Trondheim e vencedora do Prémio Nobel de Fisiologia ou Medicina de 2014, diz que ficou “muito feliz” quando viu os vencedores serem anunciados. Versões dos modelos de rede de Hopfield têm sido úteis para os neurocientistas, diz ela, ao investigar como os neurônios trabalham juntos na memória e na navegação. Seu modelo, que descreve as memórias como pontos baixos de uma superfície, ajuda os pesquisadores a visualizar como certos pensamentos ou ansiedades podem ser fixados e recuperados no cérebro, acrescenta ela. “Adoro usar isso como uma metáfora para falar com as pessoas quando elas estão presas.”

Hoje, a neurociência depende de teorias de redes e ferramentas de aprendizado de máquina, que surgiram do trabalho de Hopfield e Hinton, para compreender e processar dados de milhares de células simultaneamente, diz Moser. “É como um combustível para entendermos coisas que nem sonhávamos quando começamos nessa área”.

“A utilização de ferramentas de aprendizagem automática está a ter um impacto imensurável na análise de dados e na nossa compreensão potencial de como os circuitos cerebrais podem computar”, diz Eve Marder, neurocientista da Universidade Brandeis em Waltham, Massachusetts. “Mas estes impactos são ofuscados pelos muitos impactos que a aprendizagem automática e a inteligência artificial estão a ter em todos os aspectos da nossa vida quotidiana.”

Fonte Desta Notícia

Compartilhar:
Go up