Acabei de assistir à última palestra do fundador da DeepMind, Demis Hassabis, no Y Combinator, e algumas ideias realmente valem a pena discutir. Este irmão foi direto ao ponto ao dizer que, na verdade, estamos a apenas duas peças-chave de distância de uma verdadeira AGI — aprendizado contínuo, raciocínio de longo prazo e sistemas de memória. Segundo ele, esses desafios devem ser superados por volta de 2030.



O mais interessante é sua crítica aos modelos de grande escala atuais. Ele diz que esses sistemas exibem uma espécie de "inteligência desigual" — capazes de resolver problemas de nível de medalha de ouro em olimpíadas internacionais de matemática, mas que tropeçam em questões de matemática do ensino fundamental. Isso não é uma questão de capacidade, mas de que o caminho de raciocínio ainda é muito grosseiro, faltando reflexão sobre seu próprio processo de pensamento. Ele até deu o exemplo de jogar xadrez: às vezes o modelo percebe que um movimento é ruim, mas não consegue encontrar uma alternativa melhor, acabando por repetir o mesmo erro. Essa fenômeno mostra que há um enorme espaço para inovação nos sistemas de raciocínio.

Sobre agentes, tenho um interesse especial. Ele acredita que agentes são o verdadeiro caminho para a AGI, mas ainda estamos na fase inicial. Um detalhe que dói — ninguém realmente usou ferramentas de programação de IA para criar um jogo AAA que tenha chegado ao topo das lojas de aplicativos. Teoricamente, com o nível atual de ferramentas, isso deveria ser possível, mas ninguém conseguiu fazer acontecer. Isso indica que a cadeia de ferramentas ou o fluxo de trabalho ainda está faltando alguma coisa. Ele prevê que essa barreira será superada em 6 a 12 meses.

O progresso na técnica de destilação de modelos também é bastante impressionante. O modelo Flash deles consegue atingir 95% do desempenho do modelo de ponta com um décimo do custo. E esse ciclo de compressão está ficando cada vez mais rápido — dentro de 6 a 12 meses após o lançamento de um novo modelo, sua capacidade pode ser comprimida em modelos menores que rodam em dispositivos de borda. Ele admite que, atualmente, ainda não há um limite teórico para a densidade de informação, então o espaço para melhorias ainda é enorme.

Na área de descobertas científicas, ele propôs um conceito interessante — o "Teste Einstein". Ou seja, treinar o sistema com conhecimentos anteriores a 1901 e ver se ele consegue deduzir a teoria da relatividade de Einstein de 1905 de forma independente. Se uma IA conseguir fazer isso, significa que ela realmente está próxima de uma capacidade de inovação autônoma. O AlphaFold já demonstrou o potencial da IA na área de dobramento de proteínas, sendo usado por 3 milhões de pesquisadores ao redor do mundo. Mas ele acredita que isso é só o começo; materiais, descoberta de medicamentos, modelagem climática — todos estão na "fase AlphaFold 1" — promissores, mas ainda sem uma verdadeira ruptura.

A dica mais prática para empreendedores é: se você está iniciando um projeto de deep tech de dez anos, deve incluir a chegada da AGI no seu planejamento. Isso não é alarmismo, mas uma consideração sobre se seu produto ainda será útil na era da AGI. Sua ideia é que sistemas gerais (como o Gemini) usarão sistemas especializados (como o AlphaFold) como ferramentas, ao invés de tentar colocar tudo dentro de um grande modelo. Isso impacta bastante a direção de suas construções atuais.

A lógica central de toda a palestra é: a dificuldade de resolver problemas difíceis e a de resolver problemas simples na verdade são bastante semelhantes, só que em lugares diferentes. Como a vida é limitada, por que não focar naquelas coisas que "só você faz e que os outros também não fariam"? Parece simples, mas fazer isso de verdade exige uma força de vontade extrema.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar