terça-feira, 2 de fevereiro de 2021

Noam Chomsky e o futuro da Aprendizagem Profunda - Deep Learning, Redes Neurais Artificiais.

 

Image by Nathan Saad

Noam Chomsky e o futuro da Aprendizagem Profunda - Deep Learning

Andrew Kuo

Nas últimas semanas, estive envolvido numa troca de e-mail com meu anarco-sindicalista favorito: Noam Chomsky. Queria, inicialmente, perguntar se os desenvolvimentos recentes em RNAs (redes neurais artificiais) o levaram a reconsiderar sua famosa teoria linguística da Gramática Universal. Nossa conversa tocou nas possíveis limitações do Deep Learning, o quanto as RNAs realmente modelam cérebros biológicos e, também, adentraram num território mais filosófico. Não vou citar o professor Chomsky diretamente neste artigo, pois nossa discussão foi informal, mas tentarei resumir as principais conclusões.

Quem é Noam Chomsky?

Noam Chomsky é, antes de mais nada, um professor de linguística (considerado por muitos como “o pai da linguística moderna”), mas provavelmente é mais conhecido fora dos círculos acadêmicos como ativista, filósofo e historiador. Autor de mais de 100 livros e eleito a principal personalidade intelectual pública do mundo segundo pesquisa de 2005 conduzida pelas revistas Foreign Policy and Prospect.

Registre-se que sou um admirador do trabalho de Chomsky, particularmente de suas críticas ao imperialismo americano, ao neoliberalismo e à mídia. Nossos pontos de vista divergem ligeiramente em relação à sua rejeição aos filósofos continentais (especialmente os pós-estruturalistas franceses). Talvez eu tenha sido envenenado por beber demasiado nas fontes de Foucault, Lacan e Derrida no início da idade adulta, mas sempre achei moralmente atraente a abordagem analítica de Chomsky da filosofia, mas um pouco "clean" demais para explicar satisfatoriamente nosso mundo. Embora seu desdém por esses luminares pós-estruturalistas seja conspícuo, as visões filosóficas de Chomsky possuem mais nuances do que seus detratores lhe creditam.

Gramática Universal

Declararei desde o início que não sou um linguista, mas nesta seção tentarei dar uma visão geral da teoria da Gramática Universal. Antes de Chomsky, a hipótese predominante em linguística era que os humanos nascem com mentes que são “tabula rasa” (como uma lousa em branco) e adquirem a linguagem por meio de reforço. Ou seja, os filhos ouvem os pais falarem, imitam os sons que ouvem e quando usam corretamente uma palavra ou estruturam uma frase são elogiados. O que Chomsky mostrou foi que o reforço é apenas parte da história e que deve haver estruturas inatas dentro do cérebro humano que são universais e facilitam a aquisição da linguagem. Seus argumentos baseiam-se em:

  1. As crianças adquirem a linguagem muito rápido e a partir de dados muito esparsos para serem explicados pela aprendizagem por reforço (também conhecido como o argumento da “Pobreza do Estímulo”).

  2. Os animais são incapazes de adquirir a linguagem mesmo quando apresentados aos mesmos dados que os humanos. Houve um experimento famoso na década de 1960, onde linguistas tentaram ensinar um chimpanzé (chamado “Nim Chimpsky”) a aprender a linguagem de sinais, mas depois de 10 anos ele ainda era incapaz de se comunicar além de algumas tarefas rudimentares.

  3. Existem semelhanças entre todas as línguas humanas. Isso mostra que, mesmo tendo as línguas se desenvolvido de forma independente, existem características universais que se manifestam devido às estruturas comuns em todos os cérebros humanos.

  4. As crianças não estão programadas para aprender um idioma específico. Se você pegar uma criança nascida no Quênia e criá-la na Alemanha, ela aprenderá a língua alemã com a mesma facilidade de uma criança alemã.

Essa teoria de um corpo docente de linguagem geneticamente codificada tornou-se amplamente aceita na comunidade científica, mas a próxima pergunta óbvia era “com o quê essa Gramática Universal realmente se parece?”. 

Pesquisadores intrépidos logo começaram a descobrir propriedades compartilhadas em todas as línguas humanas, mas ainda não há consenso sobre a forma que assumem nossas capacidades linguísticas inatas. É seguro assumir que a Gramática Universal não consiste em regras sintáticas concretas, mas é mais provável que seja uma função cognitiva fundamental. Chomsky postulou que em algum ponto de nossa história, os humanos desenvolveram a habilidade de realizar um processo simples e recursivo chamado “Merge” e isso é responsável pelas propriedades e restrições das estruturas sintáticas que vemos nas linguagens humanas. É um pouco abstrato (e muito complicado para abordar adequadamente aqui), mas essencialmente “Merge” é o processo de pegar dois objetos e combiná-los para formar um novo objeto. Embora aparentemente prosaica, a capacidade de combinar conceitos mentalmente e fazer isso recursivamente é enganosamente poderosa e nos permite construir uma “variedade infinita de expressões hierarquicamente estruturadas”. Esse pequeno, mas crucial salto genético pode explicar não apenas nossa aptidão para a comunicação verbal, mas também pode ser responsável (pelo menos em parte) por nossos talentos matemáticos e criatividade humana de maneira mais ampla. Esta mutação “Merge” que ocorreu em um de nossos ancestrais há cerca de 100 mil anos, pode ser uma das principais coisas que separam os humanos de outros animais.

Redes Neurais Artificiais

A principal razão pela qual entrei em contato com o professor Chomsky foi porque queria ouvir suas opiniões sobre Redes Neurais Artificiais (um tópico sobre o qual conheço significativamente mais do que linguística). As RNAs são um subconjunto de modelos de aprendizado de máquina que são vagamente baseados no cérebro humano e aprendem de forma semelhante (observando muitos exemplos). Esses modelos requerem muito pouca codificação e podem executar uma ampla gama de tarefas complexas (por exemplo, marcação de imagens, reconhecimento de voz, geração de texto) com arquiteturas relativamente simples. Um exemplo instrutivo dessa abordagem é o modelo AlphaGo Zero desenvolvido pelo Google, que aprendeu a jogar Go (um jogo de tabuleiro complexo e desafiador) e acabou se tornando imbatível para os campeões mundiais humanos. O mais impressionante é que ele foi treinado para fazer tudo isso sem codificação rígida ou intervenção humana, ou seja, a “tabula rasa”. Embora as RNAs certamente não sejam uma analogia perfeita para o cérebro humano, perguntei ao professor Chomsky se esses modelos sugerem que, na verdade, não precisamos de estruturas cognitivas embutidas em código para aprender com dados dispersos.

Chomsky corretamente apontou que as RNAs são úteis para tarefas altamente especializadas, mas essas tarefas devem ser fortemente restritas (embora seu escopo possa parecer vasto, dada a memória e a velocidade dos computadores modernos). Ele comparou as RNAs a um enorme guindaste trabalhando em um prédio alto; embora certamente impressionantes, ambas as ferramentas existem em sistemas com limites fixos. Essa linha de raciocínio é congruente com minha observação de que todos os avanços do aprendizado profundo que testemunhei ocorreram em domínios muito específicos e não parecemos estar nos aproximando de nada como inteligência geral artificial (seja lá o que isso signifique). Chomsky também apontou para a crescente evidência de que as RNAs não modelam com precisão a cognição humana, que é tão comparativamente rica que os sistemas computacionais envolvidos podem até mesmo se estender ao nível celular.

Se Chomsky estiver certo (e pelo que vale a pena eu acho que ele está), quais são as implicações para o avanço da pesquisa de aprendizado profundo? Em última análise, não há nada de mágico no cérebro humano. É simplesmente uma estrutura física composta de átomos e, portanto, é inteiramente racional acreditar que em algum momento no futuro podemos ser capazes de criar uma versão artificial que seja capaz de inteligência geral. Dito isso, as RNAs atuais oferecem apenas um simulacro desse tipo de cognição e, pela lógica de Chomsky, não alcançaremos essa próxima fronteira sem primeiro melhorar nosso entendimento de como as redes neurais orgânicas operam.

Relativismo moral

O uso ético da IA é uma preocupação importante para os cientistas de dados modernos, mas às vezes esse domínio pode parecer vago e subjetivo em um campo concreto. O trabalho de Chomsky não apenas fornece uma perspectiva técnica única sobre o futuro do aprendizado profundo, mas a Gramática Universal também tem profundas implicações morais, uma vez que a linguagem é como discutimos e interpretamos o mundo. Por exemplo, a visão de Chomsky é que as estruturas neurais inatas mencionadas anteriormente excluem o relativismo moral e que deve haver restrições morais universais. Existem muitos tons diferentes de relativismo moral, mas o princípio central é que não pode haver base objetiva para determinações éticas. Os relativistas morais afirmam que, embora possamos acreditar profundamente em declarações como "a escravidão é imoral", não temos maneira empírica de provar isso para alguém que discorda, uma vez que qualquer prova dependerá necessariamente de julgamentos de valor e nossos valores são, em última análise, exógenos e determinados pela cultura e experiência.

Chomsky afirma que a moralidade se manifesta no cérebro e é, portanto, por definição, um sistema biológico. Todos os sistemas biológicos têm variação (natural e devido a estímulos divergentes), mas também têm limites. Considere o sistema visual humano: experimentos mostraram que ele contém alguma plasticidade e é moldado pela experiência (especialmente na primeira infância). Ao variar os dados fornecidos ao sistema visual humano, pode-se alterar literalmente a distribuição dos receptores e, assim, mudar a maneira como um indivíduo percebe as linhas horizontais e verticais. O que não pode ser feito, entretanto, é transformar um olho humano em um olho de inseto, ou dar a alguém a capacidade de ver raios-X. De acordo com Chomsky, os sistemas biológicos (incluindo a moral) podem variar amplamente, mas não infinitamente. Ele prossegue dizendo que mesmo que você acredite que nossa moralidade é inteiramente derivada da cultura, ainda é preciso obter essa cultura da mesma maneira que adquire qualquer sistema (como resultado de estruturas cognitivas inatas que são universais).

Minha reserva inicial com esta leitura é que, se assumirmos que a moralidade é simplesmente uma consequência de "Merge" (ou algo igualmente primitivo), então, embora isso possa impor restrições teóricas, minha intuição é que nossa moral pode variar tanto que é praticamente impossível fazer declarações universais. No passado, Chomsky discutiu como o progresso moral parece seguir certas tendências (por exemplo, aceitação da diferença, rejeição da opressão etc.), mas luto para ver como essas tendências gerais emergiriam consistentemente de tais estruturas cognitivas atômicas simples. Quando coloquei isso para o Professor Chomsky, ele argumentou que essa visão era ilusória e que, quando não entendemos as coisas, elas parecem mais diversas e complexas do que realmente são. E deu o exemplo da variação observada nos planos dos corpos dos animais desde a explosão do Cambriano. Há apenas 60 anos, a visão dominante em biologia era que os organismos variam tão drasticamente que cada um deve ser estudado individualmente, mas agora sabemos que isso está completamente errado e que a variação genética entre as espécies é bastante pequena. A variação em sistemas adquiridos complexos deve ser mínima, caso contrário não seríamos capazes de adquiri-los.

Fonte: https: //towardsdatascience.com/noam-chomsky-on-the-future-of-deep-learning-2beb37815a3e

Gostou? Acha que poderia ser útil para mais alguém? Enriqueça suas redes sociais compartilhando num dos ícones abaixo (facebook, twitter).

And then? Did you like it?