Categorias
Blog

Pesquisadores de IA do Google estão sonhando com um novo mecanismo de pesquisa

Imagine uma coleção de livros – talvez milhões ou até bilhões deles – jogada ao acaso pelos editores em uma pilha em um campo. A cada dia a pilha cresce exponencialmente.

Esses livros estão repletos de conhecimentos e respostas. Mas como um buscador os encontraria? Sem organização, os livros são inúteis.

Esta é a Internet bruta em toda a sua glória não filtrada. É por isso que a maioria de nossas buscas por “iluminação” online começa com o Google (e sim, ainda existem outros mecanismos de busca). Os tentáculos algorítmicos do Google examinam e indexam todos os livros dessa pilha ímpia. Quando alguém insere uma consulta na barra de pesquisa, o algoritmo de pesquisa examina sua versão indexada da Internet, exibe as páginas e as apresenta em uma lista classificada dos principais acessos.

Essa abordagem é extremamente útil. Tão útil, na verdade, que não mudou fundamentalmente em mais de duas décadas. Mas agora, os pesquisadores de IA do Google, a mesma empresa que definiu o padrão para os motores de busca, estão esboçando um plano para o que pode vir a seguir.

Em um artigo sobre o servidor de pré-impressão arXiv, a equipe sugere que a tecnologia para tornar a Internet ainda mais pesquisável está ao nosso alcance. Eles dizem que grandes modelos de linguagem – algoritmos de aprendizado de máquina como o GPT-3 da OpenAI – poderiam substituir totalmente o sistema atual de indexar, recuperar e então classificar.

A IA é o mecanismo de busca do futuro?
Ao buscar informações, a maioria das pessoas adoraria perguntar a um especialista e obter uma resposta diferenciada e confiável, escrevem os autores. Em vez disso, eles pesquisam no Google. Isso pode funcionar ou dar terrivelmente errado.

Embora os mecanismos de pesquisa pareçam conter pelo menos partes de uma resposta, o fardo recai sobre o pesquisador para verificar, filtrar e ler os resultados para reunir essa resposta da melhor maneira possível.

Os resultados da pesquisa têm melhorado muito ao longo dos anos. Ainda assim, a abordagem está longe de ser perfeita.

Existem ferramentas de perguntas e respostas, como Alexa, Siri e Google Assistant. Mas essas ferramentas são frágeis, com um repertório limitado (embora crescente) de questões que podem responder. Embora tenham suas próprias deficiências, grandes modelos de linguagem como GPT-3 são muito mais flexíveis e podem construir novas respostas em linguagem natural para qualquer consulta ou prompt.

A equipe do Google sugere que a próxima geração de mecanismos de pesquisa pode sintetizar o melhor de todos os mundos, dobrando os principais sistemas de recuperação de informações da atualidade em IA em larga escala.

É importante notar que o aprendizado de máquina já está em funcionamento nos mecanismos de pesquisa clássicos de indexação, recuperação e classificação. Mas, em vez de meramente aumentar o sistema, os autores propõem que o aprendizado de máquina poderia substituí-lo totalmente.

“O que aconteceria se nos livrássemos completamente da noção de índice e o substituíssemos por um grande modelo pré-treinado que codifica de forma eficiente e eficaz todas as informações contidas no corpus?” Donald Metzler e co-autores escrevem no paper. “E se a distinção entre recuperação e classificação fosse embora e, em vez disso, houvesse uma única fase de geração de resposta?”

Um resultado ideal que eles imaginam é um pouco como o computador da nave estelar Enterprise em Star Trek. Os buscadores de informações fazem perguntas, o sistema responde de forma coloquial, ou seja, com uma resposta em linguagem natural, como você esperaria de um especialista, e inclui citações oficiais em sua resposta.

No artigo, os autores esboçam o que chamam de exemplo aspiracional de como essa abordagem pode ser na prática. Um usuário pergunta: “Quais são os benefícios do vinho tinto para a saúde?” O sistema retorna uma resposta matizada em prosa clara de várias fontes oficiais – neste caso WebMD e a Clínica Mayo – destacando os benefícios e riscos potenciais de beber vinho tinto.

Não precisa terminar aí, no entanto. Os autores observam que outro benefício dos grandes modelos de linguagem é sua capacidade de aprender muitas tarefas com apenas alguns pequenos ajustes (isso é conhecido como aprendizagem única ou poucas tentativas). Portanto, eles podem ser capazes de realizar todas as mesmas tarefas que os mecanismos de pesquisa atuais realizam, e dezenas de outras também.

Ainda é apenas uma visão
Hoje, essa visão está fora de alcance. Modelos de grande linguagem são o que os autores chamam de “diletantes”.

Algoritmos como GPT-3 podem produzir prosa que é, às vezes, quase indistinguível de passagens escritas por humanos, mas eles também estão sujeitos a respostas sem sentido. Pior, eles refletem imprudentemente preconceitos embutidos em seus dados de treinamento, não têm senso de compreensão contextual e não podem citar fontes (ou mesmo separar fontes de alta e baixa qualidade) para justificar suas respostas.

“Eles parecem saber muito, mas seu conhecimento é superficial”, escrevem os autores. O documento também apresenta os avanços necessários para preencher a lacuna. Na verdade, muitos dos desafios que eles descrevem se aplicam ao campo em geral.

Um avanço importante seria ir além dos algoritmos que apenas modelam as relações entre os termos (como palavras individuais) para algoritmos que também modelam a relação entre as palavras em um artigo, por exemplo, e o artigo como um todo. Além disso, eles também modelariam as relações entre muitos artigos diferentes na Internet.

Os pesquisadores também precisam definir o que constitui uma resposta de qualidade. Isso em si não é uma tarefa fácil. Mas, para começar, os autores sugerem que as respostas de alta qualidade devem ser confiáveis, transparentes, imparciais, acessíveis e conter perspectivas diversas.

Mesmo os algoritmos mais modernos de hoje não chegam perto dessa barreira. E não seria sensato implantar modelos de linguagem natural nesta escala até que sejam resolvidos. Mas se resolvido – e já há trabalho sendo feito para lidar com alguns desses desafios – os mecanismos de pesquisa não seriam os únicos aplicativos a se beneficiar.

‘Early Grey, Hot’
É uma visão atraente. Vasculhar páginas da web em busca de respostas enquanto tenta determinar o que é confiável e o que não é pode ser exaustivo.

Sem dúvida, muitos de nós não fazemos o trabalho tão bem quanto poderíamos ou deveríamos.

Mas também vale a pena especular como uma internet acessada dessa forma mudaria a forma como as pessoas contribuem para ela.

Se consumirmos informações principalmente lendo respostas em prosa e sintetizadas por algoritmos – em vez de abrir e ler as próprias páginas individuais – os criadores publicariam tanto trabalho? E como o Google e outros fabricantes de mecanismos de pesquisa compensariam os criadores que, em essência, estão produzindo as informações que treinam os próprios algoritmos?

Ainda haveria muitas pessoas lendo as notícias e, nesses casos, os algoritmos de pesquisa precisariam fornecer listas de histórias. Mas eu me pergunto se uma mudança sutil pode ocorrer onde os criadores menores adicionam menos e, ao fazer isso, a web se torna menos rica em informações, enfraquecendo os próprios algoritmos que dependem dessas informações.

Não há como saber. Frequentemente, a especulação está enraizada nos problemas de hoje e se mostra inocente em retrospecto. Nesse ínterim, o trabalho continuará sem dúvida.

Talvez possamos resolver esses desafios – e mais à medida que eles surgem – e no processo chegarmos àquele computador de Jornada nas estrelas onisciente e agradavelmente falante que há muito imaginamos.

Jason Dorrier para SingularityHub.

Categorias
Blog

Implante cerebral transforma pensamentos em texto com 90% de precisão

Enviar mensagens de texto pode não ser mais rápido do que falar, mas para muitos de nós é uma maneira natural de se comunicar.

Graças a uma nova interface cérebro-computador (BCI), pessoas com paralisia agora podem fazer o mesmo – com um toque especial. Ao imaginar os movimentos de escrever cartas, um homem com lesão na coluna foi capaz de traduzir pensamentos em texto, a uma velocidade que rivaliza com a digitação com o polegar em um smartphone. A 90 caracteres por minuto e uma precisão de mais de 90 por cento após a autocorreção, o sistema supera todos os registros realizados anteriormente com implantes neurais.

O crux é um algoritmo baseado em uma rede neural popular e muito poderosa – rede neural recorrente (RNN) – além de alguns truques da comunidade de aprendizado de máquina. O resultado é um implante neural que usa IA para converter sinais elétricos do cérebro, gerados quando alguém imagina escrita à mão em texto que é exibido em um computador em tempo real.

“Isso pode ajudar a restaurar a comunicação em pessoas que estão gravemente paralisadas ou‘ presas”, disse o autor do estudo, Dr. Frank Willett, do Laboratório de Próteses Neurais de Stanford. “Deve ajudar as pessoas a se expressarem e compartilharem seus pensamentos. É muito emocionante.”

“Mindtexting” pode ser apenas o começo. O estudo sugere que, contra a crença comum, a IA parece ser melhor na decodificação de sinais cerebrais que fundamentam nossos comportamentos mais complexos, em vez de simples – um convite para reimaginar o potencial de uma simbiose cérebro-computador.

“Embora ainda haja muito trabalho a ser feito, o estudo de Willett e colegas de trabalho é um marco que amplia o horizonte das aplicações iBCI [interface invasiva cérebro-computador]”, disseram os drs. Pavithra Rajeswaran e Amy Orsborn, da Universidade de Washington, que não participaram do estudo. “Como ele usa métodos de aprendizado de máquina que estão melhorando rapidamente, conectar os modelos mais recentes oferece um caminho promissor para melhorias futuras.”

Digitando sem as mãos
O estudo faz parte do lendário projeto BrainGate, que liderou o desenvolvimento de interfaces neurais na última década para restaurar a comunicação em pessoas paralisadas. Para ser claro, esses “implantes” são fiéis ao seu nome: eles são microarranjos de minúsculos eletrodos em um chip que é inserido cirurgicamente na camada superior do cérebro.

BrainGate tem muitos sucessos alucinantes. Um é um implante que permite às pessoas pilotar braços robóticos com o pensamento. Outro sucesso ajudou pessoas paralisadas a moverem o cursor do computador com suas mentes em um tablet Android, expandindo seu universo digital para toda a esfera de aplicativos Android e, claro, e-mail e Google.

Tudo isso é possível porque o processador central, o córtex motor, ainda está intacto mesmo após a paralisia, pelo menos para movimentos relativamente simples, como alcançar ou agarrar. É como cortar o cabo do roteador sem fio: você perde o acesso online, mas a rede em si ainda está lá. Os implantes neurais tocam diretamente na fonte – os sinais elétricos que sustentam cada movimento nosso – decodificam-nos em uma linguagem que os computadores entendem e os usam para controlar outra saída: uma mão robótica, exoesqueleto ou um cursor na tela.

O problema? Usar sua mente para controlar um cursor para acertar letras em um teclado digital é terrivelmente lento. O implante de maior sucesso até agora tem em média 40 caracteres por minuto e requer cirurgia e treinamento. Mesmo um teclado de rastreamento ocular disponível no mercado que é não invasivo pode permitir que pessoas com paralisia digitem um pouco mais rápido.

O novo estudo teve uma abordagem completamente diferente: jogue fora o teclado.

Uma centelha de gênio
O participante do estudo, apelidado de T5, é um participante de longa data do BrainGate.

Em 2007, T5 sofreu um incidente traumático que danificou sua medula espinhal e o impediu de mover-se abaixo do pescoço. Em 2016, o Dr. Jaimie Henderson, um neurocirurgião de Stanford, implantou dois chips microarray na “área da mão” do giro pré-central esquerdo de T5, uma parte do cérebro que normalmente nos ajuda a planejar e controlar o movimento. Cada chip continha 96 microeletrodos para acessar a atividade elétrica do cérebro. Esses sinais neurais eram então enviados a um computador por meio de fios para processamento posterior.

É aqui que entra a magia. Os neurônios são um grupo barulhento e decifrar sinais específicos – códigos neurais – que controlam movimentos únicos é incrivelmente difícil. Em parte, é por isso que atualmente é impossível para alguém imaginar uma carta e tê-la “lida mentalmente” por uma configuração BCI. Os sinais elétricos do cérebro que codificam para letras diferentes são muito sutis para qualquer algoritmo decodificar com precisão.

A solução alternativa do novo estudo é inovadora e totalmente brilhante. Como o processo de escrever letras do alfabeto é único para cada letra, raciocinou a equipe, ele pode acionar sinais neurais diferentes o suficiente para um algoritmo distinguir qual movimento imaginado – e seu sinal cerebral associado – corresponde a qual letra.

Para começar, o paciente T5 primeiro traçou uma letra individual repetidamente em sua mente (impressa, não cursiva). Embora sua mão estivesse completamente imóvel, disseram os autores, ele “relatou a sensação de que uma caneta imaginária em sua mão se movia fisicamente e traçava as formas das letras”. Em seguida, T5 passou horas imaginando escrever grupos de frases aleatórias.

Ao mesmo tempo, seus implantes capturavam sinais neurais relacionados à escrita de cada letra, que eram “notavelmente consistentes”. Os dados foram então usados ​​para treinar um tipo de rede neural artificial chamada rede neural recorrente (RNN), que é “especialmente boa para prever dados sequenciais”. Como os RNNs tendem a ser famintos por dados, a equipe usou um truque chamado aumento de dados que reorganizou os sinais neurais anteriores, essencialmente gerando dados artificiais para fortalecer o algoritmo. Eles também injetaram algum ruído nos dados, com a esperança de que o eventual BCI fosse mais robusto contra pequenas mudanças na atividade cerebral.

Dominância do Mind-Texting
Com o tempo, o RNN foi capaz de decodificar sinais neurais e traduzi-los em letras, que eram exibidas na tela do computador. É rápido: em meio segundo, o algoritmo pode adivinhar qual letra T5 estava tentando escrever, com 94,1% de precisão. Adicione alguma função de autocorreção comum que está em todos os smartphones e a precisão aumentou para mais de 99%.

Quando solicitado a copiar uma determinada frase, T5 foi capaz de “texto mental” em cerca de 90 caracteres por minuto (cerca de 45 palavras por estimativa), “a maior taxa de digitação que já foi relatada para qualquer tipo de BCI”, escreveu a equipe e uma melhoria dupla em relação às configurações anteriores. Sua digitação em estilo livre – respondendo a perguntas – em geral combinou em desempenho e atingiu a velocidade média de mensagens de texto com o polegar de sua faixa etária.

“O estudo de Willett e seus colegas de trabalho começa a cumprir a promessa das tecnologias BCI”, disseram Rajeswaran e Orsborn, não apenas para mensagens mentais, mas também para o que vem a seguir

A ideia de explorar algoritmos de aprendizado de máquina é inteligente, sim, porque o campo está melhorando rapidamente – e ilustrando outro elo sólido entre a neurociência e a IA. Mas talvez mais importante, o desempenho de um algoritmo depende de bons dados. Aqui, a equipe descobriu que a diferença de tempo entre escrever cartas, algo bastante complexo, é o que fazia o algoritmo funcionar tão bem. Em outras palavras, para futuros BCIs, “pode ​​ser vantajoso decodificar comportamentos complexos em vez de simples, especialmente para tarefas de classificação.”

O novo sistema ainda não está pronto para as clínicas. Ele terá que ser testado em outras pessoas e ter algumas funções comuns de digitação adicionadas, como excluir ou editar texto. A equipe também deseja adicionar a capacidade de texto mental de letras maiúsculas e símbolos.

Mas o novo BCI não precisa funcionar sozinho. Outros BCIs que traduzem atividades neurais da fala em texto já existem, e é concebível para uma pessoa potencialmente alternar entre os dois métodos – escrita mental e fala – para se comunicar com outras pessoas. “Ter esses dois ou três modos e alternar entre eles é algo que fazemos naturalmente [na vida diária]”, disse a Dra. Krishna Shenoy da Universidade de Stanford, que supervisionou o estudo com o Dr. Henderson.

Mas isso é tudo para o futuro. O próximo passo imediato, disseram os autores, é trabalhar com pacientes que não falam, como pessoas que perderam a capacidade devido a um derrame ou doenças neurodegenerativas, ou aqueles que estão conscientes, mas não conseguem se mover, e restaurar sua capacidade para interagir com o mundo exterior. “A abordagem dos autores trouxe interfaces neurais que permitem a comunicação rápida muito mais perto de uma realidade prática”, disseram Rajeswaran e Orsborn.

Categorias
Blog

Inteligência Artificial é mais difícil do que pensávamos: 4 falácias na pesquisa de IA

A inteligência artificial está nas manchetes há quase uma década, à medida que os sistemas progridem rapidamente em desafios de IA de longa data, como reconhecimento de imagem, processamento de linguagem natural e jogos. As empresas de tecnologia semearam algoritmos de aprendizado de máquina em mecanismos de pesquisa e recomendação e sistemas de reconhecimento facial, e o GPT-3 da OpenAI e o AlphaFold da DeepMind prometem aplicações ainda mais práticas, desde a escrita até a codificação e descobertas científicas.

Na verdade, estamos no meio de uma primavera de IA, com investimento no florescimento da tecnologia e um sentimento predominante de otimismo e possibilidade em relação ao que ela pode realizar e quando.

Desta vez, pode parecer diferente das fontes de IA anteriores devido às aplicações práticas acima mencionadas e à proliferação de IA estreita em tecnologias que muitos de nós usamos todos os dias – como nossos smartphones, TVs, carros e aspiradores de pó, para citar apenas alguns. Mas também é possível que estejamos navegando em uma onda de progresso de curto prazo em IA que logo se tornará parte do fluxo e refluxo no avanço, financiamento e sentimento que tem caracterizado o campo desde sua fundação em 1956.

A IA ficou aquém de muitas previsões feitas nas últimas décadas; 2020, por exemplo, foi anunciado por muitos como o ano em que os carros autônomos começariam a encher as estradas, transportando passageiros sem problemas enquanto eles se sentavam e apreciavam o passeio. Mas o problema tem sido mais difícil do que o previsto e, em vez de hordas de táxis robôs, os projetos mais avançados permanecem em teste. Enquanto isso, alguns no campo acreditam que a forma dominante de IA – um tipo de aprendizado de máquina baseado em redes neurais – pode em breve perder força na ausência de uma série de descobertas cruciais.

Em um artigo intitulado “Por que a IA é mais difícil do que pensamos“, publicado na semana passada no servidor de pré-impressão arXiv, Melanie Mitchell, professora de ciência da computação da Universidade Estadual de Portland atualmente no Instituto de Santa Fé, argumenta que a IA está em um declínio e ciclo de fluxo em grande parte porque ainda não entendemos verdadeiramente a natureza e a complexidade da inteligência humana. Mitchell divide esse ponto abrangente em quatro equívocos comuns em torno da IA ​​e discute o que eles significam para o futuro do campo.

1. O progresso na inteligência estreita é o progresso em direção à inteligência geral
Novas conquistas impressionantes da IA ​​são frequentemente acompanhadas pela suposição de que essas mesmas conquistas estão nos deixando mais perto de alcançar a inteligência de máquina de nível humano. Mas não apenas, como Mitchell aponta, a inteligência estreita e geral é tão diferente quanto subir em uma árvore ou pousar na lua, mas mesmo a inteligência estreita ainda depende em grande parte de uma abundância de dados específicos de tarefas e treinamento facilitado por humanos.

Veja o GPT-3, que alguns citaram como tendo superado a inteligência “estreita”: o algoritmo foi treinado para escrever texto, mas aprendeu a traduzir, escrever código, preencher automaticamente imagens e fazer matemática, entre outras tarefas. Mas embora os recursos do GPT-3 tenham se revelado mais extensos do que seus criadores pretendiam, todas as suas habilidades ainda estão dentro do domínio em que foi treinado: isto é, linguagem – falada, escrita e programação.

Tornar-se adepto de uma habilidade não relacionada à linguagem sem nenhum treinamento seria um sinal de inteligência geral, mas este não era o caso com GPT-3, nem foi o caso com qualquer outra IA recentemente desenvolvida: eles permanecem de natureza estreita e , embora significativo em si mesmo, não deve ser confundido com passos em direção à compreensão completa do mundo necessária para a inteligência geral.

2. O que é fácil para os humanos deve ser fácil para as máquinas
A IA é mais inteligente do que uma criança de quatro anos? Na maioria dos sentidos, a resposta é não, e isso porque as habilidades e tarefas que percebemos como “fáceis” são na verdade muito mais complexas do que acreditamos, como observa o Paradoxo de Moravec.

Crianças de quatro anos são muito boas em descobrir relações de causa e efeito com base em suas interações com o mundo ao seu redor. Se, por exemplo, eles tocarem uma panela no fogão e queimarem um dedo, entenderão que a queimadura foi causada pelo fato de a panela estar quente, não por ser redonda ou prateada. Para os humanos, isso é senso comum básico, mas os algoritmos têm dificuldade em fazer inferências causais, especialmente sem um grande conjunto de dados ou em um contexto diferente daquele em que foram treinados.

As percepções e escolhas que ocorrem em um nível subconsciente em humanos assentam no valor de uma vida inteira de experiência e aprendizado, mesmo em um nível elementar como “tocar em coisas quentes vai queimar você.” Porque chegamos a um ponto em que esse tipo de conhecimento é reflexivo, nem mesmo requer pensamento consciente, vemos isso como “fácil”, mas é exatamente o oposto. “IA é mais difícil do que pensamos”, escreve Mitchell, “porque não temos consciência da complexidade de nossos próprios processos de pensamento”.

3. A linguagem humana pode descrever a inteligência da máquina
Os humanos têm uma tendência a antropomorfizar coisas não humanas, de animais a objetos inanimados a robôs e computadores. Ao fazer isso, usamos as mesmas palavras que usaríamos para discutir as atividades ou inteligência humana – exceto que essas palavras não se encaixam muito bem no contexto e, na verdade, podem confundir nossa própria compreensão da IA. Mitchell usa o termo “mnemônica do desejo”, cunhado por um cientista da computação na década de 1970. Palavras como “ler”, “compreender” e “pensar” são usadas para descrever e avaliar a IA, mas essas palavras não nos dão uma descrição precisa de como a IA está funcionando ou progredindo.

Mesmo “aprender” é um termo impróprio, diz Mitchell, porque se uma máquina realmente “aprendesse” uma nova habilidade, seria capaz de aplicá-la em diferentes ambientes; encontrar correlações em conjuntos de dados e usar os padrões identificados para fazer previsões ou atender a outros benchmarks é algo, mas não é “aprender” da maneira que os humanos aprendem.

Então, por que tanto alarido por causa das palavras, se elas são tudo o que temos e estão transmitindo a essência? Bem, diz Mitchell, essa linguagem imprecisa pode não apenas enganar o público e a mídia, mas pode influenciar a maneira como os pesquisadores de IA pensam sobre seus sistemas e realizam seu trabalho.

4. A inteligência está em nossas cabeças
O ponto final de Mitchell é que a inteligência humana não está contida apenas no cérebro, mas requer um corpo físico.

Isso parece autoexplicativo; usamos nossos sentidos para absorver e processar informações e interagimos e nos movemos pelo mundo em nossos corpos. No entanto, a ênfase predominante na pesquisa de IA está no cérebro: compreendê-lo, replicar vários aspectos de sua forma ou função e tornar a IA mais parecida com ela.

Se a inteligência vivesse apenas no cérebro, seríamos capazes de chegar mais perto de alcançar IA de nível humano, digamos, construindo uma rede neural com o mesmo número de parâmetros que o cérebro tem conexões sinápticas, duplicando assim a “capacidade de computação do cérebro . ”

Desenhar esse tipo de paralelo pode ser aplicado nos casos em que “inteligência” se refere à operação por um conjunto de regras para trabalhar em direção a um objetivo definido – como ganhar um jogo de xadrez ou modelar a forma como as proteínas se dobram, ambos os quais os computadores já podem fazer bastante Nós vamos. Mas outros tipos de inteligência são muito mais moldados e sujeitos às emoções, preconceitos e experiências individuais.

Voltando ao exemplo do GPT-3: o algoritmo produz inteligência “subjetiva” (sua própria escrita) usando um conjunto de regras e parâmetros que criou com um enorme conjunto de dados de inteligência subjetiva pré-existente (escrita por humanos). GPT-3 é saudado como sendo “criativo”, mas sua escrita depende de associações que traçou entre palavras e frases na escrita humana – que é repleta de preconceitos, emoção, conhecimento pré-existente, bom senso e a experiência única do escritor do mundo, tudo experimentado através do corpo.

Mitchell argumenta que os aspectos não racionais e subjetivos da maneira como os humanos pensam e operam não são um obstáculo à nossa inteligência, mas são, na verdade, sua base e facilitador. O especialista em inteligência geral artificial Ben Goertzel também defende a “arquitetura de todo o organismo”, escrevendo: “Os seres humanos são corpos tanto quanto mentes, portanto, alcançar um AGI semelhante ao humano exigirá a incorporação de sistemas de IA em sistemas físicos capazes de interagir com o ser humano diário mundo de maneiras diferenciadas. ”

Para onde vamos a partir daqui?
Esses equívocos deixam poucas dúvidas sobre o que os pesquisadores e desenvolvedores de IA não devem fazer. O que é menos claro é como seguir em frente. Devemos começar, diz Mitchell, com uma melhor compreensão da inteligência – não é uma tarefa pequena ou simples. Um bom lugar onde os pesquisadores de IA podem procurar, porém, é em outras disciplinas da ciência que estudam inteligência.

Por que estamos tão empenhados em criar uma versão artificial da inteligência humana, afinal? Ele evoluiu ao longo de milhões de anos e é extremamente complexo e intrincado, mas ainda cheio de suas próprias deficiências. Talvez a resposta seja que não estamos tentando construir um cérebro artificial tão bom quanto o nosso; estamos tentando construir um que seja melhor e que nos ajudará a resolver problemas atualmente sem solução.

A evolução humana ocorreu ao longo de cerca de seis milhões de anos. Enquanto isso, já se passaram 65 anos desde que a IA se tornou um campo de estudo, e ela está escrevendo textos semelhantes aos humanos, fazendo caretas, se mantendo em debates, fazendo diagnósticos médicos e muito mais. Embora ainda haja muito a aprender, parece que a IA está progredindo muito bem no grande esquema das coisas – e o próximo passo para levá-la adiante é aprofundar nossa compreensão de nossas próprias mentes.

Vanessa Bates Ramirez para Singularity Hub.

Categorias
Blog

Computação quântica e aprendizado por reforço estão unindo forças para tornar a IA mais rápida

O aprendizado por reforço profundo está tendo um momento de superstar.

Alimentando robôs mais inteligentes. Simulando redes neurais humanas. Derrubando médicos em diagnósticos médicos e esmagando os melhores jogadores da humanidade em Go e Atari. Embora longe de alcançar o pensamento flexível e rápido que vem naturalmente aos humanos, essa poderosa ideia de aprendizado de máquina parece imparável como um prenúncio de máquinas pensantes melhores.

Exceto que há um grande obstáculo: eles demoram uma eternidade para funcionar. Como o conceito por trás desses algoritmos é baseado em tentativa e erro, um “agente” de IA de aprendizagem por reforço só aprende depois de ser recompensado por suas decisões corretas. Para problemas complexos, o tempo que um agente de IA leva para tentar e não conseguir aprender uma solução pode rapidamente se tornar insustentável.

Mas e se você pudesse tentar várias soluções ao mesmo tempo?

Esta semana, uma colaboração internacional liderada pelo Dr. Philip Walther da Universidade de Viena pegou o conceito “clássico” de aprendizagem por reforço e deu-lhe um spin quântico. Eles projetaram uma IA híbrida que depende tanto da computação quântica quanto da computação clássica comum e mostraram que – graças à peculiaridade quântica – ela poderia examinar simultaneamente um punhado de maneiras diferentes de resolver um problema.

O resultado é uma IA de aprendizagem por reforço que aprendeu mais de 60 por cento mais rápido do que seus pares não habilitados para quantum. Este é um dos primeiros testes que mostra que a adição de computação quântica pode acelerar o processo de aprendizagem real de um agente de IA, explicaram os autores.

Embora apenas desafiado com um “problema de brinquedo” no estudo, a IA híbrida, uma vez dimensionada, poderia impactar problemas do mundo real, como a construção de uma internet quântica eficiente. A configuração “poderia ser facilmente integrada em futuras redes de comunicação quântica em grande escala”, escreveram os autores.

O gargalo
Aprender com a tentativa e erro chega intuitivamente ao nosso cérebro.

Digamos que você esteja tentando navegar em um novo acampamento complicado sem um mapa. O objetivo é voltar do banheiro comunitário para o acampamento. Os becos sem saída e os loops confusos abundam. Enfrentamos o problema decidindo virar à esquerda ou à direita em cada ramal da estrada. Um nos aproximará da meta; o outro leva a meia hora de caminhada em círculos. Eventualmente, a química do nosso cérebro recompensa as decisões corretas, então aprendemos gradualmente a rota correta. (Se você está se perguntando … sim, história verdadeira.)

Os agentes de IA de aprendizagem por reforço operam de maneira semelhante por tentativa e erro. À medida que um problema se torna mais complexo, o número – e o tempo – de cada tentativa também sobe vertiginosamente.

“Mesmo em um ambiente moderadamente realista, pode simplesmente demorar muito para responder racionalmente a uma determinada situação”, explicou o autor do estudo, Dr. Hans Briegel, da Universität Innsbruck, na Áustria, que anteriormente liderou esforços para acelerar a tomada de decisões de IA usando quantum mecânica. Se houver pressão que permita “apenas um certo tempo para uma resposta, um agente pode então ser incapaz de lidar com a situação e aprender”, escreveu ele.

Muitas tentativas tentaram acelerar o aprendizado por reforço. Dando ao agente de IA uma “memória” de curto prazo. Aproveitando a computação neuromórfica, que se assemelha melhor ao cérebro. Em 2014, Briegel e colegas mostraram que uma espécie de “cérebro quântico” pode ajudar a impulsionar o processo de tomada de decisão de um agente de IA após o aprendizado. Mas acelerar o próprio processo de aprendizagem tem escapado às nossas melhores tentativas.

A Inteligência Artificial híbrida
O novo estudo foi direto para aquela jugular anteriormente insustentável.

O insight principal da equipe foi explorar o melhor dos dois mundos – computação quântica e clássica. Em vez de construir um sistema completo de aprendizado por reforço usando a mecânica quântica, eles se voltaram para uma abordagem híbrida que poderia se provar mais prática. Aqui, o agente de IA usa estranheza quântica enquanto tenta novas abordagens – a “tentativa” de tentativa e erro. O sistema então passa o bastão para um computador clássico para dar à IA sua recompensa – ou não – com base em seu desempenho.

No cerne do processo de “teste” quântico está uma peculiaridade chamada superposição. Fique comigo. Nossos computadores são alimentados por elétrons, que podem representar apenas dois estados – 0 ou 1. A mecânica quântica é muito mais estranha, pois os fótons (partículas de luz) podem ser simultaneamente 0 e 1, com uma probabilidade ligeiramente diferente de “inclinar-se para” um ou outro.

Essa estranheza evasiva é parte do que torna a computação quântica tão poderosa. Veja nosso exemplo de aprendizado por reforço de como navegar em um novo acampamento. Em nosso mundo clássico, nós – e nossa IA – precisamos decidir entre virar à esquerda ou à direita em um cruzamento. Em uma configuração quântica, no entanto, o AI pode (em certo sentido) virar para a esquerda e para a direita ao mesmo tempo. Portanto, ao buscar o caminho correto de volta à base, o sistema quântico tem uma vantagem, pois pode explorar simultaneamente várias rotas, tornando-o muito mais rápido do que a trilha e o erro convencionais e consecutivos.

“Como consequência, um agente que pode explorar seu ambiente em superposição aprenderá significativamente mais rápido do que sua contraparte clássica”, disse Briegel.

Nem tudo é teoria. Para testar a ideia, a equipe recorreu a um chip programável chamado processador nanofotônico. Pense nele como um chip de computador semelhante a uma CPU, mas ele processa partículas de luz – fótons – em vez de eletricidade. Esses chips movidos a luz levaram muito tempo para serem produzidos. Em 2017, por exemplo, uma equipe do MIT construiu uma rede neural totalmente óptica em um chip óptico para apoiar o aprendizado profundo.

Os chips não são tão exóticos. Processadores nanofotônicos agem como nossos óculos, que podem realizar cálculos complexos que transformam a luz que passa por eles. No caso dos óculos, eles permitem que as pessoas vejam melhor. Para um chip de computador baseado em luz, permite a computação. Em vez de usar cabos elétricos, os chips usam “guias de onda” para transportar fótons e realizar cálculos com base em suas interações.

A parte do “erro” ou “recompensa” do novo hardware vem de um computador clássico. O processador nanofotônico é acoplado a um computador tradicional, onde este fornece feedback ao circuito quântico – ou seja, recompensa ou não uma solução. Essa configuração, explica a equipe, permite que eles avaliem de forma mais objetiva quaisquer acelerações na aprendizagem em tempo real.

Desta forma, um agente de aprendizado de reforço híbrido alterna entre computação quântica e clássica, experimentando ideias em terreno “multiverso” vacilante, enquanto obtém feedback na “normalidade” da física clássica, fundamentada.

No cerne do processo de “teste” quântico está uma peculiaridade chamada superposição. Fique comigo. Nossos computadores são alimentados por elétrons, que podem representar apenas dois estados – 0 ou 1. A mecânica quântica é muito mais estranha, pois os fótons (partículas de luz) podem ser simultaneamente 0 e 1, com uma probabilidade ligeiramente diferente de “inclinar-se para” um ou outro.

Essa estranheza evasiva é parte do que torna a computação quântica tão poderosa. Veja nosso exemplo de aprendizado por reforço de como navegar em um novo acampamento. Em nosso mundo clássico, nós – e nossa IA – precisamos decidir entre virar à esquerda ou à direita em um cruzamento. Em uma configuração quântica, no entanto, o AI pode (em certo sentido) virar para a esquerda e para a direita ao mesmo tempo. Portanto, ao buscar o caminho correto de volta à base, o sistema quântico tem uma vantagem, pois pode explorar simultaneamente várias rotas, tornando-o muito mais rápido do que a trilha e o erro convencionais e consecutivos.

“Como consequência, um agente que pode explorar seu ambiente em superposição aprenderá significativamente mais rápido do que sua contraparte clássica”, disse Briegel.

Nem tudo é teoria. Para testar a ideia, a equipe recorreu a um chip programável chamado processador nanofotônico. Pense nele como um chip de computador semelhante a uma CPU, mas ele processa partículas de luz – fótons – em vez de eletricidade. Esses chips movidos a luz levaram muito tempo para serem produzidos. Em 2017, por exemplo, uma equipe do MIT construiu uma rede neural totalmente óptica em um chip óptico para apoiar o aprendizado profundo.

Os chips não são tão exóticos. Processadores nanofotônicos agem como nossos óculos, que podem realizar cálculos complexos que transformam a luz que passa por eles. No caso dos óculos, eles permitem que as pessoas vejam melhor. Para um chip de computador baseado em luz, permite a computação. Em vez de usar cabos elétricos, os chips usam “guias de onda” para transportar fótons e realizar cálculos com base em suas interações.

A parte do “erro” ou “recompensa” do novo hardware vem de um computador clássico. O processador nanofotônico é acoplado a um computador tradicional, onde este fornece feedback ao circuito quântico – ou seja, recompensa ou não uma solução. Essa configuração, explica a equipe, permite que eles avaliem de forma mais objetiva quaisquer acelerações na aprendizagem em tempo real.

Desta forma, um agente de aprendizado de reforço híbrido alterna entre computação quântica e clássica, experimentando ideias em terreno “multiverso” vacilante, enquanto obtém feedback na “normalidade” da física clássica, fundamentada.

Um boost quântico
Em simulações usando 10.000 agentes de IA e dados experimentais reais de 165 ensaios, a abordagem híbrida, quando desafiada com um problema mais complexo, mostrou uma clara vantagem.

A palavra-chave é “complexo”. A equipe descobriu que se um agente de IA tem uma grande chance de descobrir a solução de qualquer maneira – como para um problema simples – então a computação clássica funciona muito bem. A vantagem quântica floresce quando a tarefa se torna mais complexa ou difícil, permitindo que a mecânica quântica flexione totalmente seus músculos de superposição. Para esses problemas, o AI híbrido foi 63 por cento mais rápido no aprendizado de uma solução em comparação com o aprendizado por reforço tradicional, diminuindo seu esforço de aprendizado de 270 para 100 tentativas.

Agora que os cientistas mostraram um aumento quântico nas velocidades de aprendizado por reforço, a corrida pela computação da próxima geração está ainda mais acesa. O hardware fotônico necessário para comunicações baseadas em luz de longo alcance está diminuindo rapidamente, melhorando a qualidade do sinal. A configuração quântica parcial poderia “ajudar especificamente em problemas onde a pesquisa frequente é necessária, por exemplo, problemas de roteamento de rede” que prevalece para uma Internet em funcionamento, escreveram os autores. Com um aumento quântico, o aprendizado por reforço pode ser capaz de lidar com problemas muito mais complexos – aqueles do mundo real – do que é possível atualmente.

“Estamos apenas no início da compreensão das possibilidades da inteligência artificial quântica”, disse o autor principal Walther.

Shelly Fan para SingularityHub.

Categorias
Blog

Tech Talks: IA, data science e machine learning

Na primeira temporada do podcast da SingularityU Brazil, Tech Talks, batemos um papo com o egresso do ITA e MIT, Caio Ishizaka, diretor de Data da Red Ventures e Gabriela de Queiroz, gerente de Data da IBM e fundadora da AI Inclusive, uma organização cujo objetivo é aumentar a representação e participação de grupos de minorias de gênero na inteligência artificial.

Os especialistas trouxeram luz ao ainda pouco compreendido universo dos modelos de aprendizagem de máquinas.

O que diferencia Data Science de Inteligência Artificial e de Machine Learning?
GQ – Essa é uma pergunta que sempre nos fazem porque essas palavras se misturam e têm muito overlap. As vezes você está falando de data Science, mas se refere mais à parte de inteligência artificial ou de machine learning. Tem uma definição que acho muito legal do David Robson, em que ele fala “Data Science é você produzir insights, em machine learning você produz predições e na inteligência artificial você produz ações”. Mas há muita coisa em comum entre os três. Nós, que somos profissionais dessa área, entramos e saímos desses campos a todo instante.

Muito se fala da Inteligência Artificial ter um hype e chamar atenção, aqui no Vale do Silício o pessoal brinca que “quando uma empresa está procurando investidor, diz que está trabalhando com inteligência artificial. Quando está procurando funcionários, diz que está trabalhando com machine learning. Quando está procurando resoluções de problemas, está fazendo regressão linear. E, quando está resolvendo o problema, está só fazendo um print statement”.

CI – Usamos muito o machine learning como ferramenta para a inteligência artificial, mas não apenas para isso. Quando você faz um modelo, pode estar apenas traçando uma análise, não necessariamente criando um robô com IA, capaz de tomar decisões. Assim como nem todo modelo de Inteligência Artificial tem um algoritmo de machine learning por trás. Um exemplo que gosto de dar são os videogames. O jogo “Pong” consistia em possuir uma raquete e utilizá-la contra o computador e, ali, a máquina já era capaz de simular o comportamento de um oponente humano. Isso pode ser considerado IA sem machine learning. Uma definição que eu gosto muito para Machine Learning é o de que é: o processo de uma máquina aprender com as suas próprias experiências.

Um dos problemas das tecnologias exponenciais é, justamente, a velocidade com que as coisas mudam. Enquanto muitos de nós ainda estamos tentando entender os mecanismos do machine learning, o deep learning já está na boca da comunidade científica. Quais são suas percepções sobre a pauta?

CI – O deep learning é uma ferramenta que está no repertório do machine learning. Traçando o paralelo, temos a matemática e abaixo dela disciplinas como geometria, aritmética, álgebra. A aritmética está para a matemática assim como o deep learning está para a machine learning. Essa tecnologia vem sendo muito comentada porque ali estão os avanços de reconhecimento de imagem e reconhecimento de texto; muitos dos modelos estão utilizando essa ferramenta.

O IBM Watson, por exemplo, permite que você faça uma pergunta em formato de texto e ele te traga respostas. Há muito uso do deep learning por trás. Então, não se sintam alarmados, o deep learning é apenas uma ferramenta a mais.

GQ – Deep Learning é uma palavra quente, que estão todos falando, mas não quer dizer que estão todos usando. Ainda usamos modelos mais simples para resolver nossos problemas do dia a dia. Mas, realmente, questões relacionadas a imagem, vídeo e texto puderam começar a serem resolvidos com a entrada do deep learning; que é um campo antigo.

Antes, não tínhamos o poder computacional que temos agora. Usamos o deep learning mais amplamente agora por existir essa capacidade de aplicação. Um bom exemplo do quanto ele está disseminado é a alfândega dos aeroportos. Uma câmera escaneia todas as pessoas que estão passando, fazendo o reconhecimento facial e casando com uma infinidade de informações: nome, destino, ficha criminal. Isso já é uma aplicação diária

O reconhecimento facial é uma pauta polêmica carregada de equívocos propagados pelo cinema, em especial nas produções de ficção científica, sobre a possibilidade dos robôs serem auto didatas. Isso faz algum sentido?

GQ – Muitas coisas da ficção científica estão realmente caminhando na direção da realidade futura, os carros autônomos são o grande exemplo disso. Mas os responsáveis por ensinar os robôs somos nós que estamos criando algoritmos, os robôs que são altamente dependentes. Os algoritmos são bem fidedignos às pessoas que os criaram.

CI – A melhor e pior coisa sobre o computador é que ele faz exatamente o que você manda. O papel de quem está treinando o computador é fundamental. O próprio machine learning não aprende sozinho, você direciona o que ele tem que aprender. Muitos estudiosos abordam a “singularidade”, que é o momento em que as máquinas conseguiriam replicar um ser humano perfeitamente, mas essa é ainda uma discussão sem conclusão possível. Hoje não existem máquinas que aprendem por si só, mas máquinas que aprendem a executar o que são instruídas a fazerem.

Vocês acham que algum dia a automação dará cabo aos cientistas de dados?

CI – Essa é uma pergunta bastante difícil de ser respondida. Em programação se diz que “todo programador tem o objetivo máximo de se eliminar do trabalho”. Tudo que ele faz, gostaria de automatizar. Ciência de dados é parecido, ninguém quer ficar fazendo o mesmo modelo todos os dias.

Estamos entrando na era dos carros autônomos, por exemplo, e há toda uma discussão sobre o que será feito com o emprego de milhões de motoristas de caminhão. No campo do direito, você já vê robôs tecendo textos e defesas inteiras a partir do que foi alimentado. Recentemente, foi divulgado o novo release do GPT-3 que é uma inteligência artificial de construção de texto, você dá um prompt para ela com parágrafos de poucas linhas e ela redige um texto inteiro a partir daquilo. Então, será que o trabalho de redator também está sob perigo? Hoje, ainda estamos seguros, mas por quanto tempo? Eu não sei.

GQ – Quanto mais a IA avança, mais riscos traz aos empregos humanos, e precisamos nos questionar: quais são os empregos que gostaríamos que máquinas fizessem? Quais são os empregos que gostaríamos que os humanos fizessem? Ainda vivemos na era romântica, em que a tecnologia traz mais empregos do que tira. Mas, sim, há um futuro mais macabro que isso.

Você pode escutar esse episódio na íntegra neste link. A segunda temporada de podcasts da SingularityU Brazil, Tech Talks, estreia dia 29 de março. Para acompanhar, siga nosso perfil no Spotify.