Categorias
Sem categoria

À medida que a lei de Moore desacelera, a especialização em chip pode minar o progresso da computação

Por décadas, os chips de computador que executam tudo, de PCs a espaçonaves, pareceram notavelmente semelhantes. Mas, à medida que a Lei de Moore desacelera, os líderes do setor estão adotando chips especializados, que, dizem os especialistas, ameaçam minar as forças econômicas que alimentam nosso rápido crescimento tecnológico.

Os primeiros computadores costumavam ser projetados para realizar tarefas muito específicas e, mesmo que pudessem ser reprogramados, muitas vezes exigiria uma reconfiguração física trabalhosa. Mas em 1945, o cientista da computação John von Neumann propôs uma nova arquitetura que permitia a um computador armazenar e executar muitos programas diferentes no mesmo hardware subjacente.

A ideia foi adotada rapidamente, e a “arquitetura von Neuman” sustentou a esmagadora maioria dos processadores feitos desde então. É por isso que, apesar das velocidades de processamento muito diferentes, o chip em seu laptop e um em um supercomputador operam mais ou menos da mesma maneira e são baseados em princípios de design muito semelhantes.

Isso fez dos computadores o que é conhecido como “tecnologia de uso geral“. Essas são inovações que podem ser aplicadas a amplas áreas da economia e podem ter impactos profundos na sociedade. E uma das características dessas tecnologias é que normalmente se beneficiam de um ciclo econômico virtuoso que aumenta o ritmo de seu desenvolvimento.

À medida que os primeiros usuários começam a comprar uma tecnologia, ela gera receita que pode ser investida em novos produtos de desenvolvimento. Isso aumenta as capacidades do produto e reduz os preços, o que significa que mais pessoas podem adotar a tecnologia, alimentando a próxima rodada de progresso.

Com uma tecnologia amplamente aplicável como os computadores, esse ciclo pode se repetir por décadas, e de fato repetiu. Essa tem sido a força econômica que impulsionou a rápida melhoria dos computadores nos últimos 50 anos e sua integração em quase todos os setores imagináveis.

Mas em um novo artigo na Communications of the ACM, os cientistas da computação Neil Thompson e Svenja Spanuth argumentam que esse ciclo de feedback positivo está chegando ao fim, o que pode em breve levar a uma indústria de computação fragmentada, onde alguns aplicativos continuam a ver melhorias, mas outros conseguem preso em uma pista lenta tecnológica.

A razão para essa fragmentação é a desaceleração do ritmo de inovação em chips de computador caracterizada pela morte lenta da Lei de Moore, dizem eles. À medida que nos aproximamos dos limites físicos de quanto podemos miniaturizar os chips de silício dos quais todos os computadores comerciais dependem, o tempo que leva para cada salto no poder de processamento aumentou significativamente e o custo para alcançá-lo aumentou.

Retardar a inovação significa menos novos usuários adotando a tecnologia, o que, por sua vez, reduz a quantidade de dinheiro que os fabricantes de chips têm para financiar novos desenvolvimentos. Isso cria um ciclo de auto-reforço que torna a economia dos chips universais menos atraente e retarda ainda mais o progresso técnico.

Na realidade, os autores observam que o custo de construção de fundições de chips de última geração também aumentou dramaticamente, colocando ainda mais pressão sobre a indústria. Por algum tempo, a incompatibilidade entre o crescimento do mercado e o aumento dos custos fez com que o número de fabricantes de chips se consolidasse de 25 em 2003 para apenas 3 em 2017.

Como o desempenho aumenta lentamente, isso torna o caso de chips especializados cada vez mais atraente, dizem os autores. As decisões de design que tornam os chips universais podem ser abaixo do ideal para certas tarefas de computação, particularmente aquelas que podem executar muitos cálculos em paralelo, podem ser feitas com menor precisão ou cujos cálculos podem ser feitos em intervalos regulares.

Construir chips especialmente projetados para esses tipos de tarefas muitas vezes pode trazer aumentos de desempenho significativos, mas se eles têm apenas mercados pequenos, eles normalmente melhoram mais lentamente e custam mais do que os chips universais. É por isso que sua aceitação tem sido historicamente baixa, mas com a desaceleração no progresso universal do chip que está começando a mudar.

Hoje, todas as principais plataformas de computação, de smartphones a supercomputadores e chips integrados, estão se tornando mais especializadas, dizem os autores. A ascensão da GPU como o carro-chefe do aprendizado de máquina – e cada vez mais da supercomputação – é o exemplo mais óbvio. Desde então, empresas líderes de tecnologia como Google e Amazon começaram a construir seus próprios chips de aprendizado de máquina personalizados, assim como os mineradores de bitcoin.

O que isso significa é que aqueles com demanda suficiente para seus aplicativos de nicho, que podem se beneficiar da especialização, verão aumentos de desempenho contínuos. Mas onde a especialização não é uma opção, o desempenho do chip tende a estagnar consideravelmente, dizem os autores.

A mudança para a computação em nuvem pode ajudar a mitigar um pouco esse processo, reduzindo a demanda por processadores especializados, mas de forma mais realista, será necessário um grande avanço na tecnologia da computação para nos empurrar de volta para o tipo de ciclo virtuoso que desfrutamos nos últimos 50 anos.

Dados os enormes benefícios que nossas sociedades colheram com o poder de computação cada vez mais aprimorado, realizar esse tipo de avanço deve ser uma grande prioridade.

Edd Gent para SingularityHub.

Deixe um comentário

O seu endereço de e-mail não será publicado.