Categorias
Blog

A nova tecnologia de chip da IBM mostra o próximo grande passo na lei de Moore

Cada vez mais, a vida moderna depende de quão habilmente transportamos elétrons através dos labirintos em nanoescala gravados em chips de computador. Esses processadores não são mais apenas para laptops – eles são usados ​​em seu carro, termostato, geladeira e micro-ondas.

E a pandemia revelou quão profundamente é nossa dependência.

Uma escassez global de chips de computador, causada por problemas de demanda e cadeia de suprimentos vacilantes, está atualmente afetando fabricantes de dispositivos, é claro, mas também fabricantes de carros, aspiradores de pó e aberturas de fogões.

Claramente, estamos viciados.

Portanto, talvez não seja surpresa que, quando as empresas anunciam chips de computador melhores, mais rápidos e mais eficientes, o mundo percebe. Esta semana, foi a vez da IBM ganhar as manchetes.

A empresa, que já foi sinônimo de computação, anunciou que demonstrou pela primeira vez um processo de fabricação de chips de 2 nanômetros (nm).

Em um comunicado à imprensa, a IBM disse que o novo processo renderia cerca de 50 bilhões de transistores em um chip do tamanho de uma unha. Também traria chips 75% mais eficientes ou 45% mais rápidos do que os atuais de 7 nm.

À primeira vista, parece que a IBM deu um salto à frente na corrida pela tecnologia de ponta em chips. Os chips mais recentes da Intel usam um processo de 10 nm e os TSMC usam um processo de 7 nm. E a empresa fez alguns progressos muito interessantes e notáveis ​​aqui. Mas comparar chips é complicado. Portanto, vale a pena dissecar as notícias um pouco mais para entender melhor o quadro geral.

Nanômetros
O progresso em chips de computador há muito é medido em etapas do tamanho de nanômetros. Cada redução produz cada vez mais componentes – mais notavelmente, transistores – agrupados na mesma área. E houve um tempo, em décadas passadas, em que a nomenclatura nanométrica realmente correspondia ao tamanho de certos elementos do chip. Mas esse tempo já passou. À medida que a tecnologia do chip avançava, as medições dos componentes do chip eram desacopladas da convenção de nomenclatura de cada geração.

No momento em que os chips deram o último grande salto para FinFET – um projeto de transistor 3D em forma de barbatana – há pouco mais de uma década, o número de nó da indústria era virtualmente sem sentido. Não se relacionava com nenhuma dimensão do chip. Atualmente, há um debate sobre qual novo número, ou combinação de números, reflete melhor o progresso. E embora isso também esteja se revelando bastante complicado, uma especificação que os especialistas propõem é a densidade do transistor por milímetro quadrado.

Para ver como a convenção de nomenclatura antiga é confusa, compare os chips de 10 nm da Intel com os chips de 7 nm da TSMC. Os dois, na verdade, têm densidades de transistores aproximadamente equivalentes, com os 100 milhões de transistores por milímetro quadrado da Intel superando os 91 milhões por milímetro quadrado da TSMC. (Acesse aqui uma tabela útil comparando o tamanho do processo e a densidade do transistor dos chips.)

A IBM não anunciou a densidade do transistor explicitamente. Mas depois de tentar esclarecer exatamente o tamanho de “unha” que eles estavam se referindo – representantes da empresa disseram cerca de 150 milímetros quadrados – a publicação AnandTech calculou que o novo processo da IBM renderia cerca de 333 milhões de transistores por milímetro quadrado. O que está, de fato, além de qualquer coisa em produção. Dito isso, um chip de 3 nm que a TSMC está fazendo para a Apple pode ostentar quase 300 milhões de transistores por milímetro quadrado e entrar em produção já no próximo ano.

Nanofolhas: o próximo passo na Lei de Moore?
Talvez a notícia mais significativa seja o design dos próprios transistores. A nova tecnologia da IBM – chamada de nanosheet ou transistores gate-all-around – é a tão esperada sucessora dos atuais transistores FinFET. A empresa trabalha na tecnologia desde 2017.

Os transistores FinFET consistem em um canal em forma de aleta cercado em três lados por uma “porta” que controla o fluxo de elétrons. Mas os transistores de nanosheet da IBM (ou gate-all-around) têm um canal em camadas. As camadas são empilhadas umas sobre as outras e, como três porcos em um cobertor, são cercadas pelo portão por todos os lados. Esta última parte é a parte mais crítica. Os transistores gate-all-around fornecem melhor controle da corrente através do canal, evitam vazamentos e aumentam a eficiência.

Tecnologia de 2 nm, vista usando microscopia eletrônica de transmissão. 2 nm é menor do que a largura de uma única fita de DNA humano. Cortesia da IBM.

“É uma tecnologia tremendamente empolgante”, disse à Wired, Jesús del Alamo, professor do MIT que se especializou em novas tecnologias de transistores. “É um design completamente novo que impulsiona o roteiro para o futuro.” E embora a IBM possa ser a primeira a mostrar a tecnologia neste nível, provavelmente não será a última. Samsung e TSMC provavelmente seguirão o exemplo.

É muito cedo para fazer comparações sérias de desempenho entre os chips de produção de hoje e os chips futuros usando os novos transistores da IBM, mas é seguro dizer que eles oferecerão melhorias notáveis. Dan Hutcheson, CEO da empresa de análise VLSI Research, disse à Wired que as melhorias de desempenho estimadas da IBM na verdade pareciam conservadoras e chamou o trabalho de um “marco para a indústria”.

Chips de próxima geração
Quando você pode comprar um dispositivo com um desses chips? Provavelmente não por enquanto.

Embora a IBM ainda projete chips, ela vendeu seu negócio de fabricação de chips em 2014. Esta nova tecnologia vem de suas instalações de pesquisa em Albany, Nova York e é um demonstrador, não um chip pronto para produção. Nos próximos anos, a IBM completará o processo, momento em que pode chegar aos chips de produção por meio de acordos de licenciamento com parceiros como Intel e Samsung.

A indústria não deve ficar parada nesse ínterim. Há uma espécie de renascimento na indústria de chips agora.

Não se trata mais apenas de gastar bilhões para arrancar mais algumas gotas dos chips tradicionais. Há energia e inovação revigorando o setor e trazendo uma explosão cambriana de designs bizarros para fins especiais, como IA. E muito disso está ocorrendo fora de grandes empresas.

Pela primeira vez em anos, o capital de risco está fluindo para as startups – mais de US $ 12 bilhões, na verdade, foram para mais de 400 empresas de chips apenas em 2020.

Então, mesmo em meio à seca de chips deste ano, parece que a monção está chegando.

Jason Dorrier para Singularity Hub.

Categorias
Sem categoria

À medida que a lei de Moore desacelera, a especialização em chip pode minar o progresso da computação

Por décadas, os chips de computador que executam tudo, de PCs a espaçonaves, pareceram notavelmente semelhantes. Mas, à medida que a Lei de Moore desacelera, os líderes do setor estão adotando chips especializados, que, dizem os especialistas, ameaçam minar as forças econômicas que alimentam nosso rápido crescimento tecnológico.

Os primeiros computadores costumavam ser projetados para realizar tarefas muito específicas e, mesmo que pudessem ser reprogramados, muitas vezes exigiria uma reconfiguração física trabalhosa. Mas em 1945, o cientista da computação John von Neumann propôs uma nova arquitetura que permitia a um computador armazenar e executar muitos programas diferentes no mesmo hardware subjacente.

A ideia foi adotada rapidamente, e a “arquitetura von Neuman” sustentou a esmagadora maioria dos processadores feitos desde então. É por isso que, apesar das velocidades de processamento muito diferentes, o chip em seu laptop e um em um supercomputador operam mais ou menos da mesma maneira e são baseados em princípios de design muito semelhantes.

Isso fez dos computadores o que é conhecido como “tecnologia de uso geral“. Essas são inovações que podem ser aplicadas a amplas áreas da economia e podem ter impactos profundos na sociedade. E uma das características dessas tecnologias é que normalmente se beneficiam de um ciclo econômico virtuoso que aumenta o ritmo de seu desenvolvimento.

À medida que os primeiros usuários começam a comprar uma tecnologia, ela gera receita que pode ser investida em novos produtos de desenvolvimento. Isso aumenta as capacidades do produto e reduz os preços, o que significa que mais pessoas podem adotar a tecnologia, alimentando a próxima rodada de progresso.

Com uma tecnologia amplamente aplicável como os computadores, esse ciclo pode se repetir por décadas, e de fato repetiu. Essa tem sido a força econômica que impulsionou a rápida melhoria dos computadores nos últimos 50 anos e sua integração em quase todos os setores imagináveis.

Mas em um novo artigo na Communications of the ACM, os cientistas da computação Neil Thompson e Svenja Spanuth argumentam que esse ciclo de feedback positivo está chegando ao fim, o que pode em breve levar a uma indústria de computação fragmentada, onde alguns aplicativos continuam a ver melhorias, mas outros conseguem preso em uma pista lenta tecnológica.

A razão para essa fragmentação é a desaceleração do ritmo de inovação em chips de computador caracterizada pela morte lenta da Lei de Moore, dizem eles. À medida que nos aproximamos dos limites físicos de quanto podemos miniaturizar os chips de silício dos quais todos os computadores comerciais dependem, o tempo que leva para cada salto no poder de processamento aumentou significativamente e o custo para alcançá-lo aumentou.

Retardar a inovação significa menos novos usuários adotando a tecnologia, o que, por sua vez, reduz a quantidade de dinheiro que os fabricantes de chips têm para financiar novos desenvolvimentos. Isso cria um ciclo de auto-reforço que torna a economia dos chips universais menos atraente e retarda ainda mais o progresso técnico.

Na realidade, os autores observam que o custo de construção de fundições de chips de última geração também aumentou dramaticamente, colocando ainda mais pressão sobre a indústria. Por algum tempo, a incompatibilidade entre o crescimento do mercado e o aumento dos custos fez com que o número de fabricantes de chips se consolidasse de 25 em 2003 para apenas 3 em 2017.

Como o desempenho aumenta lentamente, isso torna o caso de chips especializados cada vez mais atraente, dizem os autores. As decisões de design que tornam os chips universais podem ser abaixo do ideal para certas tarefas de computação, particularmente aquelas que podem executar muitos cálculos em paralelo, podem ser feitas com menor precisão ou cujos cálculos podem ser feitos em intervalos regulares.

Construir chips especialmente projetados para esses tipos de tarefas muitas vezes pode trazer aumentos de desempenho significativos, mas se eles têm apenas mercados pequenos, eles normalmente melhoram mais lentamente e custam mais do que os chips universais. É por isso que sua aceitação tem sido historicamente baixa, mas com a desaceleração no progresso universal do chip que está começando a mudar.

Hoje, todas as principais plataformas de computação, de smartphones a supercomputadores e chips integrados, estão se tornando mais especializadas, dizem os autores. A ascensão da GPU como o carro-chefe do aprendizado de máquina – e cada vez mais da supercomputação – é o exemplo mais óbvio. Desde então, empresas líderes de tecnologia como Google e Amazon começaram a construir seus próprios chips de aprendizado de máquina personalizados, assim como os mineradores de bitcoin.

O que isso significa é que aqueles com demanda suficiente para seus aplicativos de nicho, que podem se beneficiar da especialização, verão aumentos de desempenho contínuos. Mas onde a especialização não é uma opção, o desempenho do chip tende a estagnar consideravelmente, dizem os autores.

A mudança para a computação em nuvem pode ajudar a mitigar um pouco esse processo, reduzindo a demanda por processadores especializados, mas de forma mais realista, será necessário um grande avanço na tecnologia da computação para nos empurrar de volta para o tipo de ciclo virtuoso que desfrutamos nos últimos 50 anos.

Dados os enormes benefícios que nossas sociedades colheram com o poder de computação cada vez mais aprimorado, realizar esse tipo de avanço deve ser uma grande prioridade.

Edd Gent para SingularityHub.