Categorias
Blog

A nova tecnologia de chip da IBM mostra o próximo grande passo na lei de Moore

Cada vez mais, a vida moderna depende de quão habilmente transportamos elétrons através dos labirintos em nanoescala gravados em chips de computador. Esses processadores não são mais apenas para laptops – eles são usados ​​em seu carro, termostato, geladeira e micro-ondas.

E a pandemia revelou quão profundamente é nossa dependência.

Uma escassez global de chips de computador, causada por problemas de demanda e cadeia de suprimentos vacilantes, está atualmente afetando fabricantes de dispositivos, é claro, mas também fabricantes de carros, aspiradores de pó e aberturas de fogões.

Claramente, estamos viciados.

Portanto, talvez não seja surpresa que, quando as empresas anunciam chips de computador melhores, mais rápidos e mais eficientes, o mundo percebe. Esta semana, foi a vez da IBM ganhar as manchetes.

A empresa, que já foi sinônimo de computação, anunciou que demonstrou pela primeira vez um processo de fabricação de chips de 2 nanômetros (nm).

Em um comunicado à imprensa, a IBM disse que o novo processo renderia cerca de 50 bilhões de transistores em um chip do tamanho de uma unha. Também traria chips 75% mais eficientes ou 45% mais rápidos do que os atuais de 7 nm.

À primeira vista, parece que a IBM deu um salto à frente na corrida pela tecnologia de ponta em chips. Os chips mais recentes da Intel usam um processo de 10 nm e os TSMC usam um processo de 7 nm. E a empresa fez alguns progressos muito interessantes e notáveis ​​aqui. Mas comparar chips é complicado. Portanto, vale a pena dissecar as notícias um pouco mais para entender melhor o quadro geral.

Nanômetros
O progresso em chips de computador há muito é medido em etapas do tamanho de nanômetros. Cada redução produz cada vez mais componentes – mais notavelmente, transistores – agrupados na mesma área. E houve um tempo, em décadas passadas, em que a nomenclatura nanométrica realmente correspondia ao tamanho de certos elementos do chip. Mas esse tempo já passou. À medida que a tecnologia do chip avançava, as medições dos componentes do chip eram desacopladas da convenção de nomenclatura de cada geração.

No momento em que os chips deram o último grande salto para FinFET – um projeto de transistor 3D em forma de barbatana – há pouco mais de uma década, o número de nó da indústria era virtualmente sem sentido. Não se relacionava com nenhuma dimensão do chip. Atualmente, há um debate sobre qual novo número, ou combinação de números, reflete melhor o progresso. E embora isso também esteja se revelando bastante complicado, uma especificação que os especialistas propõem é a densidade do transistor por milímetro quadrado.

Para ver como a convenção de nomenclatura antiga é confusa, compare os chips de 10 nm da Intel com os chips de 7 nm da TSMC. Os dois, na verdade, têm densidades de transistores aproximadamente equivalentes, com os 100 milhões de transistores por milímetro quadrado da Intel superando os 91 milhões por milímetro quadrado da TSMC. (Acesse aqui uma tabela útil comparando o tamanho do processo e a densidade do transistor dos chips.)

A IBM não anunciou a densidade do transistor explicitamente. Mas depois de tentar esclarecer exatamente o tamanho de “unha” que eles estavam se referindo – representantes da empresa disseram cerca de 150 milímetros quadrados – a publicação AnandTech calculou que o novo processo da IBM renderia cerca de 333 milhões de transistores por milímetro quadrado. O que está, de fato, além de qualquer coisa em produção. Dito isso, um chip de 3 nm que a TSMC está fazendo para a Apple pode ostentar quase 300 milhões de transistores por milímetro quadrado e entrar em produção já no próximo ano.

Nanofolhas: o próximo passo na Lei de Moore?
Talvez a notícia mais significativa seja o design dos próprios transistores. A nova tecnologia da IBM – chamada de nanosheet ou transistores gate-all-around – é a tão esperada sucessora dos atuais transistores FinFET. A empresa trabalha na tecnologia desde 2017.

Os transistores FinFET consistem em um canal em forma de aleta cercado em três lados por uma “porta” que controla o fluxo de elétrons. Mas os transistores de nanosheet da IBM (ou gate-all-around) têm um canal em camadas. As camadas são empilhadas umas sobre as outras e, como três porcos em um cobertor, são cercadas pelo portão por todos os lados. Esta última parte é a parte mais crítica. Os transistores gate-all-around fornecem melhor controle da corrente através do canal, evitam vazamentos e aumentam a eficiência.

Tecnologia de 2 nm, vista usando microscopia eletrônica de transmissão. 2 nm é menor do que a largura de uma única fita de DNA humano. Cortesia da IBM.

“É uma tecnologia tremendamente empolgante”, disse à Wired, Jesús del Alamo, professor do MIT que se especializou em novas tecnologias de transistores. “É um design completamente novo que impulsiona o roteiro para o futuro.” E embora a IBM possa ser a primeira a mostrar a tecnologia neste nível, provavelmente não será a última. Samsung e TSMC provavelmente seguirão o exemplo.

É muito cedo para fazer comparações sérias de desempenho entre os chips de produção de hoje e os chips futuros usando os novos transistores da IBM, mas é seguro dizer que eles oferecerão melhorias notáveis. Dan Hutcheson, CEO da empresa de análise VLSI Research, disse à Wired que as melhorias de desempenho estimadas da IBM na verdade pareciam conservadoras e chamou o trabalho de um “marco para a indústria”.

Chips de próxima geração
Quando você pode comprar um dispositivo com um desses chips? Provavelmente não por enquanto.

Embora a IBM ainda projete chips, ela vendeu seu negócio de fabricação de chips em 2014. Esta nova tecnologia vem de suas instalações de pesquisa em Albany, Nova York e é um demonstrador, não um chip pronto para produção. Nos próximos anos, a IBM completará o processo, momento em que pode chegar aos chips de produção por meio de acordos de licenciamento com parceiros como Intel e Samsung.

A indústria não deve ficar parada nesse ínterim. Há uma espécie de renascimento na indústria de chips agora.

Não se trata mais apenas de gastar bilhões para arrancar mais algumas gotas dos chips tradicionais. Há energia e inovação revigorando o setor e trazendo uma explosão cambriana de designs bizarros para fins especiais, como IA. E muito disso está ocorrendo fora de grandes empresas.

Pela primeira vez em anos, o capital de risco está fluindo para as startups – mais de US $ 12 bilhões, na verdade, foram para mais de 400 empresas de chips apenas em 2020.

Então, mesmo em meio à seca de chips deste ano, parece que a monção está chegando.

Jason Dorrier para Singularity Hub.

Categorias
Blog

Inteligência Artificial é mais difícil do que pensávamos: 4 falácias na pesquisa de IA

A inteligência artificial está nas manchetes há quase uma década, à medida que os sistemas progridem rapidamente em desafios de IA de longa data, como reconhecimento de imagem, processamento de linguagem natural e jogos. As empresas de tecnologia semearam algoritmos de aprendizado de máquina em mecanismos de pesquisa e recomendação e sistemas de reconhecimento facial, e o GPT-3 da OpenAI e o AlphaFold da DeepMind prometem aplicações ainda mais práticas, desde a escrita até a codificação e descobertas científicas.

Na verdade, estamos no meio de uma primavera de IA, com investimento no florescimento da tecnologia e um sentimento predominante de otimismo e possibilidade em relação ao que ela pode realizar e quando.

Desta vez, pode parecer diferente das fontes de IA anteriores devido às aplicações práticas acima mencionadas e à proliferação de IA estreita em tecnologias que muitos de nós usamos todos os dias – como nossos smartphones, TVs, carros e aspiradores de pó, para citar apenas alguns. Mas também é possível que estejamos navegando em uma onda de progresso de curto prazo em IA que logo se tornará parte do fluxo e refluxo no avanço, financiamento e sentimento que tem caracterizado o campo desde sua fundação em 1956.

A IA ficou aquém de muitas previsões feitas nas últimas décadas; 2020, por exemplo, foi anunciado por muitos como o ano em que os carros autônomos começariam a encher as estradas, transportando passageiros sem problemas enquanto eles se sentavam e apreciavam o passeio. Mas o problema tem sido mais difícil do que o previsto e, em vez de hordas de táxis robôs, os projetos mais avançados permanecem em teste. Enquanto isso, alguns no campo acreditam que a forma dominante de IA – um tipo de aprendizado de máquina baseado em redes neurais – pode em breve perder força na ausência de uma série de descobertas cruciais.

Em um artigo intitulado “Por que a IA é mais difícil do que pensamos“, publicado na semana passada no servidor de pré-impressão arXiv, Melanie Mitchell, professora de ciência da computação da Universidade Estadual de Portland atualmente no Instituto de Santa Fé, argumenta que a IA está em um declínio e ciclo de fluxo em grande parte porque ainda não entendemos verdadeiramente a natureza e a complexidade da inteligência humana. Mitchell divide esse ponto abrangente em quatro equívocos comuns em torno da IA ​​e discute o que eles significam para o futuro do campo.

1. O progresso na inteligência estreita é o progresso em direção à inteligência geral
Novas conquistas impressionantes da IA ​​são frequentemente acompanhadas pela suposição de que essas mesmas conquistas estão nos deixando mais perto de alcançar a inteligência de máquina de nível humano. Mas não apenas, como Mitchell aponta, a inteligência estreita e geral é tão diferente quanto subir em uma árvore ou pousar na lua, mas mesmo a inteligência estreita ainda depende em grande parte de uma abundância de dados específicos de tarefas e treinamento facilitado por humanos.

Veja o GPT-3, que alguns citaram como tendo superado a inteligência “estreita”: o algoritmo foi treinado para escrever texto, mas aprendeu a traduzir, escrever código, preencher automaticamente imagens e fazer matemática, entre outras tarefas. Mas embora os recursos do GPT-3 tenham se revelado mais extensos do que seus criadores pretendiam, todas as suas habilidades ainda estão dentro do domínio em que foi treinado: isto é, linguagem – falada, escrita e programação.

Tornar-se adepto de uma habilidade não relacionada à linguagem sem nenhum treinamento seria um sinal de inteligência geral, mas este não era o caso com GPT-3, nem foi o caso com qualquer outra IA recentemente desenvolvida: eles permanecem de natureza estreita e , embora significativo em si mesmo, não deve ser confundido com passos em direção à compreensão completa do mundo necessária para a inteligência geral.

2. O que é fácil para os humanos deve ser fácil para as máquinas
A IA é mais inteligente do que uma criança de quatro anos? Na maioria dos sentidos, a resposta é não, e isso porque as habilidades e tarefas que percebemos como “fáceis” são na verdade muito mais complexas do que acreditamos, como observa o Paradoxo de Moravec.

Crianças de quatro anos são muito boas em descobrir relações de causa e efeito com base em suas interações com o mundo ao seu redor. Se, por exemplo, eles tocarem uma panela no fogão e queimarem um dedo, entenderão que a queimadura foi causada pelo fato de a panela estar quente, não por ser redonda ou prateada. Para os humanos, isso é senso comum básico, mas os algoritmos têm dificuldade em fazer inferências causais, especialmente sem um grande conjunto de dados ou em um contexto diferente daquele em que foram treinados.

As percepções e escolhas que ocorrem em um nível subconsciente em humanos assentam no valor de uma vida inteira de experiência e aprendizado, mesmo em um nível elementar como “tocar em coisas quentes vai queimar você.” Porque chegamos a um ponto em que esse tipo de conhecimento é reflexivo, nem mesmo requer pensamento consciente, vemos isso como “fácil”, mas é exatamente o oposto. “IA é mais difícil do que pensamos”, escreve Mitchell, “porque não temos consciência da complexidade de nossos próprios processos de pensamento”.

3. A linguagem humana pode descrever a inteligência da máquina
Os humanos têm uma tendência a antropomorfizar coisas não humanas, de animais a objetos inanimados a robôs e computadores. Ao fazer isso, usamos as mesmas palavras que usaríamos para discutir as atividades ou inteligência humana – exceto que essas palavras não se encaixam muito bem no contexto e, na verdade, podem confundir nossa própria compreensão da IA. Mitchell usa o termo “mnemônica do desejo”, cunhado por um cientista da computação na década de 1970. Palavras como “ler”, “compreender” e “pensar” são usadas para descrever e avaliar a IA, mas essas palavras não nos dão uma descrição precisa de como a IA está funcionando ou progredindo.

Mesmo “aprender” é um termo impróprio, diz Mitchell, porque se uma máquina realmente “aprendesse” uma nova habilidade, seria capaz de aplicá-la em diferentes ambientes; encontrar correlações em conjuntos de dados e usar os padrões identificados para fazer previsões ou atender a outros benchmarks é algo, mas não é “aprender” da maneira que os humanos aprendem.

Então, por que tanto alarido por causa das palavras, se elas são tudo o que temos e estão transmitindo a essência? Bem, diz Mitchell, essa linguagem imprecisa pode não apenas enganar o público e a mídia, mas pode influenciar a maneira como os pesquisadores de IA pensam sobre seus sistemas e realizam seu trabalho.

4. A inteligência está em nossas cabeças
O ponto final de Mitchell é que a inteligência humana não está contida apenas no cérebro, mas requer um corpo físico.

Isso parece autoexplicativo; usamos nossos sentidos para absorver e processar informações e interagimos e nos movemos pelo mundo em nossos corpos. No entanto, a ênfase predominante na pesquisa de IA está no cérebro: compreendê-lo, replicar vários aspectos de sua forma ou função e tornar a IA mais parecida com ela.

Se a inteligência vivesse apenas no cérebro, seríamos capazes de chegar mais perto de alcançar IA de nível humano, digamos, construindo uma rede neural com o mesmo número de parâmetros que o cérebro tem conexões sinápticas, duplicando assim a “capacidade de computação do cérebro . ”

Desenhar esse tipo de paralelo pode ser aplicado nos casos em que “inteligência” se refere à operação por um conjunto de regras para trabalhar em direção a um objetivo definido – como ganhar um jogo de xadrez ou modelar a forma como as proteínas se dobram, ambos os quais os computadores já podem fazer bastante Nós vamos. Mas outros tipos de inteligência são muito mais moldados e sujeitos às emoções, preconceitos e experiências individuais.

Voltando ao exemplo do GPT-3: o algoritmo produz inteligência “subjetiva” (sua própria escrita) usando um conjunto de regras e parâmetros que criou com um enorme conjunto de dados de inteligência subjetiva pré-existente (escrita por humanos). GPT-3 é saudado como sendo “criativo”, mas sua escrita depende de associações que traçou entre palavras e frases na escrita humana – que é repleta de preconceitos, emoção, conhecimento pré-existente, bom senso e a experiência única do escritor do mundo, tudo experimentado através do corpo.

Mitchell argumenta que os aspectos não racionais e subjetivos da maneira como os humanos pensam e operam não são um obstáculo à nossa inteligência, mas são, na verdade, sua base e facilitador. O especialista em inteligência geral artificial Ben Goertzel também defende a “arquitetura de todo o organismo”, escrevendo: “Os seres humanos são corpos tanto quanto mentes, portanto, alcançar um AGI semelhante ao humano exigirá a incorporação de sistemas de IA em sistemas físicos capazes de interagir com o ser humano diário mundo de maneiras diferenciadas. ”

Para onde vamos a partir daqui?
Esses equívocos deixam poucas dúvidas sobre o que os pesquisadores e desenvolvedores de IA não devem fazer. O que é menos claro é como seguir em frente. Devemos começar, diz Mitchell, com uma melhor compreensão da inteligência – não é uma tarefa pequena ou simples. Um bom lugar onde os pesquisadores de IA podem procurar, porém, é em outras disciplinas da ciência que estudam inteligência.

Por que estamos tão empenhados em criar uma versão artificial da inteligência humana, afinal? Ele evoluiu ao longo de milhões de anos e é extremamente complexo e intrincado, mas ainda cheio de suas próprias deficiências. Talvez a resposta seja que não estamos tentando construir um cérebro artificial tão bom quanto o nosso; estamos tentando construir um que seja melhor e que nos ajudará a resolver problemas atualmente sem solução.

A evolução humana ocorreu ao longo de cerca de seis milhões de anos. Enquanto isso, já se passaram 65 anos desde que a IA se tornou um campo de estudo, e ela está escrevendo textos semelhantes aos humanos, fazendo caretas, se mantendo em debates, fazendo diagnósticos médicos e muito mais. Embora ainda haja muito a aprender, parece que a IA está progredindo muito bem no grande esquema das coisas – e o próximo passo para levá-la adiante é aprofundar nossa compreensão de nossas próprias mentes.

Vanessa Bates Ramirez para Singularity Hub.

Categorias
Blog

Este robô pode mudar seu corpo para se adaptar a novos ambientes

Imagine correr em uma trilha de cimento e, de repente, pela areia seca. Apenas para se manter em pé, você teria que diminuir a velocidade e mudar a forma como corre. Da mesma forma, um robô ambulante teria que mudar sua marcha para lidar com superfícies diferentes.

Geralmente, nós, humanos, e a maioria dos robôs, só podemos mudar a forma como corremos. Mas e se pudéssemos também mudar a forma de nossos corpos para correr o mais rápido e seguro possível em qualquer superfície?

Gostaríamos de contar com robôs para tarefas difíceis e perigosas, desde a inspeção de reatores nucleares que falharam até a exploração espacial. Para essas tarefas, um corpo estático pode limitar a adaptabilidade do robô. Um corpo que muda de forma pode fazer a diferença entre o sucesso e o fracasso nesses ambientes inesperados. Melhor ainda, um robô que muda de forma pode aprender a melhor forma corporal para diferentes ambientes e se adaptar a novos ambientes à medida que os encontra.

Em colaboração com a Universidade de Oslo, essa ideia foi testada com um robô de quatro patas que adapta seu corpo para andar em novas superfícies conforme as vê, tendo um desempenho melhor do que um robô de corpo estático. A pesquisa foi publicada na Nature Machine Intelligence.

Um quadrúpede que muda de forma
DyRET, o Robô Dinâmico para Testes Corpóreos, ou “o animal” na língua norueguesa de seu criador, Tønnes Nygaard, foi projetado para explorar a ideia de um robô que muda de forma. Cada uma das quatro pernas do DyRET tem duas seções telescópicas, de modo que pode alterar o comprimento de sua coxa ou tíbia. Os ajustes são feitos por motores embutidos nas pernas e os comprimentos podem ser alterados automaticamente enquanto o robô está operando.

Os motores podem alterar a altura do DyRET em cerca de 20%, de 60 cm a 73 cm de altura. Esses 13 cm fazem uma diferença dramática na caminhada do robô. Com pernas curtas, o DyRET é estável, mas lento, com um centro de gravidade baixo. Em seu modo mais alto, o DyRET é mais instável enquanto caminha, mas seu passo é muito mais longo, permitindo-lhe viajar mais rápido e passar por cima de obstáculos.

O DyRET também possui sensores para monitorar no que está caminhando. Cada um dos pés do DyRET tem um sensor de força que pode sentir o quão duro é o solo. Uma câmera 3D aponta para o solo entre as pernas dianteiras do DyRET para estimar o quão acidentado é o solo.

Aprendendo a se adaptar
Quando o DyRET está caminhando, ele detecta continuamente o ambiente por meio de seus pés e da câmera 3D. Quando o robô detecta uma mudança nas condições do solo, ele pode mudar para o melhor comprimento de perna. Mas como o robô sabe qual forma corporal funciona melhor?

Exploramos duas maneiras de o DyRET aprender a melhor configuração de perna para diferentes situações: um em ambiente controlado, outro em ambientes internos com superfícies conhecidas e outro teste externo em ambientes reais.

Nos testes controlados, o DyRET caminhou dentro de caixas de cerca de 5 metros de comprimento contendo diferentes superfícies de caminhada: areia, cascalho e folhas de fibrocimento duro. O robô caminhou sobre cada material em cada uma das 25 configurações de pernas diferentes para registrar a eficiência de seu movimento. Com esses dados, foi testada a capacidade do robô de detectar automaticamente uma mudança na superfície de caminhada dentro das caixas e de escolher a melhor forma corporal.

Embora os experimentos controlados tenham mostrado que o DyRET poderia adaptar seu corpo com sucesso às superfícies em que já havia pisado, o mundo real é um lugar muito mais variável e imprevisível. Mostramos que esse método pode ser estendido a terrenos invisíveis estimando a melhor forma corporal para qualquer superfície que o robô encontrar.

Em nossos experimentos ao ar livre, DyRET usou um modelo de aprendizado de máquina, semeado com o conhecimento sobre a melhor configuração de perna para uma determinada combinação de dureza e rugosidade do terreno tirada dos testes controlados. Conforme o robô anda, ele continuamente prediz a melhor forma corporal para o terreno à medida que o encontra, enquanto atualiza seu modelo com medições de quão bem ele pode andar. Em nossos experimentos, as previsões do DyRET melhoram à medida que ele caminha, permitindo que gere movimentos eficientes rapidamente, mesmo para terrenos que nunca viu antes.

Robôs que mudam de forma são o futuro?
DyRET explora a ideia de “cognição incorporada” em um robô: isto é, que o corpo de hardware de um robô pode ser usado para resolver problemas em colaboração com seu cérebro de software, vinculando-os estreitamente ao ambiente. Em vez de o corpo do DyRET ser uma restrição ao seu movimento, ele próprio é uma forma adaptativa de resolver problemas em ambientes desafiadores.

Isso é incrivelmente benéfico, especialmente quando não podemos prever as condições ambientais exatas de antemão, o que torna a escolha de uma única forma “boa” de robô muito desafiadora. Em vez disso, esses robôs se adaptariam a uma ampla variedade de condições ambientais por meio da mudança de forma.

Nossa prova de conceito tem implicações poderosas para o futuro do design robótico, desbloqueando ambientes atualmente impossíveis que são muito desafiadores e variáveis. Futuros robôs que mudam de forma podem ser usados ​​no fundo do mar ou para missões de longo prazo no espaço.

David Howard e Charles Martin para SingularityHub.

Categorias
Blog

Nanofotônica pode ser o ‘azarão’ da corrida da computação quântica

A corrida para construir os primeiros computadores quânticos práticos parece uma competição de dois cavalos entre máquinas construídas a partir de qubits supercondutores e aquelas que usam íons aprisionados. Mas uma nova pesquisa sugere que um terceiro contendor – máquinas baseadas em tecnologia óptica – pode se infiltrar por dentro.

Os computadores quânticos mais avançados hoje são os construídos pelo Google e pela IBM, que dependem de circuitos supercondutores para gerar os qubits que formam a base dos cálculos quânticos. Eles agora são capazes de reunir dezenas de qubits e, embora seja controverso, o Google afirma que suas máquinas alcançaram a supremacia quântica – a capacidade de realizar uma computação além dos computadores normais.

Recentemente, essa abordagem foi desafiada por uma onda de empresas que buscam usar qubits de íons aprisionados, que são mais estáveis ​​e menos sujeitos a erros do que os supercondutores. Embora esses dispositivos sejam menos desenvolvidos, a gigante da engenharia Honeywell já lançou uma máquina com 10 qubits, que diz ser mais poderosa do que uma máquina feita de um número maior de qubits supercondutores.

Mas, apesar desse progresso, ambas as abordagens têm algumas desvantagens importantes. Eles exigem métodos de fabricação especializados, mecanismos de controle incrivelmente precisos e precisam ser resfriados até quase zero absoluto para proteger os qubits de qualquer interferência externa.

É por isso que os pesquisadores do hardware de computação quântica canadense e da startup de software Xanadu estão apoiando uma abordagem alternativa de computação quântica baseada em óptica, que foi considerada por muito tempo impraticável. Em um artigo publicado na Nature, eles revelaram o primeiro chip óptico totalmente programável e escalável que pode executar algoritmos quânticos. Não apenas o sistema funciona em temperatura ambiente, mas a empresa diz que pode chegar a milhões de qubits.

A ideia não é exatamente nova. Como Chris Lee observa no “Ars Technica”, as pessoas têm experimentado abordagens ópticas para computação quântica por décadas, porque codificar informações nos estados quânticos dos fótons e manipular esses estados é relativamente fácil. O maior problema era que os circuitos ópticos eram muito grandes e não eram facilmente programáveis, o que significava que você tinha que construir um novo computador para cada novo problema que quisesse resolver.

Isso começou a mudar graças à crescente maturidade dos circuitos integrados fotônicos. Enquanto os primeiros experimentos com computação óptica envolveram arranjos de mesa complexos de lasers, lentes e detectores, hoje é possível comprar chips de silício não muito diferentes dos eletrônicos que apresentam centenas de minúsculos componentes ópticos.

Nos últimos anos, a confiabilidade e o desempenho desses dispositivos melhoraram drasticamente e agora eles são usados ​​regularmente pelo setor de telecomunicações. Algumas empresas acreditam que também podem ser o futuro da inteligência artificial.

Isso permitiu que os pesquisadores de Xanadu projetassem um chip de silício que implementa uma rede óptica complexa composta de divisores de feixe, guias de onda e dispositivos chamados interferômetros que fazem com que as fontes de luz interajam umas com as outras.

O chip pode gerar e manipular até oito qubits, mas ao contrário dos qubits convencionais, que podem estar simultaneamente em dois estados, esses qubits podem estar em qualquer configuração de três estados, o que significa que podem transportar mais informações.

Depois que a luz viaja pela rede, ela é enviada para os detectores de contagem de fótons de última geração que fornecem o resultado. Essa é uma das limitações potenciais do sistema, porque atualmente esses detectores precisam ser resfriados criogenicamente, embora o resto do chip não.

Mas, o mais importante, o chip é facilmente reprogramável, o que permite resolver uma variedade de problemas. A computação pode ser controlada ajustando-se as configurações desses interferômetros, mas os pesquisadores também desenvolveram uma plataforma de software que esconde a complexidade física dos usuários e permite que eles a programem usando um código bastante convencional.

A empresa anunciou que seus chips estavam disponíveis na nuvem em setembro de 2020, mas o artigo da Nature é o primeiro teste revisado por pares de seu sistema. Os pesquisadores verificaram que os cálculos feitos eram genuinamente de natureza quântica, mas também implementaram mais dois algoritmos práticos: um para simular moléculas e outro para julgar a semelhança entre dois gráficos, que tem aplicações em uma variedade de problemas de reconhecimento de padrões.

Em um artigo de opinião que o acompanha, Ulrik Andersen da Universidade Técnica da Dinamarca diz que a qualidade dos qubits precisa ser melhorada consideravelmente e as perdas de fótons reduzidas se a tecnologia for escalar para problemas práticos. Mas, diz ele, essa descoberta sugere que as abordagens ópticas “podem acabar sendo o azarão da computação quântica”.

Edd Gent para SingularityHub.

Categorias
Blog

As lições do Covid-19, por Gregg Maryniak

Durante anos, pode parecer que o mundo é previsível e, então, de repente, tudo muda.

A maioria de nós ficou chocada com a velocidade com que o coronavírus, Covid-19, varreu o mundo. Mas o ritmo de 2020 é mais compreensível se você ver a pandemia como um fenômeno exponencial.

Quando a disseminação não era controlada, as infecções por coronavírus dobravam em um curto período de tempo, e o tempo de duplicação em si estava diminuindo. Isso criou uma curva exponencial clássica em que pequenas duplicações pareciam inofensivas o suficiente, mas, em um piscar de olhos, explodiram em uma pandemia mundial.

Achamos desafiador planejar o crescimento exponencial pois nossos cérebros estão preparados para o crescimento linear, onde cada etapa é equivalente em tamanho à última. Na falta de planejamento ou visão, ficamos com os pés no chão. O crescimento exponencial da pandemia ceifou muitas vidas e muitos meios de subsistência. Suas consequências sociais e econômicas serão sentidas por anos e estão apenas começando a ficar claras.

É uma lição sobre o poder das tendências exponenciais para perturbar o status quo e um lembrete crucial de que os humanos muitas vezes são cegos para oportunidades e perigos exponenciais. Vamos superar a pandemia, mas teremos aprendido alguma coisa? Vamos dar uma olhada em algumas das lições que esta crise oferece.

Mudanças radicais acontecem
A primeira lição é que o mundo não é estático. Mesmo os maiores e aparentemente mais permanentes acessórios em nossas vidas – de sistemas de crenças a instituições – podem mudar e realmente mudam. A maioria de nós viveu em uma época em que, apesar das notícias terríveis do noticiário noturno, as condições em geral melhoraram. Como resultado, a maioria das pessoas cresceu com a crença de que o mundo do futuro próximo será semelhante ao do passado recente. Covid-19 é um lembrete gritante de que o mundo pode mudar radicalmente.

A lição de que grandes interrupções (boas e ruins) são muito reais é importante. Os humanos são surpreendentemente resistentes a mudanças. Acreditamos que o mundo em que habitamos sempre foi do jeito que é e provavelmente será assim no futuro. Não é apenas a comunidade empresarial relativamente conservadora que nutre essas crenças. Mesmo o mundo racional da ciência exibe esse tipo de inércia intelectual, levando o célebre físico Max Planck a fazer a famosa observação: “A ciência avança um funeral de cada vez.”

Um corolário valioso e positivo da lição de que a mudança acontece é que não devemos ter medo de tentar coisas novas. O risco relativo de experimentação é pequeno. Na verdade, é imperativo para a sobrevivência da civilização e de nossa espécie que experimentemos, apesar da resistência tradicional à mudança que tem sido a norma durante os tempos “normais” (pré-vírus).

A mudança pode acontecer mais rápido do que o esperado
A maior surpresa sobre o poder dos perigos exponenciais é a rapidez com que podem impactar o mundo. Mesmo aqueles de nós que pensaram muito em questões exponenciais ficaram surpresos com a rapidez com que o mundo mudou nos últimos meses.

Se a segunda lição é que a mudança acontece rapidamente, uma observação relacionada é que algumas das condições que agora consideramos certas são situações surpreendentemente recentes. Por exemplo, já se passaram 52 anos desde que a humanidade viu pela primeira vez a foto icônica da Terra, tirada pela tripulação da Apollo 8. Essa imagem levou ao primeiro Dia da Terra e à aceleração do movimento ambiental global. Como alguém que estava por perto quando esses eventos aconteceram, eles me parecem bastante recentes. Mas, surpreendentemente, nosso mundo moderno de abundância de energia está apenas cerca de cinco vezes mais distante no tempo do que Apollo. A máquina a vapor aprimorada de James Watt (desbloqueando a antiga energia solar armazenada nos combustíveis fósseis) desencadeou a primeira Revolução Energética e seu fenômeno de segunda ordem, a Revolução Industrial, há apenas 250 anos.

Esquerda: Terra vista da órbita lunar pelos astronautas da Apollo 8. À direita: uma máquina a vapor Watt do século 19. Crédito da imagem: NASA, Nicolás Pérez via Wikimedia Commons.

O que podemos fazer com essas lições?
Agora que experimentamos o poder perturbador de um perigo exponencial, o que devemos fazer?

Em primeiro lugar, devemos reconsiderar a importância de lidar com ameaças existenciais previsíveis – eventos que têm o potencial de perturbar maciçamente a vida das gerações presentes e futuras. Frequentemente, esses eventos têm baixa probabilidade em um determinado período de tempo, mas grande consequência quando ocorrem. Os exemplos incluem pandemias ou outros desastres biológicos, guerra nuclear e impactos de asteroides ou de cometas.

Covid-19 demonstrou a futilidade de fingir que essas coisas não podem ou não vão acontecer ou que irão embora por si mesmas. Devemos priorizar o investimento em abordagens políticas, tecnológicas e econômicas para detectar, prevenir e mitigar os efeitos dessas ameaças em nosso mundo pós-Covid 19.

Uma ameaça existencial está em uma classe própria. A interrupção dos padrões climáticos da Terra pela liberação de dióxido de carbono da humanidade já está em andamento e é reconhecida por praticamente toda a comunidade científica e pela maioria do mundo. Tendo experimentado as consequências das negações moralmente falidas da ameaça da Covid-19, esperamos que escolhamos abordar a ameaça imediata da mudança climática e continuar a expandir os esforços para prever e prevenir essas outras ameaças existenciais à humanidade.

Resiliência é a chave
Como o mundo pode lidar melhor com as ameaças e interrupções que enfrentamos?

Uma abordagem é fortalecer os sistemas tecnológicos, políticos e econômicos para que possam resistir às interrupções e se adaptar rapidamente às mudanças. A palavra que melhor descreve essa capacidade é resiliência.

Tendo experimentado a ruptura da Covid-19, o mundo está faminto por visões de um futuro positivo. Agora estamos mais dispostos a considerar noções alternativas de trabalho, educação e maneiras sustentáveis ​​e resilientes de fornecer energia, transporte, manufatura, habitação, assistência médica e outros serviços essenciais da civilização. Precisamos construir resiliência em toda a linha, mas vamos olhar para duas áreas próximas ao meu coração – energia e espaço – como exemplos de como a resiliência pode parecer em breve e em um futuro mais distante.

A Internet da Energia
As reduções dramáticas no custo de conversão da energia solar (tanto diretamente como luz solar e indiretamente como eólica) em eletricidade já estão trazendo um futuro de energia zero carbono ao alcance. Embora a popular imprensa de tecnologia tenha se concentrado na geração e conversão de energia, o verdadeiro desafio para um futuro com zero carbono está em melhorar tanto o armazenamento de energia quanto as redes de energia.

Avanços em ambas as áreas podem resultar em sistemas de energia mais resilientes, adicionando camadas de redundância e descentralização. Em tal rede, a falha em qualquer ponto não fará com que todo o sistema falhe. (Este é o tipo de resiliência que devemos ter como objetivo em todo o sistema operacional da civilização.)

A rede de energia elétrica que é a base da prosperidade no mundo desenvolvido é essencialmente o mesmo projeto desenvolvido por Westinghouse e Tesla há mais de um século. O advento de sistemas de conversão de energia eólica e solar de baixo custo agora está impulsionando caminhos para melhorar a maior máquina do mundo (como a rede foi descrita) para mover a eletricidade gerada a partir de energia renovável para clientes locais e distantes. Melhorar a rede e estender a disponibilidade de energia elétrica para cerca de um bilhão de pessoas que atualmente não têm acesso é uma importante meta de resiliência social e técnica.

Alguns compararam sistemas de grade aprimorados com a Internet. Mas existem diferenças significativas entre a Internet e a rede. A Internet tem canais de informação, como cabos de fibra ótica de alta capacidade, e grandes quantidades de armazenamento de informações na forma de farms de servidores. Em contraste, a rede elétrica de hoje tem capacidade quase zero de armazenar energia elétrica em grande escala.

Grande parte da energia usada pela sociedade hoje é produzida a partir da queima de combustíveis fósseis, que liberam dióxido de carbono na atmosfera junto com a energia armazenada da antiga luz solar. Na verdade, grande parte da utilidade desses combustíveis reside em sua capacidade de fornecer energia quando necessário e na taxa necessária para corresponder à carga de trabalho. Os combustíveis químicos não apenas fornecem armazenamento de energia, mas são convenientemente transportados por oleodutos, navios e outros meios. Em suma, eles estão no nexo de armazenamento de energia e redes de energia.

Combustíveis de carbono zero, como hidrogênio e amônia feitos de fontes sustentáveis ​​de energia, serão cada vez mais usados ​​não apenas como combustíveis para transporte, mas para uma nova camada de redes de transporte de energia elétrica. Dutos e outros métodos de transporte que movem combustíveis químicos irão aumentar a atual rede elétrica “com fio” e podem superá-la como um mecanismo de transporte de energia. Esses combustíveis químicos com zero de carbono podem ser usados ​​para produzir eletricidade em células a combustível que produzem água como produto residual (no caso do hidrogênio) ou nitrogênio – o principal constituinte de nossa atmosfera no caso da amônia.

Ter uma grade de energia em várias camadas, movendo a energia tanto “eletricamente” quanto “atomicamente” (como em átomos de combustível químico em movimento) fortalece o sistema de energia geral e o torna resiliente a picos de produção e demanda e danos físicos, como clima danos às linhas de energia. Hoje, os danos locais causados ​​por uma tempestade, por exemplo, podem cair em cascata. Uma pequena falha tem o poder de destruir uma região inteira.

Temos uma prova de existência muito dramática das oportunidades econômicas possibilitadas pelo desenvolvimento de redes resilientes. Quando a Agência de Projetos de Pesquisa Avançada (EUA) financiou a experimentação em telecomunicações flexíveis, a Arpanet resultante levou diretamente à Internet e à criação de riqueza sem precedentes que ela possibilitou. Também é impressionante observar como a Internet está ajudando o mundo a lidar com a crise da Covid-19.

A Arpanet foi criada para testar as comunicações de rede resilientes no caso de perda de rotas e nós de comunicação. Crédito da imagem: Arpanet Maps

Espaço: o caminho final da resiliência para a civilização
A atual revolução dos voos espaciais comerciais é um passo essencial para proteger a Terra e tornar a humanidade sustentável no futuro previsível. A primeira geração de atividades espaciais foi impulsionada pela competição geopolítica. O raciocínio político para Apollo pode ser expresso em quatro palavras: “Para derrotar os soviéticos.” (E, claro, a lógica soviética era a imagem espelhada dessa afirmação.)

Mas a verdadeira motivação para o vôo espacial é muito mais atraente.

Quando Peter Diamandis e eu começamos a Fundação XPRIZE, fomos inspirados pela visão da humanidade ganhando acesso à energia e aos recursos materiais do sistema solar e as melhores escolhas econômicas e sociais resultantes que a fuga humana para o espaço traria.

Usando materiais no espaço livre – fora dos poços de gravidade profunda dos planetas – podemos fornecer ambientes semelhantes à Terra com áreas terrestres equivalentes a milhares de Terras, capturar energia solar suficiente para abastecer as cidades e megacidades da Terra para sempre e permitir viagens rápidas por todo o sistema solar . As mesmas ferramentas e técnicas podem ser usadas para proteger a Terra de impactos de asteróides ou cometas.

Uma vez que a humanidade aprende a viver em qualquer lugar onde os átomos e a energia estejam disponíveis, nos tornamos impossíveis de matar como espécie. Na verdade, Frank Drake, o criador do SETI (a busca por inteligência extraterrestre) acredita que esses tipos de atividades de habitação espacial são a chave para civilizações de vida longa que melhoram muito a probabilidade de contato entre nós e outros na galáxia.

Ilustração da NASA de um habitat espacial giratório, construção de satélite de energia solar, mineração de asteroide e movimentação de um asteroide com um motor de reação mass-driver. Crédito da imagem: NASA / Denise Watt

Graças à astronomia moderna, estamos começando a entender que a biosfera da Terra é absolutamente única. De todos os milhares de planetas dentro e fora de nosso sistema solar, habitamos o único que atualmente se sabe que contém vida. Nossa profunda responsabilidade para com as gerações presentes e futuras de preservar e proteger esta biosfera é um caso convincente para a busca por resiliência.

Na verdade, a verdadeira razão para o voo espacial é “salvar a Terra”.

Vamos ao trabalho.

Gregg Maryniak para SingularityHub

Categorias
Blog

Computação quântica e aprendizado por reforço estão unindo forças para tornar a IA mais rápida

O aprendizado por reforço profundo está tendo um momento de superstar.

Alimentando robôs mais inteligentes. Simulando redes neurais humanas. Derrubando médicos em diagnósticos médicos e esmagando os melhores jogadores da humanidade em Go e Atari. Embora longe de alcançar o pensamento flexível e rápido que vem naturalmente aos humanos, essa poderosa ideia de aprendizado de máquina parece imparável como um prenúncio de máquinas pensantes melhores.

Exceto que há um grande obstáculo: eles demoram uma eternidade para funcionar. Como o conceito por trás desses algoritmos é baseado em tentativa e erro, um “agente” de IA de aprendizagem por reforço só aprende depois de ser recompensado por suas decisões corretas. Para problemas complexos, o tempo que um agente de IA leva para tentar e não conseguir aprender uma solução pode rapidamente se tornar insustentável.

Mas e se você pudesse tentar várias soluções ao mesmo tempo?

Esta semana, uma colaboração internacional liderada pelo Dr. Philip Walther da Universidade de Viena pegou o conceito “clássico” de aprendizagem por reforço e deu-lhe um spin quântico. Eles projetaram uma IA híbrida que depende tanto da computação quântica quanto da computação clássica comum e mostraram que – graças à peculiaridade quântica – ela poderia examinar simultaneamente um punhado de maneiras diferentes de resolver um problema.

O resultado é uma IA de aprendizagem por reforço que aprendeu mais de 60 por cento mais rápido do que seus pares não habilitados para quantum. Este é um dos primeiros testes que mostra que a adição de computação quântica pode acelerar o processo de aprendizagem real de um agente de IA, explicaram os autores.

Embora apenas desafiado com um “problema de brinquedo” no estudo, a IA híbrida, uma vez dimensionada, poderia impactar problemas do mundo real, como a construção de uma internet quântica eficiente. A configuração “poderia ser facilmente integrada em futuras redes de comunicação quântica em grande escala”, escreveram os autores.

O gargalo
Aprender com a tentativa e erro chega intuitivamente ao nosso cérebro.

Digamos que você esteja tentando navegar em um novo acampamento complicado sem um mapa. O objetivo é voltar do banheiro comunitário para o acampamento. Os becos sem saída e os loops confusos abundam. Enfrentamos o problema decidindo virar à esquerda ou à direita em cada ramal da estrada. Um nos aproximará da meta; o outro leva a meia hora de caminhada em círculos. Eventualmente, a química do nosso cérebro recompensa as decisões corretas, então aprendemos gradualmente a rota correta. (Se você está se perguntando … sim, história verdadeira.)

Os agentes de IA de aprendizagem por reforço operam de maneira semelhante por tentativa e erro. À medida que um problema se torna mais complexo, o número – e o tempo – de cada tentativa também sobe vertiginosamente.

“Mesmo em um ambiente moderadamente realista, pode simplesmente demorar muito para responder racionalmente a uma determinada situação”, explicou o autor do estudo, Dr. Hans Briegel, da Universität Innsbruck, na Áustria, que anteriormente liderou esforços para acelerar a tomada de decisões de IA usando quantum mecânica. Se houver pressão que permita “apenas um certo tempo para uma resposta, um agente pode então ser incapaz de lidar com a situação e aprender”, escreveu ele.

Muitas tentativas tentaram acelerar o aprendizado por reforço. Dando ao agente de IA uma “memória” de curto prazo. Aproveitando a computação neuromórfica, que se assemelha melhor ao cérebro. Em 2014, Briegel e colegas mostraram que uma espécie de “cérebro quântico” pode ajudar a impulsionar o processo de tomada de decisão de um agente de IA após o aprendizado. Mas acelerar o próprio processo de aprendizagem tem escapado às nossas melhores tentativas.

A Inteligência Artificial híbrida
O novo estudo foi direto para aquela jugular anteriormente insustentável.

O insight principal da equipe foi explorar o melhor dos dois mundos – computação quântica e clássica. Em vez de construir um sistema completo de aprendizado por reforço usando a mecânica quântica, eles se voltaram para uma abordagem híbrida que poderia se provar mais prática. Aqui, o agente de IA usa estranheza quântica enquanto tenta novas abordagens – a “tentativa” de tentativa e erro. O sistema então passa o bastão para um computador clássico para dar à IA sua recompensa – ou não – com base em seu desempenho.

No cerne do processo de “teste” quântico está uma peculiaridade chamada superposição. Fique comigo. Nossos computadores são alimentados por elétrons, que podem representar apenas dois estados – 0 ou 1. A mecânica quântica é muito mais estranha, pois os fótons (partículas de luz) podem ser simultaneamente 0 e 1, com uma probabilidade ligeiramente diferente de “inclinar-se para” um ou outro.

Essa estranheza evasiva é parte do que torna a computação quântica tão poderosa. Veja nosso exemplo de aprendizado por reforço de como navegar em um novo acampamento. Em nosso mundo clássico, nós – e nossa IA – precisamos decidir entre virar à esquerda ou à direita em um cruzamento. Em uma configuração quântica, no entanto, o AI pode (em certo sentido) virar para a esquerda e para a direita ao mesmo tempo. Portanto, ao buscar o caminho correto de volta à base, o sistema quântico tem uma vantagem, pois pode explorar simultaneamente várias rotas, tornando-o muito mais rápido do que a trilha e o erro convencionais e consecutivos.

“Como consequência, um agente que pode explorar seu ambiente em superposição aprenderá significativamente mais rápido do que sua contraparte clássica”, disse Briegel.

Nem tudo é teoria. Para testar a ideia, a equipe recorreu a um chip programável chamado processador nanofotônico. Pense nele como um chip de computador semelhante a uma CPU, mas ele processa partículas de luz – fótons – em vez de eletricidade. Esses chips movidos a luz levaram muito tempo para serem produzidos. Em 2017, por exemplo, uma equipe do MIT construiu uma rede neural totalmente óptica em um chip óptico para apoiar o aprendizado profundo.

Os chips não são tão exóticos. Processadores nanofotônicos agem como nossos óculos, que podem realizar cálculos complexos que transformam a luz que passa por eles. No caso dos óculos, eles permitem que as pessoas vejam melhor. Para um chip de computador baseado em luz, permite a computação. Em vez de usar cabos elétricos, os chips usam “guias de onda” para transportar fótons e realizar cálculos com base em suas interações.

A parte do “erro” ou “recompensa” do novo hardware vem de um computador clássico. O processador nanofotônico é acoplado a um computador tradicional, onde este fornece feedback ao circuito quântico – ou seja, recompensa ou não uma solução. Essa configuração, explica a equipe, permite que eles avaliem de forma mais objetiva quaisquer acelerações na aprendizagem em tempo real.

Desta forma, um agente de aprendizado de reforço híbrido alterna entre computação quântica e clássica, experimentando ideias em terreno “multiverso” vacilante, enquanto obtém feedback na “normalidade” da física clássica, fundamentada.

No cerne do processo de “teste” quântico está uma peculiaridade chamada superposição. Fique comigo. Nossos computadores são alimentados por elétrons, que podem representar apenas dois estados – 0 ou 1. A mecânica quântica é muito mais estranha, pois os fótons (partículas de luz) podem ser simultaneamente 0 e 1, com uma probabilidade ligeiramente diferente de “inclinar-se para” um ou outro.

Essa estranheza evasiva é parte do que torna a computação quântica tão poderosa. Veja nosso exemplo de aprendizado por reforço de como navegar em um novo acampamento. Em nosso mundo clássico, nós – e nossa IA – precisamos decidir entre virar à esquerda ou à direita em um cruzamento. Em uma configuração quântica, no entanto, o AI pode (em certo sentido) virar para a esquerda e para a direita ao mesmo tempo. Portanto, ao buscar o caminho correto de volta à base, o sistema quântico tem uma vantagem, pois pode explorar simultaneamente várias rotas, tornando-o muito mais rápido do que a trilha e o erro convencionais e consecutivos.

“Como consequência, um agente que pode explorar seu ambiente em superposição aprenderá significativamente mais rápido do que sua contraparte clássica”, disse Briegel.

Nem tudo é teoria. Para testar a ideia, a equipe recorreu a um chip programável chamado processador nanofotônico. Pense nele como um chip de computador semelhante a uma CPU, mas ele processa partículas de luz – fótons – em vez de eletricidade. Esses chips movidos a luz levaram muito tempo para serem produzidos. Em 2017, por exemplo, uma equipe do MIT construiu uma rede neural totalmente óptica em um chip óptico para apoiar o aprendizado profundo.

Os chips não são tão exóticos. Processadores nanofotônicos agem como nossos óculos, que podem realizar cálculos complexos que transformam a luz que passa por eles. No caso dos óculos, eles permitem que as pessoas vejam melhor. Para um chip de computador baseado em luz, permite a computação. Em vez de usar cabos elétricos, os chips usam “guias de onda” para transportar fótons e realizar cálculos com base em suas interações.

A parte do “erro” ou “recompensa” do novo hardware vem de um computador clássico. O processador nanofotônico é acoplado a um computador tradicional, onde este fornece feedback ao circuito quântico – ou seja, recompensa ou não uma solução. Essa configuração, explica a equipe, permite que eles avaliem de forma mais objetiva quaisquer acelerações na aprendizagem em tempo real.

Desta forma, um agente de aprendizado de reforço híbrido alterna entre computação quântica e clássica, experimentando ideias em terreno “multiverso” vacilante, enquanto obtém feedback na “normalidade” da física clássica, fundamentada.

Um boost quântico
Em simulações usando 10.000 agentes de IA e dados experimentais reais de 165 ensaios, a abordagem híbrida, quando desafiada com um problema mais complexo, mostrou uma clara vantagem.

A palavra-chave é “complexo”. A equipe descobriu que se um agente de IA tem uma grande chance de descobrir a solução de qualquer maneira – como para um problema simples – então a computação clássica funciona muito bem. A vantagem quântica floresce quando a tarefa se torna mais complexa ou difícil, permitindo que a mecânica quântica flexione totalmente seus músculos de superposição. Para esses problemas, o AI híbrido foi 63 por cento mais rápido no aprendizado de uma solução em comparação com o aprendizado por reforço tradicional, diminuindo seu esforço de aprendizado de 270 para 100 tentativas.

Agora que os cientistas mostraram um aumento quântico nas velocidades de aprendizado por reforço, a corrida pela computação da próxima geração está ainda mais acesa. O hardware fotônico necessário para comunicações baseadas em luz de longo alcance está diminuindo rapidamente, melhorando a qualidade do sinal. A configuração quântica parcial poderia “ajudar especificamente em problemas onde a pesquisa frequente é necessária, por exemplo, problemas de roteamento de rede” que prevalece para uma Internet em funcionamento, escreveram os autores. Com um aumento quântico, o aprendizado por reforço pode ser capaz de lidar com problemas muito mais complexos – aqueles do mundo real – do que é possível atualmente.

“Estamos apenas no início da compreensão das possibilidades da inteligência artificial quântica”, disse o autor principal Walther.

Shelly Fan para SingularityHub.

Categorias
Blog

O fantasma dos oceanos de magma da Terra Antiga

A história do nosso planeta está escrita em suas rochas. Você pode atravessar eras escovando os dedos sobre as camadas de uma parede de penhasco. Mas, a partir de certo ponto, o registro fica em branco. Embora a Terra tenha cerca de 4,5 bilhões de anos, as rochas mais antigas conhecidas datam de apenas cerca de 4 bilhões de anos atrás. Os movimentos implacáveis ​​das placas tectônicas da Terra reciclaram sua superfície.

Ainda assim, as pistas químicas podem nos levar mais para trás no tempo, quando a jovem Terra era um planeta de lava. Os cientistas acreditam que uma série de impactos gigantescos – o último dos quais formou a lua – liquidificou a superfície e formou oceanos de magma em todo o planeta com centenas de quilômetros de profundidade. As rochas desta era de fogo já se foram, mas seu fantasma continua vivo.

Em um novo estudo, publicado na Science Advances, cientistas da Universidade de Cambridge dizem que encontraram evidências de oceanos de magma da Terra antiga em rochas de 3,7 bilhões de anos na Groenlândia.

À medida que os oceanos de magma gradualmente resfriaram e se cristalizaram em rocha, o planeta que conhecemos – sua estrutura interna, superfície e atmosfera – começou a tomar forma. Compreender esta fase pode ajudar a explicar como a Terra evoluiu de um planeta infernal para o berço da vida.

Mas não é uma tarefa fácil.

“Existem poucas oportunidades para obter restrições geológicas sobre os eventos no primeiro bilhão de anos da história da Terra. É surpreendente que possamos até mesmo segurar essas rochas em nossas mãos – quanto mais obter tantos detalhes sobre a história inicial de nosso planeta ”, disse a autora principal, Dra. Helen Williams, do Departamento de Ciências da Terra de Cambridge.

Fui ao Inferno e voltei
À medida que a Terra esfriava e se cristalizava, os cientistas acreditam que pedaços densos de cristais recém-solidificados afundaram profundamente no manto inferior da Terra, perto do centro do planeta. Pensa-se que eles podem até existir hoje em “cemitérios de cristal antigos” para sempre fora de nosso alcance.

Mas e se restos, através dos tempos, se elevassem através do manto e ressurgissem na superfície por meio de erupções vulcânicas? A viagem pelo manto sem dúvida os transformaria por completo, mas, em teoria, os vestígios químicos de suas origens permaneceriam.

Foi essa teoria que a equipe de Cambridge procurou provar.

“A questão principal que me motivou foi, se pensamos que o estágio do oceano de magma foi importante para a história da Terra, por que não há evidências geológicas para isso?” Williams disse ao Gizmodo. “E se realmente tentássemos caçá-lo diretamente?”

As rochas vêm do cinturão supercrustal Isua da Groenlândia. O basalto ali – um tipo de rocha vulcânica – é famoso por ser o mais antigo da Terra, produzindo evidências para a vida mais antiga em nosso planeta, as primeiras placas tectônicas e agora, ao que parece, uma era ainda mais antiga.

“Foi uma combinação de algumas novas análises químicas que fizemos e os dados publicados anteriormente que nos sinalizaram que as rochas de Isua podem conter vestígios de material antigo”, disse a coautora Dra. Hanika Rizo, da Carleton University.

Usando análise química forense e modelagem termodinâmica, a equipe rastreou as origens das rochas da Groenlândia e seu caminho até a superfície.

Quando a rocha se aquece no interior do planeta, ela começa a subir pelo manto, eventualmente emergindo em eventos vulcânicos. Isótopos na rocha podem atuar como um registro de sua jornada, um pouco como carimbos em um passaporte. Neste caso, os cientistas encontraram o selo de isótopos de ferro únicos provavelmente formados em uma terra natal de extrema pressão, cerca de 430 milhas abaixo da superfície – uma região que os cientistas também esperam abrigar esses “cemitérios de cristal” do oceano de magma.

“Essas amostras com a impressão digital de ferro também têm uma anomalia de tungstênio – uma assinatura da formação da Terra – o que nos faz pensar que sua origem pode ser rastreada até esses cristais primitivos”, disse Williams.

Um estudo mais aprofundado de sua química revelou uma jornada tortuosa que incluiu várias fases de resfriamento, cristalização, aquecimento e refusão.

No entanto, apesar de sua transformação por eventos no interior, Williams escreveu em um artigo de Conversation sobre o estudo que “as rochas que surgiram, localizadas na atual Groenlândia, ainda retêm assinaturas químicas que as conectam ao passado coberto de magma da Terra.”

Uma história que ainda está sendo lida
Embora descobrir uma nova geoassinatura do passado antigo da Terra seja um passo empolgante, há muito mais trabalho a fazer. Quanto tempo os oceanos de magma duraram no planeta, por exemplo, e quanto do planeta eles cobriram? Agora que sabemos o que procurar, Williams diz que podemos pesquisar outros pontos de acesso vulcânico no Havaí ou na Islândia.

É uma investigação meticulosa, mas, aos poucos, a história inicial da Terra está sendo revelada. Seus segredos de longa data podem nos ajudar a explicar como o planeta que conhecemos hoje, tão adequado para seres vivos, se formou a partir do caldeirão do início do sistema solar.

Quanto mais sabemos sobre a história do nosso próprio planeta, mais vamos entender como ele e outros planetas se formam e, por extensão, como a vida começou aqui – e, talvez, em outros lugares também.

Jason Dorrier para SingularityHub

Categorias
Blog

NFTs: o hype de milhões de dólares

Alguns dias atrás, a artista Grimes vendeu algumas animações que fez com seu irmão Mac em um site chamado Nifty Gateway. Alguns eram únicos, enquanto outros eram edições limitadas de algumas centenas – e todos foram comprados em cerca de 20 minutos, com ganhos totais de mais de US $ 6 milhões.

Apesar do preço exorbitante, qualquer pessoa pode assistir ou (com um simples clique com o botão direito) salvar uma cópia dos vídeos, que mostram um querubim ascendendo sobre Marte, a Terra e paisagens imaginárias. Em vez de uma cópia dos próprios arquivos, os ansiosos compradores receberam um tipo especial de certificado negociável denominado “token não fungível” ou NFT. Mas o que eles estavam realmente pagando era uma aura de autenticidade – e a capacidade de um dia vender essa aura de autenticidade para outra pessoa.

Os NFTs são uma resposta cultural à criação de escassez técnica na Internet e permitem novos tipos de bens digitais. Eles estão fazendo incursões nos domínios da arte erudita, da música rock e até mesmo de novos mercados de massa de figurinhas virtuais da NBA. No processo, eles também estão tornando certas pessoas ricas.

Como funcionam os NFTs
NFTs são certificados digitais que autenticam uma reivindicação de propriedade de um ativo e permitem que ele seja transferido ou vendido. Os certificados são protegidos com tecnologia blockchain semelhante à que sustenta o Bitcoin e outras criptomoedas.

Um blockchain é uma alternativa descentralizada para um banco de dados central. Os blockchains geralmente armazenam informações de forma criptografada em uma rede ponto a ponto, o que os torna muito difíceis de hackear ou adulterar. Isso, por sua vez, os torna úteis para manter registros importantes.

A principal diferença entre NFTs e criptomoedas é que as moedas permitem o comércio fungível, o que significa que qualquer pessoa pode criar Bitcoins que podem ser trocados por outros Bitcoins. Os NFTs são, por definição, não fungíveis e são implantados como cadeias individuais de propriedade para rastrear um ativo específico. Os NFTs são projetados para restringir e representar exclusivamente uma reivindicação exclusiva de um ativo.

E é aqui que as coisas ficam estranhas. Freqüentemente, os NFTs são usados ​​para reivindicar a “propriedade” de um ativo digital que é completamente copiável, colável e compartilhável – como um filme, JPEG ou outro arquivo digital.

Então, o que é uma cópia digital original autêntica?
Online, é difícil dizer o que realmente significa autenticidade e propriedade. A cultura da Internet e a própria Internet foram impulsionadas pela cópia, colagem e remixagem para gerar novas formas de trabalho criativo autêntico.

A nível técnico, a Internet é precisamente um sistema para obter de forma eficiente e aberta uma sequência de uns e zeros deste computador e torná-los acessíveis nesse computador, em qualquer outro lugar. O conteúdo disponível online é normalmente o que os economistas chamam de “bens não rivais”, o que significa que uma pessoa assistindo, compartilhando ou remixando um arquivo não impede de forma alguma que outras pessoas façam o mesmo.

O compartilhamento constante resulta em uma variedade quase infinita de material para visualizar, compartilhar, copiar ou remixar em algo novo, criando as economias de abundância nas quais a cultura online prospera.

O TikTok é construído em torno da reimaginação de loops de áudio comuns com rituais visuais aparentemente intermináveis, mas únicos, que são eles mesmos imitados em variações aparentemente infinitas. No Twitter, os tweets são valiosos apenas na medida em que são retuitados. Notícias falsas só existem na medida em que o algoritmo do Facebook decide que o compartilhamento aumentará o engajamento por meio de mais compartilhamento.

Informação quer ser livre
A vida e a longevidade do conteúdo digital dependem de sua capacidade de propagação. Os ciber-libertários pioneiros da Internet tinham um lema para descrever isso: a informação quer ser gratuita. As tentativas de impedir a disseminação de informações online têm exigido historicamente a quebra de aspectos da tecnologia (como criptografia) ou regimes legais, como direitos autorais.

Os NFTs, no entanto, reúnem código e cultura para criar uma forma de controle que não depende da lei nem sabota os sistemas existentes. Eles criam um tipo único de “autenticidade” em um mundo que de outra forma seria compartilhável.

O que vem por aí?
Quase 40 anos atrás, o escritor canadense de ficção científica William Gibson descreveu o ciberespaço como uma “alucinação consensual” na qual bilhões de usuários concordaram que o mundo online era real. Os NFTs levam isso para o próximo nível: eles são uma alucinação consensual de que essa sequência de uns e zeros é diferente e mais autêntica do que aquela sequência (idêntica) de uns e zeros.

Os NFTs funcionam reintroduzindo uma alucinação mútua de escassez em um mundo de abundância. Compradores não faltam: o mercado de NFT já vale centenas de milhões de dólares. Mesmo os humildes cartões colecionáveis ​​de esportes nunca mais serão os mesmos.

Os NFTs são diferentes o suficiente para quebrar a Internet?
A função real dos NFTs é criar uma delimitação clara entre criadores e consumidores comuns de conteúdo online e aqueles privilegiados o suficiente para serem pagos para produzir conteúdo ou reivindicar a posse de um trabalho “autêntico”. A internet descentralizou a criação de conteúdo, mas os NFTs estão tentando recentralizar a distribuição da cultura.

Os NFTs facilitam a troca de dinheiro fungível por autenticidade não fungível. É um movimento bem conhecido que ocorre em todos os tipos de indústrias, e com uma longa história, bem, na história da arte.

Como o código de cultura dos NFTs evoluirá é uma incógnita, mas no momento, está abrindo uma série de novas maneiras de fazer dinheiro novo mudar de mãos.

À primeira vista, pode parecer que isso apresenta aos artistas em todos os lugares um recurso para serem pagos por seus trabalhos que, de outra forma, poderiam ser copiados. No entanto, a criação de regras normativas sobre o pagamento por conteúdo online não foi tão tranquila: pense nos pagamentos sem brilho que os músicos recebem de serviços de streaming como o Spotify.

Os NFTs também foram criticados por seu consumo excessivo de energia, porque dependem de muito poder do computador para criptografar seus tokens. De acordo com a calculadora online da CryptoArt, os cálculos necessários para criar NFTs para cada uma das animações de Grimes teriam usado eletricidade suficiente para ferver uma chaleira 1,5 milhão de vezes – e resultou em cerca de 70 toneladas de emissões de CO2. Não tenho certeza se o custo para as gerações futuras foi avaliado no valor de mercado atual, ou qualquer apreciação de que os tokens mudam de mãos criptograficamente.

Além de suas toneladas de emissões de CO2, o que é real sobre os NFTs é como sua criação de escassez técnica permite um novo acordo cultural sobre como algo pode ser autêntico e quem controla essa autenticidade. Os NFTs criam novas formas de hierarquia, poder e exclusão na web mais ampla. Eles já criaram um novo tipo de ricos e pobres.

Luke Heemsbergen para SingularityHub.

Categorias
Blog

Cientistas criaram um embrião artificial a partir de células da pele humana

Todos nós sabemos como funciona a reprodução humana: o espermatozóide encontra o óvulo, o óvulo fertilizado inicia sua jornada, se transforma em um embrião humano, depois se torna um feto e, por fim, um bebê.

Mas e se o “garoto encontrar a garota” não for o único caminho?

Na semana passada, dois estudos da Nature torpedearam a clássica narrativa do início da vida. Duas equipes independentes levaram as células normais da pele a formar um aglomerado vivo que parecia um óvulo humano fertilizado – e os primeiros estágios de um embrião humano em desenvolvimento.

As equipes não criaram um embrião artificial que pudesse se desenvolver em um bebê viável. Em vez disso, eles replicaram o que acontece durante os primeiros quatro dias após a fertilização do óvulo; ele se desenvolve em uma bola de células chamada blastocisto, a primeira estação em direção a um bebê totalmente formado.

Embora não tenham passado do estágio de blastocisto, ambos os modelos são de longe as réplicas mais completas de um embrião humano primitivo até hoje. Eles não contêm apenas células que crescem em um bebê, mas também todas as estruturas de suporte. Em apenas 10 dias dentro de uma incubadora do tipo gelatina, as células de engenharia reversa mostraram características surpreendentemente semelhantes às suas contrapartes naturais. Por exemplo, os embriões artificiais geram células que formam a placenta, o que é fundamental para um embrião viável que poderia, em teoria, se desenvolver mais ou até mesmo até o nascimento.

“É o primeiro modelo completo do embrião humano em fase inicial”, disse o Dr. Jianping Fu, da Universidade de Michigan, que não esteve envolvido no estudo, mas escreveu um artigo sobre perspectivas. “Este é um marco importante.”

Esses estudos podem fornecer informações anteriormente inexplicáveis sobre infertilidade ou perda de gravidez sem fazer experiências em embriões humanos.

No entanto, a sofisticação dessas células está causando preocupação. Por enquanto, como os embriões artificiais diferem dos naturais de várias maneiras, os cientistas não esperam que eles tenham a capacidade de se transformar em embriões completos. À medida que as tecnologias se refinam ainda mais, no entanto, pode ser possível cultivar embriões humanos artificiais por períodos mais longos, colocando a tecnologia em rota de colisão com debates sobre o início da vida.

Os mistérios do Desenvolvimento Humano
Os primeiros 14 dias de construção de um ser humano são um mistério.

Os cientistas sabem que, durante a gravidez, um óvulo fertilizado se transforma em blastocisto por volta do quarto dia e se implanta por volta do oitavo dia. Por volta dessa época, algo “mágico” acontece dentro do blastocisto, de forma que ele produz células que eventualmente se desenvolvem na placenta e outras que dão origem ao feto.

O problema? Este estágio inicial é incrivelmente difícil de estudar. Até agora, os cientistas confiaram em embriões humanos descartados no laboratório – muitas vezes de párias da FIV – que podem crescer até 13 dias de acordo com as diretrizes éticas. Esses tecidos são difíceis de encontrar e, neste estágio, disse o Dr. Jun Wu, do Centro Médico Sul da Universidade do Texas, o proto-embrião é “essencialmente uma caixa preta”.

Os cientistas já tentaram replicar os primeiros dias de desenvolvimento usando embriões de camundongo. Em 2018, uma equipe cultivou blastocistos semelhantes a partir de células-tronco de camundongos – um esforço admirável, mas não um modelo perfeito, já que camundongos e humanos têm trajetórias de desenvolvimento diferentes.

Como eles fizeram isso
Os dois novos estudos representam a primeira vez que os cientistas foram capazes de fazer estruturas semelhantes a blastocistos a partir de células humanas.

Em um estudo, o Dr. Jose Polo, da Monash University, começou com uma receita publicada anteriormente. Aqui, as células da pele são gentilmente raspadas e banhadas em uma sopa química que as retorna ao estado de células-tronco, o que significa que elas recuperam a capacidade de produzir outros tipos de células. A partir daí, as pseudo células-tronco (chamadas iPSCs) são banhadas em um líquido nutritivo em uma placa de Petri. A centelha de percepção da equipe veio quando eles perceberam que, após três semanas, as células começaram a se ramificar em um potpourri de três tipos diferentes de células encontrados nos primeiros embriões humanos – algo raramente visto antes.

Inspirada, a equipe então transferiu as células para um sistema de cultura 3D semelhante a gelatina para suporte. Estranhamente, as células começaram a se automontar com vontade própria. “O que foi completamente surpreendente é que, quando você as junta, elas se auto-organizam”, disse Polo.

O estranho momento “células, se unam” levou a equipe a analisar sua genética. Para o choque dos pesquisadores, eles descobriram que essas estruturas semelhantes a embriões, chamadas de “iBlastoides”, tinham uma organização e um componente celular semelhantes aos de sua contraparte natural. Uma camada, por exemplo, era povoada por células com uma assinatura genética que as destinava como parte de uma placenta. Outros pareciam notavelmente semelhantes a células que eventualmente se desenvolvem em um feto inteiro.

O iBlastoide, em certo sentido, parecia um blastocisto normal depois de se implantar no útero – sem muita sondagem dos pesquisadores.

No outro artigo, a equipe usou uma mistura de células humanas e células-tronco para criar o que eles chamaram de “blastóide humano”. Assim como no estudo anterior, os embriões artificiais eram de tamanho e forma semelhantes aos de suas contrapartes naturais e tinham um perfil genético comparável. Usando um teste que se assemelha à implantação em um útero, mas em um prato de cultura, os blastóides se fixaram e continuaram a se desenvolver, com alguns se reorganizando em estruturas que imitam o próximo estágio de desenvolvimento.

Bebês de tubo de ensaio?
Apesar de sua semelhança assustadora com a coisa real, por enquanto, enfatizam os autores, os blastoides ainda não são algo real. Algumas de suas camadas de células não parecem se formar muito bem e algumas têm tipos de células que não deveriam estar lá. Uma taxa de eficiência de 10% na conversão bem-sucedida de pele em blastóide também causa calafrios em qualquer cientista.

No entanto, todos esses problemas podem ser superados, e o potencial dos blastóides não é esquecido pelos especialistas. Apesar das deficiências, eles são os primeiros “modelos de embriões humanos derivados de células cultivadas” e têm “todas as células fundadoras” para o crescimento de um feto, disse Fu. Pela primeira vez, podemos ser capazes de testar as causas potenciais de infertilidade ou perda de gravidez com um rendimento muito maior, que pode então ser verificado posteriormente.

“Você poderia usar 1.000 ou 10.000 iBlastoides para descobrir algo e, então, testar essa descoberta em três blastocistos”, disse Polo.

À medida que a tecnologia é otimizada ainda mais, a difícil questão da identidade de um blastóide não pode ser ignorada. Considerando sua semelhança com a coisa real, em que ponto eles devem ser tratados como embriões humanos clonados? É ético destruí-los? Atualmente, embriões humanos podem crescer no laboratório por 14 dias internacionalmente. Essas regras se aplicam?

Olhando para o futuro, o debate vai ainda mais longe. Os cientistas vêm trabalhando para reprogramar células da pele em células reprodutivas há anos, em um esforço para ajudar casais que não podem conceber de outra forma. Camundongos saudáveis ​​já nasceram de células da pele transformadas em óvulos. Mesmo estando longe, os estudos atuais estão dando um passo nessa direção.

Um estudo separado na semana passada mostrou que é possível desenvolver um feto de camundongo durante metade de sua gestação em um útero artificial – um recorde para os mamíferos, e que ainda dissocia a reprodução da antiga história de “espermatozóide encontra óvulo”. Podemos um dia clonar um bebê humano usando as células da pele de alguém e depois cultivá-lo em um útero artificial sem nenhuma semelhança com a reprodução natural? Nós deveríamos?

Shelly Fan para SingularityHub.

Categorias
Blog

Esses satélites capturam imagens em ultra HD mesmo quando está escuro ou nublado

No final de janeiro deste ano, um foguete SpaceX Falcon 9 estabeleceu um novo recorde. Levou 143 satélites, a maior quantidade já lançada de uma vez, à órbita. Foi a primeira missão SmallSat Rideshare da SpaceX e muitos dos satélites a bordo eram minúsculos – quase do tamanho de uma caixa de correio. Mas dois deles eram um pouco maiores do que isso e estão fazendo um trabalho bastante impressionante de sua posição 525 quilômetros (326 milhas, altitude nominal) acima da superfície da Terra.

Capella-3 e Capella-4 pertencem à Capella Space, startup de imagens de satélites sediada em São Francisco. Eles se juntaram ao Capella-2, que foi lançado em agosto de 2020 (Capella-1 foi um protótipo lançado em 2018), e a empresa divulgou as primeiras imagens capturadas pelos novos satélites na semana passada.

Temple of Heaven Park em Beijing. Crédito: Capella Space

As imagens são significativas por alguns motivos. Eles usam uma tecnologia chamada radar de abertura sintética, que emite ondas de rádio muito mais longas do que as usadas para criar imagens ópticas (de uma câmera, usando luz visível). As ondas refletem de volta da Terra de maneiras diferentes, dependendo das características do alvo; por exemplo, aço ou outros metais enviarão de volta um sinal diferente do que árvores, água ou concreto.

A resolução das imagens fica mais alta à medida que a antena que envia as ondas de rádio fica mais longa. Mas é impossível ter antenas longas o suficiente para produzir imagens de alta qualidade; de acordo com EarthData da NASA, para obter uma resolução espacial de 10 metros de um satélite operando em um comprimento de onda de cerca de 5 centímetros, você precisaria de uma antena com mais de 47 campos de futebol.

É aqui que entra a peça “sintética”. No lugar de uma antena do tamanho de um campo de futebol, uma antena curta envia uma série de ondas de rádio. Em seguida, eles são combinados para produzir dados semelhantes aos que seriam produzidos por uma antena muito mais longa – neste caso, imagens de alta resolução. As imagens podem voltar distorcidas dependendo do ângulo em que as ondas de rádio são enviadas, objetos que interferem nelas, altura e posicionamento de objetos alvo, etc. – mas eles podem ser ajustados usando métodos especiais de análise de dados e acabam dando um imagem muito precisa da área-alvo.

As imagens que Capella divulgou na semana passada são da base do submarino nuclear Rybachiy na Rússia, do Templo do Céu em Pequim e do parque India Gate de Delhi.

Base submarina nuclear de Rybachiy na Rússia Ocidental. Crédito: Capella Space

O que é mais único e promissor sobre as imagens de radar de abertura sintética é que você não precisa de bom tempo ou mesmo luz do dia para capturá-las. As ondas de rádio podem ser refletidas na Terra de dia ou de noite e podem atravessar as nuvens ou a poluição.

“Você pode ter milhares de satélites ópticos, mas estará limitado apenas a 25 por cento da Terra. Temos acesso a toda a Terra, o tempo todo ”, disse o CEO da Capella, Payam Banazadeh, à CNBC. O objetivo da empresa é entrar no mercado de inteligência, vigilância e reconhecimento, que se concentra em agências governamentais como a CIA. “O maior cliente de imagens geoespaciais do mundo é o governo dos Estados Unidos”, disse Banazadeh. “É aí que está a grande oportunidade a curto prazo e é um mercado enorme [com] demanda não atendida.”

A empresa já tem contratos com o National Reconnaissance Office e a Força Aérea dos Estados Unidos e observa que os clientes podem usar suas imagens para fins de monitoramento de infraestrutura, compreensão de padrões econômicos e geopolíticos, reconhecimento de atividades anômalas e identificação de objetos como carros, caminhões e embarcações com alta resolução espacial e temporal. “As primeiras imagens claras de Capella-3 e Capella-4 oferecem apenas uma pequena amostra de como nossa tecnologia SAR pode dar suporte eficaz a esses casos de uso”, escreveu Banazadeh na semana passada em um blog.

India Gate Park em Delhi. Crédito: Capella Space

A Capella projeta, constrói e opera seus próprios satélites (e é a primeira empresa nos Estados Unidos a fazer tudo isso internamente), tendo sua própria plataforma de software e análise de dados. Eles estão usando o Amazon Web Services para armazenamento e realizar o processamento de dados e esperam multiplicar a quantidade de dados anuais coletados por várias centenas, nos próximos quatro anos.

A resolução de imagem da Capella de 50 cm por 50 cm significa que suas imagens são mais nítidas do que as de qualquer outro provedor comercial de imagens de satélite; cada pixel da imagem representa um pedaço de chão de 50 por 50 centímetros. Isso significa, como aponta a CNBC, que um carro de quatro metros de comprimento por dois de largura apareceria na imagem de satélite como oito pixels por quatro pixels. Isso é incrível quando você considera que o satélite está a centenas de quilômetros de distância.

A Capella Space arrecadou US $ 82 milhões em financiamento até agora e foi recentemente nomeada uma das 10 empresas espaciais mais inovadoras da Fast Company em 2021. Eles planejam lançar mais seis satélites este ano.

Vanessa Ramirez para SingularityHub.