Na corrida para construir um computador quântico viável —um sonho na interseção entre física avançada e ciência da computação desde os anos 1980— a linha de chegada pode estar à vista.
Uma série de avanços técnicos recentes significa que as principais empresas de tecnologia estão competindo para se tornarem as primeiras a expandir para sistemas completos e funcionais o que até agora foi uma série de experimentos de laboratório.
Em junho, a IBM tornou-se a mais recente empresa a afirmar que estava mais próxima de uma máquina de escala completa, após publicar um projeto para um computador quântico que resolveu problemas críticos de designs anteriores. A tecnologia tem o potencial de resolver problemas que as máquinas atuais não conseguem em campos como ciência de materiais e IA.
“Não parece mais um sonho”, disse Jay Gambetta, chefe da iniciativa quântica da IBM. “Eu realmente sinto que deciframos o código e seremos capazes de construir essa máquina até o final da década.”
Isso intensificou uma corrida contra o Google, que superou um dos maiores obstáculos restantes no final do ano passado e diz que também está a caminho de construir um computador quântico de escala industrial até o final da década.
“Todos os desafios de engenharia e científicos [restantes] são superáveis”, disse Julian Kelly, chefe de hardware do Google Quantum AI.
No entanto, mesmo enquanto deixam para trás alguns dos problemas científicos mais difíceis e se preparam para um impulso até a linha de chegada, as empresas ainda enfrentam uma série de problemas de engenharia aparentemente mais rotineiros, mas ainda difíceis, para industrializar a tecnologia.
Os obstáculos restantes “parecem tecnicamente menos desafiadores do que a física fundamental, mas não devemos subestimar esse esforço de engenharia para escalar”, disse Oskar Painter, executivo responsável pelo hardware quântico na Amazon Web Services. Ele afirma que um computador quântico útil ainda está de 15 a 30 anos de distância.
Atingir a escala industrial significa levar sistemas que compreendem menos de 200 qubits —os blocos de construção básicos para máquinas quânticas— e expandi-los para 1 milhão de qubits ou mais. As empresas envolvidas comparam isso aos primeiros dias da computação convencional, embora os computadores quânticos apresentem desafios adicionais.
Entre os mais difíceis está a instabilidade inerente dos qubits, que mantêm seus estados quânticos —quando podem realizar cálculos úteis— por apenas frações minúsculas de segundo. Isso leva à incoerência, ou “ruído”, à medida que números cada vez maiores de qubits são adicionados.
Uma demonstração gráfica dos limites de escala ocorreu quando a IBM aumentou o número de qubits em seu chip experimental Condor para 433, levando a “crosstalk”, ou interferência, entre os componentes.
Empilhar números maiores de qubits juntos dessa forma “cria um efeito bizarro que não podemos mais controlar”, disse Subodh Kulkarni, CEO da Rigetti Computing, uma startup americana que também trabalha com qubits feitos de supercondutores, a mesma tecnologia usada pela IBM e Google. “Esse é um problema de física desagradável para resolver.”
Gambetta disse que a IBM havia antecipado a interferência vista em seu chip Condor, e que havia passado para um novo tipo de acoplador para conectar seus qubits, tornando seus sistemas menos suscetíveis ao problema.
Nos primeiros sistemas experimentais, os qubits foram “ajustados” individualmente para melhorar o desempenho. A complexidade e o custo tornam isso impraticável em maior escala, levando à busca por componentes mais confiáveis —algo que exigirá melhorias constantes na fabricação, bem como novos avanços em materiais.
O Google também diz que pretende reduzir os custos dos componentes por um fator de 10 para atingir seu custo-alvo de US$ 1 bilhão para uma máquina de escala completa.
As empresas dizem que seus sistemas serão capazes de tolerar um grau de imperfeição nos qubits graças a uma técnica conhecida como “error correction”. Ela funciona copiando dados entre vários qubits, criando redundância para quando qualquer componente individual falhar.
Até agora, apenas o Google demonstrou um chip quântico capaz de realizar correção de erros conforme seu tamanho aumenta. De acordo com Kelly, qualquer empresa que tente escalar sem primeiro atingir esse ponto acabaria com “uma máquina muito cara que produz ruído, consome energia e muito tempo das pessoas e esforço de engenharia e não fornece valor algum”.
Outros, no entanto, não diminuíram suas tentativas de escalar, embora nenhum tenha ainda igualado o Google.
A IBM disse que seu foco está no que chamou de desafio mais importante, de mostrar que pode operar um sistema em escala muito grande, enquanto também questiona se a abordagem do Google para correção de erros funcionará em um sistema completo.
A técnica usada pelo Google, conhecida como código de superfície, funciona conectando cada qubit em uma grade bidimensional aos seus vizinhos mais próximos. Isso depende de um número relativamente grande de qubits trabalhando juntos e requer que o sistema atinja 1 milhão de qubits ou mais para realizar cálculos úteis.
A Microsoft disse que decidiu não seguir um design semelhante depois de decidir que tentar construir máquinas de 1 milhão de qubits apresentava muitos outros desafios de engenharia.
A IBM mudou de rumo para uma forma diferente de correção de erros, conhecida como código de verificação de paridade de baixa densidade, que afirma exigir 90% menos qubits do que o Google. No entanto, isso depende de conexões mais longas entre qubits que estão mais distantes, um desafio tecnológico difícil que a deixou para trás.
Kelly, do Google, disse que a técnica da IBM adicionou novos níveis de complexidade a sistemas que já eram extremamente difíceis de controlar, embora a IBM tenha afirmado no mês passado ter conseguido criar conectores mais longos pela primeira vez.
O design mais recente da IBM parecia capaz de produzir uma máquina viável e de grande escala, disse Mark Horvath, analista da Gartner, embora tenha acrescentado que sua abordagem ainda existia apenas em teoria. “Eles precisam mostrar que conseguem fabricar chips que podem fazer isso”, disse ele.
Independentemente do design, as empresas enfrentam muitos outros desafios comuns de engenharia.
Elas precisam reduzir o emaranhado de fios dentro dos primeiros sistemas quânticos, encontrando novas maneiras de conectar um grande número de componentes em chips únicos, e depois conectar vários chips em módulos. Também exigirá refrigeradores muito maiores e especializados para abrigar sistemas de escala completa, que operam em temperaturas extremamente baixas.
Questões como essas destacam decisões básicas de design que podem ser críticas à medida que os sistemas crescem.
Aqueles que usam supercondutores como qubits, como os do Google e IBM, mostraram alguns dos maiores avanços, embora seus qubits sejam mais difíceis de controlar e precisem operar em temperaturas próximas ao zero absoluto.
Sistemas rivais que usam átomos como qubits —conhecidos como íons aprisionados e átomos neutros— ou aqueles que usam fótons prometem ser inerentemente mais estáveis. Mas enfrentam vários outros obstáculos, incluindo a dificuldade de conectar seus clusters de qubits em sistemas maiores e superar sua velocidade de computação mais lenta.
Os custos e desafios técnicos de tentar escalar provavelmente mostrarão quais são mais práticos.
Sebastian Weidt, CEO da Universal Quantum, uma startup britânica que trabalha com íons aprisionados, disse que as decisões governamentais sobre quais tecnologias apoiar durante este período provavelmente desempenhariam um grande papel na redução do investimento para “um número menor de players que podem chegar até o fim”.
Em um sinal de crescente interesse oficial em separar os vencedores, a Darpa, a agência de pesquisa avançada do Pentágono, iniciou no ano passado um amplo estudo de diferentes empresas quânticas com o objetivo de identificar quais poderiam ser expandidas para atingir um tamanho prático mais rapidamente.
Enquanto isso, várias empresas recentemente apresentaram designs radicalmente novos para qubits, que dizem ser mais controláveis.
Entre elas estão a Amazon e a Microsoft, que afirmam ter dominado um estado da matéria para criar componentes mais confiáveis. Essas tecnologias estão em um estágio muito mais inicial de desenvolvimento, mas seus apoiadores afirmam que ultrapassarão as outras.
Isso não desacelerou as empresas que usam técnicas mais antigas que estão em desenvolvimento há anos. “Só porque é difícil, não significa que não possa ser feito”, disse Horvath, ecoando a confiança que alimenta a corrida da indústria.