IMAGEM: Divulgação/Google

O limite da computação foi alcançado, agora, é a vez da computação quântica

A era da computação clássica está no limite. A próxima revolução já começou: a computação quântica.

TECNOLOGIA

Por Bruno Jardim

9/18/20255 min read

Antes de falarmos sobre computação quântica, essa tecnologia emergente que promete transformar indústrias inteiras, da saúde à segurança de dados, é importante entender de onde ela vem. Para compreender como chegamos ao ponto de usar partículas subatômicas como unidades de informação, precisamos voltar no tempo, para o início do século XX, quando os primeiros sinais de que o mundo era mais estranho do que imaginávamos começaram a aparecer.

Naquela época, os físicos acreditavam que já haviam desvendado quase todos os mistérios do universo. Mas algo curioso começou a acontecer: fenômenos observados em laboratório não faziam sentido dentro das regras da física clássica. Um deles foi o chamado efeito fotoelétrico. Imagine uma chapa de metal sendo iluminada por uma lanterna, em vez de apenas esquentar, ela começava a liberar elétrons, pequenas partículas carregadas de energia. Isso parecia mágica aos olhos da física tradicional.

Em 1905, Albert Einstein explicou que a luz vinha em pequenos pacotes de energia, os quanta. Era como se a luz fosse feita de balas energéticas capazes de derrubar elétrons. Essa ideia não apenas lhe rendeu um Prêmio Nobel, como também deu início à chamada revolução quântica.

Nos anos seguintes, o quebra-cabeça só aumentou. Max Planck, Niels Bohr, Erwin Schrödinger e Werner Heisenberg lançaram os fundamentos da mecânica quântica. Bohr sugeriu que os elétrons giravam em órbitas específicas, como planetas seguindo trilhas invisíveis. Schrödinger propôs que as partículas eram também ondas. E Heisenberg mostrou que não podíamos saber tudo sobre uma partícula ao mesmo tempo, como tentar capturar a posição exata de uma bexiga de sabão flutuando no ar.

Essas ideias, embora parecessem absurdas, foram confirmadas por experimentos e mudaram para sempre a nossa forma de ver o universo. Agora, mais de um século depois, estamos começando a usar esses mesmos princípios para criar computadores capazes de resolver problemas que os supercomputadores atuais levariam séculos.

Primeiro processador quântico da Microsoft, Majorana 1 é a aposta da companhia para a nova era da computação (Imagem: Divulgação/Microsoft)

Os limites da computação clássica

Durante décadas, os computadores clássicos passaram por uma impressionante trajetória de miniaturização e ganho de desempenho. Os primeiros modelos, nos anos 1940, ocupavam salas inteiras, usavam válvulas a vácuo e realizavam cálculos simples em horas. Com o tempo, vieram os transistores, os circuitos integrados e, mais tarde, os microprocessadores, permitindo o surgimento de computadores pessoais, laptops e smartphones.

Um dos princípios que guiou essa evolução foi a chamada Lei de Moore, formulada por Gordon Moore, cofundador da Intel, na década de 1960. Ela previa que o número de transistores em um chip dobraria a cada 18 a 24 meses, o que, na prática, significava computadores cada vez mais poderosos e baratos.

Essa previsão se manteve por mais de cinco décadas, mas, nos últimos anos, começamos a nos aproximar de um limite físico intransponível. Os transistores atuais já têm dimensões de poucos nanômetros. Nesse nível, os efeitos da mecânica quântica tornam-se inevitáveis. O tunelamento quântico, por exemplo, faz com que elétrons atravessem barreiras, gerando vazamentos de corrente elétrica e instabilidades.

Além dos limites físicos, há também limites computacionais. Problemas como fatoração de grandes números primos (base da criptografia), simulação precisa de moléculas e otimização de cadeias logísticas permanecem inalcançáveis para máquinas clássicas. O tempo necessário cresce exponencialmente, tornando inviável mesmo para supercomputadores.

Essas limitações nos levam a buscar uma nova arquitetura: a computação quântica, que surge não como substituta, mas como complemento à lógica binária.

A Computação Quântica

Diferente dos bits (0 ou 1), a computação quântica usa qubits, capazes de estar em 0 e 1 ao mesmo tempo (superposição) e de influenciar uns aos outros à distância (entrelaçamento). Essas propriedades permitem explorar múltiplos caminhos simultaneamente, gerando saltos exponenciais de desempenho.

Desde 2019, quando o Google anunciou que seu processador Sycamore completou em 200 segundos um cálculo que levaria milhares de anos em um supercomputador clássico, a corrida global ganhou fôlego. Em 2023, a empresa apresentou o processador Willow, com 105 qubits, capaz de realizar, em minutos, operações que levariam mais que a idade do universo em sistemas clássicos.

Esse entusiasmo também se reflete em investimentos públicos e privados:

  • Em setembro de 2025, o estado do Novo México anunciou US$ 315 milhões em infraestrutura quântica.

  • No Reino Unido, empresas como Oxford Quantum Circuits já oferecem computação quântica com correção de erros em data centers comerciais.

  • A Quantinuum fechou um acordo de US$ 1 bilhão com o governo do Catar para aplicações em genômica, segurança e modelagem molecular.

Impactos por setor

  • Materiais e energia: descoberta de baterias de alta densidade e supercondutores.

  • Saúde e biomedicina: aceleração no desenvolvimento de medicamentos.

  • Genética: terapias personalizadas a partir da análise de grandes volumes de dados.

  • Segurança de dados: construção de canais de comunicação teoricamente invioláveis.

Segundo a McKinsey & Company, o mercado global de computação quântica deve movimentar US$ 97 bilhões até 2035, impactando inteligência artificial, química, logística, finanças e defesa.

Estamos testemunhando o início de uma nova era. A computação quântica não é apenas uma tecnologia emergente, mas um novo paradigma que exige aprendizado, investimento e visão estratégica.

Leia mais...