Processador quântico do Google pode alcançar a supremacia quântica em meses

nquanto eu disse há alguns meses que nós encontraríamos uma maneira de trazer a Lei de Moore de volta, eu não esperava que fosse assim tão rápido. Em um novo relatório da revista Quanta, Kevin Hartnett, Hartmut Neven, diretor do Quantum Artificial Intelligence Lab, revela que o crescimento de poder com cada nova melhoria do melhor processador quântico do Google é diferente de qualquer coisa encontrada na natureza. Ela está crescendo não apenas em uma taxa exponencial, como na Lei de Moore, mas em uma taxa duplamente exponencial, o que significa que podemos estar a apenas alguns meses de distância do início da era da computação quântica.

 O trabalho de Hartnett deveria ser uma grande alerta para o mundo. À medida que avançamos, pensando que o amanhã seria mais ou menos como hoje, algo extraordinário parece estar ocorrendo nos laboratórios de inteligência artificial do Google em Santa Barbara, na Califórnia, nos Estados Unidos. Em dezembro de 2018, Neven e sua equipe começaram a executar um cálculo no melhor processador quântico da empresa quando começaram a ver algo inacreditável.

“Eles conseguiram reproduzir a computação do processador quântico usando um laptop comum”, escreve Hartnett. “Então, em janeiro, eles fizeram o mesmo teste em uma versão aprimorada do chip quântico. Dessa vez, eles precisaram usar um poderoso computador para simular o resultado. Em fevereiro, não havia mais computadores clássicos no prédio que pudessem simular, os pesquisadores tiveram que pedir na enorme rede de servidores do Google para fazer isso.”

“Em algum momento em fevereiro eu tive que fazer ligações para dizer: ‘Ei, precisamos de mais cota’”, disse Nevens a Hartnett. “Estávamos executando trabalhos compostos por um milhão de processadores”.

O processador quântico de alto desempenho do Google estava fazendo algo que não tem paralelos óbvios na natureza. “O crescimento duplamente exponencial”, escreve Hartnett, “é tão singular que é difícil encontrar exemplos disso no mundo real. A taxa de progresso da computação quântica pode ser a primeira.”

A aceleração incomparável das velocidades de computação quântica que Neven identificou pela primeira vez começou a ser chamada de Lei de Neven pelos pesquisadores do Google em uma referência não tão sutil à Lei de Moore da computação clássica, mas com uma diferença. Eles são de um tipo, mas o que está acontecendo no Google não é simplesmente o retorno da Lei de Moore para a era quântica; a Lei de Neven está nos mostrando que podemos estar prestes a mergulhar em um mundo totalmente estranho em apenas alguns meses.

Por que a lei de Moore continua a ser importante mesmo depois de acabar

Na última década, cientistas e engenheiros da computação previram o fim aparentemente abrupto do progresso da Lei de Moore. Uma diretriz aproximada diz que um transistor de silício pode ser reduzido em tamanho por cerca da metade a cada dois anos, está funcionalmente morta há pelo menos dois anos.

Enquanto vivia, no entanto, era capaz de colocar cada vez mais transistores em chips de vários tamanhos, servidores, depois computadores pessoais e agora dispositivos móveis. A cada dois anos, cada novo dispositivo não era apenas uma melhoria; haveria mudanças tecnológicas revolucionárias tanto quanto duas ou três vezes em uma única década.

A duplicação do poder de processamento em cada geração de chips de computador a cada dois anos e a conseqüência dessa taxa de crescimento é o salto dado pelos computadores de cartões calculando as trajetórias de voo dos astronautas da Apollo rumo à Lua até o nascimento e o amadurecimento dos chips. Internet, dispositivos rápidos em nossos bolsos e redes neurais que podem administrar toda a infra-estrutura de serviço civil das cidades da China em menos de 50 anos.

O salto tecnológico que a humanidade fez com o transistor de silício foi a maior inovação da história humana. Nenhuma outra descoberta ou invenção, nem mesmo o fogo, transformou tanto, tão rápido em nossa experiência humana – e sabemos há pelo menos uma década que esse ritmo de mudança não poderia durar para sempre. Como os transistores são reduzidos a apenas sete nanômetros, os engenheiros estão lutando para manter uma carga elétrica fluindo em canais cujas paredes são apenas de átomos.

Faça o transistor menor, e a corrente elétrica que alimenta os cálculos e a lógica do processador simplesmente salta o canal ou vaza para fora do componente, depois que os átomos destinados a conter o fluxo de elétrons são interrompidos com o tempo.

À medida que mais transistores começam a falhar e vazam seus elétrons em outros componentes, eles também se desgastam mais rápido e experimentam taxas mais altas de erro, inibindo o desempenho do processador como um todo até que tudo se torne uma peneira inútil de elétrons.

Como os engenheiros não conseguem estabilizar os componentes do processador se eles forem menores, o chip de silício atingiu seu limite físico – pondo um fim à Lei de Moore e com isso a expectativa de que daqui a dois anos os computadores serão duas vezes mais rápidos do que os atuais.

Podemos ver o potencial tecnológico atingindo o horizonte; chegar tão perto e ser restringido pelas leis físicas é o tipo de coisa que primeiro nos levou a inovar em primeiro lugar.

Então, o que você faz se não conseguir fazer um computador mais rápido usando escalas atômicas? Cientistas e engenheiros inevitavelmente deram o próximo passo e procuraram por algo menor que o átomo para uma resposta, para a mecânica quântica.

O mundo quântico

O mundo quântico, no entanto, não é como o mundo clássico. Partículas subatômicas exóticas se comportam de maneiras difíceis. Eles podem passar direto pelas leis fundamentais da física sem perder um passo, como o emaranhamento quântico acontece quando partículas pareadas se comunicam instantaneamente umas com as outras, mesmo que estejam em lados opostos do universo.

O próprio Schroedinger, um dos principais descobridores da mecânica quântica, propôs seu famoso experimento de pensamento sobre um gato em uma caixa que está vivo e morto ao mesmo tempo para demonstrar o quão absolutamente absurdas suas teorias estavam se tornando. Ele não podia acreditar que era exatamente como parecia.

Por mais enlouquecedor que seja, o fato inevitável é que o gato de Schroedinger está realmente vivo e morto ao mesmo tempo e permanecerá assim até que um observador abra a caixa para checá-la; esse é o momento em que o universo tem que decidir, de forma puramente aleatória, qual é o estado final do gato.

Não só esta superposição do gato de Schroedinger foi provada na prática, mas a superposição de partículas é também de onde vem o poder de um computador quântico.

Ao operar em uma partícula em superposição – chamada de bit quântico, ou qubit – muito mais dados podem ser contidos na memória quântica com muito menos bits que em computadores clássicos, e operações em um qubit se aplicam a todos os valores possíveis que o qubit assume. Quando esses qubits estão emparelhados com outros qubits interdependentes – podem executar operações lógicas muito mais complicadas em tempo significativamente menor.

Esse potencial para melhorar drasticamente a velocidade de processamento em relação aos processadores clássicos é o que está impulsionando grande parte do hype em torno da computação quântica no momento. É a nossa maneira de manter a atual taxa de progresso, não mais confinada à beira da água até o final da Lei de Moore.

Como a computação quântica é garantida para melhorar nossa tecnologia

Então, quão poderosa é a computação quântica exatamente então? O que essa velocidade traduz em termos reais? Por um tempo, a resposta não foi nada. Na verdade, foi uma ideia ridícula que ninguém realmente levou a sério.

Proposto de várias maneiras ao longo dos anos em trabalhos acadêmicos desde a década de 1970, surgia de vez em quando, mas não apenas era impossível imaginar tal sistema na prática; tal máquina não serviria a nenhum propósito real para justificar o investimento de dinheiro para pesquisá-lo. Então, em 1994, o matemático Peter Shor publicou um artigo que mudou tudo.

Shor criou um algoritmo que abriu um problema matemático brutalmente intratável que é a base da moderna criptografia RSA, o problema da fatoração primária de inteiros. O fato de faturar vários inteiros longos de mil dígitos não é algo que um computador clássico pode fazer com eficiência, não importa quantos processadores você jogue nele; os algoritmos necessários não são conhecidos ou não existem.

Mesmo quando os computadores modernos se tornaram mais poderosos e puderam usar a capacidade de processamento bruta para quebrar chaves de criptografia de 256 bits, 512 bits e até mesmo mais altas, tudo o que você precisa fazer é multiplicar a contagem de bits usada para o seu chave por dois e seu novo esquema foi literalmente exponencialmente mais forte do que aquele que acabou de ser quebrado.

Um computador clássico não fica exponencialmente melhor em resolver esses problemas à medida que os números envolvidos aumentam. Essa limitação, conhecida como complexidade de tempo, acabou por colocar algumas coisas além da capacidade dos computadores clássicos para realmente resolver. A extensão das chaves de criptografia RSA pode rapidamente começar a adicionar milhões, bilhões e até trilhões de anos ao tempo necessário para quebrar a chave de criptografia usando um computador clássico.

O que Shor mostrou foi que usar a superposição de qubits permitiria que você resolvesse o problema de fatoração de maneira significativamente mais rápida. Pode ainda levar muito tempo para abrir a criptografia RSA mais difícil, mas um problema de trilhão de anos foi transformado em um problema de 2 a 5 anos com um computador quântico – e apenas com um computador quântico.

Se a lei de Neven prevalecer, a computação quântica estará aqui em menos de um ano

As pessoas finalmente notaram depois que Shor publicou seu artigo e perceberam que isso era algo completamente diferente da computação clássica e potencialmente com ordens de magnitude mais poderosas.

As pessoas começaram a ver o potencial, mas nos mais de 20 anos desde que o algoritmo de Shor apareceu pela primeira vez, a execução desse algoritmo e talvez alguns outros algoritmos quânticos publicados nos últimos anos continuam sendo a única razão pela qual precisaríamos de um computador quântico.

Até mesmo muitos profissionais de ciência da computação, incluindo Ph.Ds e veteranos do setor que conhecem a ciência por trás de tudo, expressaram ceticismo de que a computação quântica entregará sua promessa inacreditável por vezes. Isso pode estar mudando, no entanto, depois que Neven divulgou em maio o incrível crescimento dos processadores quânticos do Google no Quantum Spring Symposium, e apresentou ao mundo a “Lei” que leva seu nome.

Ele revelou que o que ele e o resto da equipe de computação quântica do Google estavam vendo era o crescimento “duplamente exponencial” do poder de computação quântica em relação à computação clássica: “parece que nada está acontecendo, nada está acontecendo e, em seguida, whoops, de repente você estamos em um mundo diferente”, disse ele. “Isso é o que estamos experimentando aqui.”

O que o crescimento exponencial duplamente significa atualmente?

De acordo com Neven, há dois fatores que se combinam para produzir essa incrível taxa de crescimento que o Google está vendo em seus chips de computador quânticos.

A primeira é simplesmente a vantagem exponencial natural que a computação quântica tem sobre um computador clássico. Onde bits clássicos só podem estar em um estado em um determinado momento, 1 ou 0, um qubit em superposição é 1 e 0. Isso significa que um qubit se torna exponencialmente mais eficiente em termos de representação e processamento de dados para cada qubit adicional adicionado. Para qualquer número dado de qubits n em um processador quântico, eles fazem o mesmo trabalho ou mantêm a mesma quantidade de dados que 2n bits clássicos. 2 qubits são iguais a 4 bits, 4 qubits equivalem a 16 bits, 16 qubits equivalem a 64.536 bits e assim por diante.

O segundo está mais diretamente relacionado às melhorias que o Google está fazendo em seus processadores quânticos. De acordo com Neven, o Google está vendo seus melhores processadores quânticos melhorarem a uma taxa exponencial, algo que a IBM também viu com seu IBM Q System One. Em conjunto, Neven diz que você acaba com uma taxa duplamente exponencial de crescimento da computação quântica em relação à computação clássica.

Como é o crescimento duplamente exponencial? A função clássica de crescimento exponencial ao lidar com bits está obviamente duplicando, uma função definida como (2n)em sistemas binários. Como você duplica a duplicação? Simplesmente substitua o n na função de duplicação por outra função de duplicação, ou 2(2n).

Como a Lei de Moore é uma função de duplicação, podemos representar a Lei de Moore assim, onde n representa um intervalo de dois anos:

n poder computacional clássico (2n) 

* 1      2
* 2     4
* 3     8
* 4     16
* 5     32 
* 6     64
* 7     128
* 8     256
* 9     512
* 10   1024

Então, como é a lei de Neven? Seria algo como isto, onde n é igual a cada nova melhoria do processador quântico do Google:

n     2n   2(2n)   poder computacional quântico em relação ao poder da computação clássica:

     * 1       2         2           4
     * 2      4         24            16
     * 3      8         28            256
     * 4      16       216           65,536
     * 5      32       232          4,294,967,296
     * 6      64       264          18,446,744,073,709,551,616
     * 7      128      2128         3.4028236692093846346337460743177e+38
     * 8      256     2256         1.1579208923731619542357098500869e+77
     * 9      512      2512         1.3407807929942597099574024998206e+154
     * 10    1024    21024       1.797693134862315907729305190789e+308

Depois que a lista ultrapassar 6, os números começam a se tornar tão grandes e abstratos que você perde a noção do abismo entre o local onde o Google está e onde ele estará no próximo passo.

No caso da Lei de Moore, ela começou nos anos 1970 como duplicador a cada ano, antes de ser revisada a cada dois anos. De acordo com Neven, o Google está aumentando exponencialmente o poder de seus processadores mensalmente para semestralmente. Se dezembro de 2018 é o 1 desta lista, quando Neven começou seus cálculos, então já estamos entre 5 e 7.

Em dezembro de 2019, daqui a seis meses, o poder do processador de computação quântica do Google poderia estar entre 24096 e 28192 vezes mais poderoso do que no início do ano. De acordo com o relato de Neven, em fevereiro – apenas três meses depois que eles começaram os testes, então 3 na nossa lista -, não havia mais computadores clássicos no prédio que pudessem recriar os resultados dos cálculos do computador quântico do Google, que um laptop estava fazendo apenas dois meses antes.

Neven disse que, como resultado, o Google está se preparando para alcançar a supremacia quântica – o ponto onde os computadores quânticos começam a superar os supercomputadores que simulam algoritmos quânticos – em questão de meses, não de anos: “Dizemos muitas vezes que achamos que alcançaremos em 2019. A escrita está na parede.”

O ceticismo é garantido em um ponto

É importante enfatizar que esse crescimento no poder é relativo ao poder de um computador clássico, não uma medida absoluta, e que o ponto de partida para a computação quântica não seria há muito tempo comparável aos computadores da era UNIVAC dos anos 1940 e 1950.

Grande parte da ciência teórica e computacional da computação quântica ainda está sendo escrita e debatida, e há aqueles que têm suas dúvidas sobre se o crescimento “duplamente exponencial” em relação à computação clássica está realmente acontecendo.

Afinal, a Lei de Moore pode ser feita, mas a computação clássica não está morta, continua a melhorar até hoje e continuará a fazê-lo à medida que novos algoritmos forem desenvolvidos para melhorar a eficiência dos computadores clássicos.

Ainda assim, outros dizem que não basta apenas minimizar ou contestar o rápido progresso reivindicado pelo Google para seus processadores quânticos. A IBM pode ser mais modesta em suas previsões sobre a supremacia quântica, mas está confiante de que conseguirão isso em cerca de três anos. Cinco anos atrás, muitos pensavam que não veríamos um computador quântico até 2025 ou até mesmo em 2030 e além.

Agora, parece que podemos até ver o negócio real até o Natal, e não há razão para pensar que o poder dos computadores quânticos não continuará a aumentar ainda mais quando o Google, a IBM ou até mesmo alguém alcançar a verdadeira supremacia quântica.

FONTE: ENGENHARIA