O que é computação quântica ?

26/03/2011 às 3:40 | Publicado em Baú de livros | 10 Comentários
Tags: , ,

clip_image002

Este livro é daqueles que representam um desafio para os não iniciados na área ou os que já a deixaram há um bom tempo, como eu. Apesar de pequeno (cento e poucas páginas) e de apresentar uma linguagem com a qual o autor tenta desmistificar um tema árido, muitas vezes não é de fácil compreensão.

Não sou mais como a Petrobrás (o desafio é minha energia), porém pela atualidade do tema resolvi encarar o desafio, fui até o final e resolvi compartilhar a experiência aqui no ‘Baú de Livros’. A idéia básica é expressa no último capítulo, onde o autor fala da célebre “Lei de Moore” e de como ela pode ser quebrada com o advento da computação quântica, que foge dos paradigmas atuais da computação clássica, não no sentido que nos diz a também famosa ‘máquina de Turing’, mas no sentido de ser utilizada com uma nova física, a física quântica, igualmente em evolução em seus aspectos teóricos.

Clique na continuação deste post para ver os trechos que achei mais interessantes do livro, os quais separei nos seguintes títulos:

1) A MÁQUINA ANTICÍTERA – PIONEIRA

2) O CHOQUE EVOLUTIVO

3) NÚMEROS PRIMOS, CRIPTOGRAFIA E SEGURANÇA

4) FÍSICA QUÂNTICA – TUDO ESTRANHO

5) COMPUTAÇÃO QUÂNTICA E NANOTECNOLOGIA

6) SUPERCOCONDUTORES

7) O FUTURO

OBS: como não consegui o livro em meio eletrônico na grande rede, resolvi escanear estes trechos, mas como foram muitos a formatação não ficou 100%

1) A MÁQUINA DE ANTICÍTERA – PIONEIRA

A menção ao primeiro computador, a Anticítera (confesso que nos meus 30 anos na área não havia lido sobre isso). Em 1900 um pescador de esponjas encontrou na Ilha de Anticítera-Grécia, um naufrágio com os restos do que ficou conhecida como a ‘máquina de Anticítera’ construída no século II da nossa era. Tratava-se de um computador astronômico com 30 engrenagens capaz de calcular as posições do Sol, da Lua e de prever eclipses. Passaram-se mais de 1000 anos até que se fosse capaz de construir com a mesma tecnologia.


2) O CHOQUE EVOLUTIVO

… ainda seguindo a evolução dos computadores, o autor nos lembra que o primeiro mais ou menos parecido com os atuais foi o ENIAC, surgido nos idos da II Grande Guerra. Os computadores mais disseminados atualmente, os laptops, são descendentes daquelas máquinas. Em comum usa cargas e correntes elétricas para guardar e processar informação. As diferenças surgem na maneira de entrar com os dados e ler as respostas: em vez de cartões perfurados agora temos teclados, monitores, mouse e a Internet. Em termos de velocidade, o salto nessas poucas décadas foi enorme, graças á miniaturização dos transistores. O resultado final é que um laptop é dez milhões de vezes mais rápido que o ENIAC, e mais leve – o ENIAC pesava 27 toneladas


3) NÚMEROS PRIMOS, CRIPTOGRAFIA E SEGURANÇA

Qualquer número inteiro pode ser escrito de uma úni-

ca forma como um produto de números primos (ou seja, inteiros impossíveis de se dividir sem deixar resto). Pegar uma lista de números primos e multiplicá-los para obter um número imenso de 400 dígitos é muito fáciL O difícil é fazer o processo contrário: dado um número de 400 dí­gitos, descobrir os fatores primos que multiplicados resul-

tam nesse número. Usando o melhor algoritmo conhecido de fatoração, estimo que o meu laptop levaria literalmen­te bilhões de anos para fatorar um número de 400 dígitos. Isso é um reflexo da aparente intratabilidade da fatoração de inteiros – o tempo de computação do melhor algorit­mo conhecido cresce exponencialmente com o número de dígitos do número a ser fatorado.

O problema é famoso por diversas razões. A primei­ra é a importância fundamental dos números primos para a matemática. Como um número primo não pode ser decomposto num produto de outros números, são os primos que compõem os outros números por multi­plicação. Dessa forma, os primos fazem na matemática um papel análogo ao dos átomos na física (reparem que “á-tomo” literalmente quer dizer indivisível). Devido à existência de uma única fatoração de cada número em números, primos, essa decomposição funciona co­mo uma impressão digital do número, identificando-o e dando pistas sobre suas propriedades.

Apesar do conceito de número primo ser tão sim­ples, muitas das propriedades do conjunto de números primos permanecem obscuras até hoje. Um exemplo é a hipótese de Riemann, uma fórmula simples que possibi­litaria descrever a freqüência co~. que os primos apare-

cem dentro do conjunto dos inteiros. A fórmula foi con­jecturada em 1859 pelo matemático alemão Bernhard Riemann (1826-1866), mas até hoje ninguém conseguiu provar rigorosamente sua validade. O problema é tão difícil e tão fundamental que o Clay Mathematics Ins­titute, nos Estados Unidos, está oferecendo um prêmio de US$ 1 milhão para a primeira pessoa que conseguir provar a hipótese.

Esse prêmio é sinal da importância teórica dos pri­mos para a área da matemática conhecida como teoria dos números, que serve de base para toda a ciência da computação. Por isso, a fatoração de inteiros em seus componentes primos acaba tendo importância também em aplicações computacionais práticas.

Um exemplo é um esquema de codificação de dados usado em segurança bancária ou quando fazemos com­pras pela internet – uma aplicação da criptografia”, a arte de trocar mensagens secretas. Vimos que é fácil multiplicar os fatores primos de um número para obtê-lo, enquanto é extremamente difícil fazer a fatoração, que é o processo inverso. Esses esquemas de segurança se ba­seiam justamente nessa diferença grande de dificuldade entre os dois processos. Dessa forma, a codificação dos dados no seu computador em casa é baseada no sentido fácil do processo

que é a multiplicação de dois núme­ros de muitos dígitos, feita pelo computador numa fração de segundo. Já a decodificação do código de segurança por algum interceptador dependeria da fatoração de um número grande, um problema considerado intratável em computadores clássicos.

Notem que logo acima eu escrevi “intratável em com­putadores clássicos ... ” Depois que Deutsch descreveu um computador quântico universal em 1985, começou a corrida para se descobrir quais as capacidades espe­cíficas desse tipo de computador. Em particular, havia a possibilidade de problemas considerados intratáveis (como a fatoração) passarem a ser tratáveis num compu­tador quântico.

Foi justamente esse o resultado descoberto em 1994 pelo matemático norte-americano Peter Shor. Shor conse­guiu, combinando técnicas sofisticadas com novos passos caracteristicamente quânticos, mostrar que computadores quânticos podem fatorar um número com uma quantidade de passos computacionais que cresce como um polinô­mio do número de dígitos desse número. Subitamente, um problema que todos achavam ser computacionalmen­te intratável revelou-se solúvel na prática, caso se possa construir um computador quântico,

o algoritmo de Shor, como ficou conhecido, caiu co­mo um raio sobre a comunidade de físicos e cientistas da computação. Com esse resultado, ficou difícil negar a importância da física para uma área que até então per­manecia no reino da matemática aplicada, que era a ciên­cia da computação. Esse estudo da relação entre física e computação já vinha tomando força há algumas décadas, devido ao trabalho de pesquisadores como Rolf Landauer (1927-1999) e Charles Bennett (1943-). Eles e outros ma­temáticos e físicos perceberam que a computação é um processo físico, e por isso deve ser investigada usando-se as teorias físicas relevantes, como a termodinâmica e a física quântica. O algoritmo de Shor representou um gran­de sucesso dessa abordagem, mostrando que a mecânica quântica vira de cabeça para baixo o que se pensava sa­ber sobre complexidade computacional.

De um ponto de vista mais prático, vimos que a fatora­ção de números grandes possibilitaria a quebra de vários códigos criptográficos ainda em uso no mundo. Mas será que isso seria um grande transtorno – não seria o caso de simplesmente passarmos a usar códigos mais difíceis? O problema é que a ciência da computação ainda não conseguiu determinar a complexidade computacional de diversos problemas, seja para computadores clássicos ou quânticos. Um código

criptográfico baseado numa dificul­dade assumida (mas não provada) pode acabar falhando. Foi exatamente isso que aconteceu quando Shor desenvol­veu seu algoritmo de fatoração.

Além disso, o uso por décadas de esquemas cripto­gráficos baseados na fatoração nos deixou numa situação delicada. Imaginem um cenário plausível: um governo passa anos transmitindo para suas embaixadas no exte­rior mensagens com informações secretas sobre progra­mas governamentais, militares etc. Essas mensagens são transmitidas criptografadas por rádio ou internet, de ma­neira que sejam indecifráveis para qualquer um que não a embaixada.

Pelo menos até 1994, a segurança de grande parte desses esquemas criptográficos era garantida pela intra­tabilidade do problema da fatoração de inteiros. Mes­mo sem conseguir decifrar as mensagens, é provável que diversos outros governos tenham mantido cópias das mensagens trocadas – para o caso de que avanços tecnol6gicos acabassem possibilitando a quebra dos códigos. Com a descoberta do algoritmo de Shor isso aconteceu de- maneira repentina: o primeiro Governo que construir um computador quântico de porte poderá ler milhares de mensagens secretas de outros governos!

Isso põe em risco não só mensagens diplomáticas, mas transações comerciais e quaisquer outras mensagens que tenham usado criptografia baseada na dificuldade de fatoração.

Depois do impacto da invenção desse primeiro algorit­mo quântico com vantagem exponencial no desempenho, cada vez mais pesquisadores entraram na busca por ou­tros algoritmos quânticos eficientes. A principal descober­ta subseqüente foi feita em 1996 por Lov Grover, matemá­tico de origem indiana que trabalha nos laboratórios de pesquisa Bell, nos Estados Unidos. O problema resolvido por esse algoritmo é muito comum: ele faz uma busca nu­ma base de dados, encontrando itens que tenham certas propriedades desejadas.

Para aplicar esse algoritmo de busca, primeiro pre­cisamos codificar a base de dados inteira num sistema clássico (como um livro ou DVD) ou quântico (átomos, elétrons etc). No caso clássico, para encontrar um único item com as características desejadas no meio de um milhão de itens, precisaríamos em média fazer meio mi­lhão de buscas na base de dados. Caso não tivéssemos sorte, poderíamos até ter que pesquisar o banco de da­dos inteiro, o que demoraria o tempo equivalente a um milhão de buscas.

O algoritmo quântico para o mesmo problema tam­bém tem que fazer operações sobre a base de dados quântica. Só que devido ao uso inteligente de proprieda­des quânticas, o número de buscas nessa base de dados seria só em torno de mil! Em geral, se classicamente precisamos fazer N buscas, quanticamente são necessá­rias por volta de vN (a raiz quadrada de N), que é um número muito menor. A diferença entre N e v’N não é tão dramática quanto a vantagem quântica exponencial no problema de fatoração. Mesmo assim, como o algoritmo de busca é muito usado em outros problemas, o resul­tado chamou ainda mais atenção para o potencial dos computadores quânticos.

A pesquisa sobre novos algoritmos quânticos conti­nua. Infelizmente, ainda não temos um entendimento satisfatório sobre exatamente quais problemas são ao mesmo tempo intratáveis num computador clássico e tratáveis num quântico. Hoje temos três principais pro­blemas para os quais os computadores quânticos sabida­mente apresentam vantagem. O primeiro é a própria si­mulação de sistemas quânticos, proposta por Feynman, que pode ser muito útil para realizar simulações de novos dispositivos e materiais, por exemplo. Os outros dois não têm essa conexão explícita com a mecânica

quântica: fatoração e busca numa base de dados. Além dessas três aplicfções, até hoje foram encontrados so­mente mais dois ou três problemas abstratos nessa clas­se e há poucas indicações sobre o que esses problemas têm em comum. Esse quebra-cabeça é um prato cheio para jovens cientistas da computação interessados em fazer pesquisa fundamental sobre a capacidade dos com­putadores quânticos.

Pode parecer um pouco surpreendente que o poten­cial computacional dos sistemas quânticos tenha demo­rado tanto a ser descoberto. Isso foi em parte culpa da compartimentalização das especialidades de pesquisa: durante décadas, a ciência da computação e a física pa­reciam não ter nada a dizer uma à outra. Mesmo assim, não deveria ser mais fácil reconhecer esse potencial di­retamente das leis que regem os fenômenos quânticos? Afinal, a descrição matemática essencial da mecânica quântica é muito precisa e já estava bem formulada na década de 1930.

O porquê dessa dificuldade talvez fique mais claro se pensarmos em jogos como o xadrez. As regras são precisas e bem determinadas, da mesma forma que as leis matemá­ticas da mecânica quântica. Mesmo assim, várias proprie­dades do jogo até hoje não são conhecidas. Por exemplo,

não se sabe s~ há alguma estratégia que garanta a vitória para as peças brancas (que tradicionalmente começam o jogo). No caso do “jogo” de descobrir conseqüências e aplicações da mecânica quântica, ainda há muito a ser explorado. Esse é o trabalho dos físicos teóricos como eu: procurar furos lógicos, fazer novas previsões, construir pontes com outras teorias, e assim por diante. Num caso extremo pode ser necessário até reformular a teoria, caso surjam novos dados experimentais ou para torná-Ia com­patível com outra abordagem teórica.

Em meados da década de 1990 a pesquisa interdis­ciplinar sobre como codificar e processar informação em sistemas quânticos começou a ser chamada de informa­ção quântica. Sua importância estratégica foi reconhe­cida, atraindo investimentos de governos e também da indústria – a IBM, por exemplo, mantém um grupo de pesquisa de ponta na área. Além do aumento do nosso conhecimento teórico das capacidades computacionais dessas novas máquinas, houve vários avanços também na construção dos primeiros protótipos. Veremos um pouco sobre isso no capítulo 7.

Felizmente, podemos começar a desfrutar de algumas tecnologias associadas a essa pesquisa bem antes de con­seguirmos construir um computador quântico de porte.

Vimos que computadores quânticos, com seu algoritmo eficiente de fatoração, podem quebrar vários códigos de criptografia em uso. Pois ironicamente, a própria mecâni­ca quântica veio ao socorro de quem precisa se comuni­car em segredo. Em 1984, os físicos Charles Bennett e Gilles Brassard desenvolveram o primeiro protocolo de criptografia quântica, possibilitando trocas de mensagens com segurança absoluta. O esquema envolve a troca de partículas quânticas de luz (os fótons). Os dois pesquisa­dores garantem a segurança incondicional do protocolo, assumindo somente que a mecânica quântica seja uma descrição precisa da Natureza. Essa é de longe a melhor garantia que eu já vi no mercado!

Já há empresas começando a comercializar sistemas de criptografia quântica, pois ela é muito mais acessível experimentalmente do que um computador quântico prá­tico. Veremos um pouco mais adiante que muitas outras tecnologias estão sendo desenvolvidas juntamente com a pesquisa em informação quântica, como a manipulação de nanoestruturas e a criação de dispositivos minúsculos e ultra-eficientes. Tudo isso faz parte de uma corrida tec­nológica que recebeu um grande impulso da pesquisa so­bre computadores quânticos, e que deve se intensificar nos próximos anos e décadas.

Esta é uma boa hora para darmos uma pausa na his­tória do desenvolvimento dos computadores quânticos e tentar entender a própria mecânica quântica. Afinal, essa é a teoria mais fundamental que temos atualmente sobre a Natureza, e são exatamente suas peculiaridades e surpresas que possibilitam a existência de computado­res quânticos .


4 – FÍSICA QUÂNTICA – TUDO ESTRANHO

É importante lembrar que se para você tudo parecer estranho e sur­preendente, na verdade os especialistas, depois de muito estudo, consideram tudo… estranho e surpreendente! Mais a sério, claro que aprendemos muito sobre a teoria, sabemos usá-Ia em inúmeras situações, mas a ponte com

a intuição é construída a pequenos passos, e cada pesqui­sador encontra sua própria forma de usar intuições para entender e trabalhar com a teoria. O próprio Feynman, um dos primeiros a vislumbrar a possibilidade de um com­putador quântico, disse certa vez: “Pode-se dizer com segurança que ninguém entende a mecânica quântica.” Afirmações como esta dão uma pista sobre o tamanho do desafio que é entender essa teoria.

Antes de examinarmos algumas das características básicas da mecânica quântica, uma palavrinha sobre o seu domínio de validade. Cada teoria física tem um do­mínio de validade, ou seja, um certo conjunto de circuns­tâncias ou fenômenos onde ela é aplicada com sucesso. Fora de seu domínio, a teoria não é útil, suas predições não se aplicam. Pois bem, a mecânica quântica é famosa por suas predições no domínio do minúsculo, dos átomos e moléculas, em que é muito bem-sucedida. Só que várias predições da teoria quântica se aplicam também a obje­tos macroscópicos, como sólidos e líquidos, o interior de estrelas etc. Isso mostra que o domínio de aplicação da mecânica quântica é muito mais abrangente do que sim­plesmente o muito pequeno.

No entanto, quando aplicamos a teoria para descre­ver objetos macroscópicos, surgem algumas dificuldades

que ainda precisam ser esclarecidas. O maior problema de todos aparece quando tentamos descrever o universo em grande escala, ou seja, planetas, estrelas e galáxias. Este é justamente o domínio de aplicação da teoria da re­latividade geral, inventada (ou descoberta, dependendo da sua visão filosófica da coisa) pelo físico alemão Albert Einstein (1879-1955). Por isso, e dada a importância fun­damental das duas teorias, uma boa parte da pesquisa atual em física consiste em tentativas de criar uma teoria que junte, de maneira harmoniosa, a mecânica quântica e a relatividade geraL.


5 – COMPUTAÇÃO QUÂNTICA E NANOTECNOLOGIA

Tudo o que discutimos até agora foram trabalhos teóricos. Na ciência muitas vezes são os experimentos que revelam novos fenômenos, que depois os teóricos se esfor­çam por explicar. No caso da computação quântica a descoberta inicial foi teórica, pois tratava-se de uma aplicação nova dos princípios básicos da mecânica quântica, conhecidos desde a década de 1930. Como andam os progressos experimentais?

A situação atual da computação quânti­ca experimental é parecida com aquela da computação clãssicana década de 1930. N aquela época ainda não se sabia qual se-

ria a melhor tecnologia para computadores – havia pro­postas de arquiteturas mecânicas, elétricas, e mesmo al­ternativas menos exploradas, como computadores analõ­gicos. Aos poucos o progresso de diversas técnicas foi direcionando a computação prática para o caminho que conhecemos hoje, levando a computadores eletrônicos ba­seados em transistores sobre um chip de silício.

A pesquisa experimental na área de informação quân­tica está avançando a pleno vapor. Várias possíveis arqui­teturas estão sendo exploradas, na esperança de encon­trarmos a mais viável. No caminho, vamos descobrindo mais sobre como controlar sistemas quânticos com pou­cos nanômetros de tamanho (1 nanômetro = 1 milionési­mo de milímetro). Essa nova área tecnolõgica que leva à criação de dispositivos com tamanho de poucos nanôme­tros chama-se nanotecnologia - vocês ainda vão ouvir falar muito dela nas próximas décadas.

Além dos pontos quânticos, atualmente também con-

seguimos prender elétrons ao longo de uma linha (os cha­madosfios quânticos) ou num plano (os poços quânticos). A idéia é usar essas nanoestruturas para criar dispositi­vos nanoscópicos sob medida, baratos e supereficientes. Já existem nano-lasers e estão sendo testadas as primei­ras telas de computador feitas com pontos quânticos; tam­bém há a promessa de criar painéis solares muito mais eficientes, o que pode ajudar a consolidar a energia solar como fonte alternativa de energia. Nanotubos de carbono podem ser trançados, criando cabos ultra-resistentes e le­ves para aplicações aeroespaciais, por exemplo.


6 – SUPERCONDUTORES

No início do século XX o físico holandês Heike Ka­merlingh Onnes (1853-1926) fez seu nome inventando novas técnicas experimentais de refrigeração extrema. Já em 1908 ele atingira apenas 1°C acima do zero absolu­to de temperatura, (ou 1 Kelvin, como dizem os físicos). Contrário à idéia de manter seus equipamentos s6 para uso pr6prio, ele disponibilizou seu laborat6rio também para outros pesquisadores, que puderam realizar seus pró­prios experimentos a baixas temperaturas.

Um problema te6rico em aberto na época era o que aconteceria com a resistividade elétrica de metais a bai­xas temperaturas. A resistividade dos materiais é o que faz com que eles se aqueçam quando são percorridos por uma corrente elétrica, como acontece no filamento de uma lâmpada incandescente. Alguns físicos achavam que a resistividade cairia gradualmente à medida que nos aproximássemos de O Kelvin, o zero absoluto. Outros sus­tentavam que as propriedades de condução do metal se “congelariam” antes disso, e eles se tomariam isolantes a baixas temperaturas, o que corresponderia a uma resis­tividade infinita.

Em 1911 Kamerlingh Onnes resolveu pôr um ponto final nessa discussão com um experimento. Refrigerou uma amostra do metal mercúrio lentamente, monitorando a sua resistividade elétrica. A princípio a resistividade foi caindo gradualmente com a temperatura, como pre­visto. S6 que à temperatura de 4 Kelvin a resistividade despencou até chegar a rigorosamente zero – o mercú­rio estava conduzindo eletricidade sem resistência nem aquecimento. O fenômeno foi depois observado em vários outros metais, onde correntes podiam ser mantidas duran­te anos num circuito sem nenhuma perda perceptível. A descoberta da supercondutividade, como ficou conhecida essa propriedade, rendeu a Kamerlingh Onnes o Prêmio Nobel de Física de 1913.

Nesses quase cem anos desde a descoberta da super-

condutividade foram feitos muitos progressos, levando ao desenvolvimento de materiais não-metálicos que se tor­nam supercondutores a temperaturas menos extremas. Uma das aplicações dos supercondutores é na constru­ção de eletroímãs muito poderosos e que consomem pou­ca energia, como os que encontramos nos aparelhos de imagem por ressonância magnética, nos hospitais. Outra aplicação são os SQUIDS, sigla em inglês para dispositi­vo supercondutor de interferência quântica, um medidor ultra-sensível de campos magnéticos útil em medicina e geologia, por exemplo.

A letra “Q” de SQUID já entregou o jogo: a super­condutividade tem uma explicação quântica. A teoria é bastante complexa e prevê que os elétrons se juntam em pares, que conseguem se propagar sem sofrer colisões e aquecimento por causa de uma interação quântica espe­cial com os átomos do metal. Como conseqüência dessa natureza quântica da supercondutividade, é possível criar uma superposição da corrente elétrica correndo nos dois sentidos de um circuito ao mesmo tempo. Essa superposi­ção de duas possibilidades classicamente contraditórias (propagação num sentido e no oposto) permite codificar um qbit num circuito supercondutor. Um circuito assim é um exemplo de como um objeto macroscópico também pode exibir o fenômeno de superposição quântica, típico de sistemas muito menores.

Essa superposição de correntes em supercondutores já foi observada no laboratório. Também já foi demons­trado como fazer dois qbits codificados dessa forma inte­ragirem entre si, usando circuitos supercondutores auxi­liares. Atualmente diversos grupos experimentais tentam aprimorar o uso de dispositivos supercondutores para construir um computador quântico escalonável. Em 2007

a empresa canadense D- Wave Systems fez uma demonstra­ção do que seria um processador quântico com 16 qbits, e prometeu mais progresso no futuro próximo. Ainda é cedo para julgar se esse otimismo procede, mas isso va­le para nos lembrar que o progresso numa área como a computação quântica também pode vir a acontecer assim – aos saltos.

Além das alternativas acima, há ainda muitas outras idéias que podem levar a um computador quântico práti­co. Há uma proposta que usa somente luz laser, espelhos, lentes e outros elementos óticos, que é escalonável em teoria, mas complicada na prática, conhecida como com­putação com ótica quântica linear. Outros pesquisadores propõem usar certas propriedades bizarras de elétrons confinados num plano, no que se chamou de computação quântica topolõgica. Essas propriedades começaram a ser observadas na prática, mas ainda estamos longe de codificar qbits e conseguir que eles interajam de maneira controlada.

Outros sistemas quânticos que já foram propostos co­mo candidatos para computação quântica incluem:

· nanobolhas carregadas eletricamente dentro de hélio líquido;

· átomos presos dentro de uma molécula de carbo­no em formato de bola (chamada fulereno);

· átomos em redes óticas, que são um arranjo de la­sers que prende átomos individuais em posições precisas num plano, como íons numa armadilha;

· pequenas caixinhas espelhadas (chamadas de “cavidades”) onde um átomo individual pode interagir com campos eletromagnéticos minúscu­los, de acordo com a teoria conhecida como eletrodinâmica quântica de cavidades.


7 – O FUTURO

No início da história dos computadores, ima­ginava-se que eles s6 seriam úteis em ciência, neg6cios e guerra. Hoje em dia vemos computadores fazendo de tudo: ala­vancando neg6cios via internet, nos entre­tendo com jogos, aumentando a produtivi­dade no trabalho e mesmo possibilitando novas maneiras de interação social por meio da internet.

Reparem bem como os computadores estão em todos os lugares. Qualquer car­ro, eletrodoméstico ou aparelho eletrônico tem pelo menos um processador, e muitas vezes vários. As telecomunicações, o siste-

ma viário, a distribuição de eletricidade, enfim (quase) tu­do é projetado, construído e controlado com a ajuda de com­putadores. A tecnologia da informação está continuamente mudando nossa relação com o mundo, às vezes de forma imperceptível- sinal de essa revolução veio para ficar.

Existem cada vez mais computadores, e eles estão ca­da vez mais potentes. A chamada Lei de Moore descreve de forma simples o ritmo do aumento da capacidade de processamento dos computadores.

Lei de Moore: a cada 18 meses a capacidade de pro­cessamento por unidade de custo dobra

Feita em 1965, essa previsão tem se mantido mais ou menos correta até os dias de hoje. Quem já trocou de com­putador deve ter percebido essa lei – embora os preços não mudem muito, a velocidade e capacidade de arma­zenamento sempre crescem. Um computador comprado hoje é aproximadamente duas vezes mais rápido do que um computador lançado 18 meses atrás, ou quatro vezes mais rápido que o modelo de três anos atrás, e assim por diante. A Lei de Moore tem continuado a valer graças à tecnologia de miniaturização dos transistores, o que leva a chips com um número cada vez maior deles.

A demanda por processamento também tem acom­panhado esse ritmo exponencial de crescimento. Si-

mulações computacionais e otimização de recursos são tarefas importantíssimas para a produtividade na indús­tria, e ficam mais difíceis à medida que os produtos se sofisticam. Se hoje temos toda uma coleção de música dentro de um dispositivo portátil, amanhã vamos que­rer o mesmo com a programação da televisão e filmes de cinema. A qualidade dos recursos audiovisuais usados em videogames está cada vez melhor, resultando numa realidade virtual cada vez mais próxima da realidade “real”. Isso sem falar nas aplicações científicas, que podem sempre se beneficiar de uma maior capacidade de computação.

Há quem pense que logo vai chegar uma hora em que o usuário doméstico de computadores não vai mais pre­cisar de computadores mais rápidos. Na minha opinião, sempre haverá uma demanda por maior rapidez. Os com­putadores ainda são péssimos em tarefas utilíssimas: com­preensão e organização de textos e dados, reconhecimen­to de imagens, interação com as pessoas. Essas tarefas requerem uma capacidade computacional que ainda não temos, mas nos trariam benefícios enormes se soluciona­das de maneira prática.

Além desses verdadeiros desafios (que às vezes são agrupados sob o termo genérico inteligência artificial),

existem inúmeros problemas práticos que são considera­dos intratáveis computacionalmente. Esses problemas se caracterizam por um crescimento exponencial do proces­samento necessário quando aumentamos o tamanho do problema. Não importa quanto aumente a nossa capacida­de de processamento – os problemas intratáveis estarão sempre a postos para devorar qualquer recurso computa­cional disponível.

Mesmo que a demanda por processamento de dados não cresça a um ritmo exponencial, uma coisa é certa: a Lei de Moore vai falhar, e dentro de pouco tempo. Analis­tas prevêem que em tomo de 2020 já teremos alcançado o limite de miniaturização dos transistores – afinal, eles não podem ser menores do que um átomo. Na verdade, já surgirão problemas bem antes de chegarmos a esse pon­to, pois efeitos quânticos passam a ser importantes nessa escala. Então, em vez de tratar isso como um problema, por que não aproveitar e fazer computação da forma como a Natureza dispôs: quanticamente?


SOBRE O LIVRO E SEU AUTOR:

http://profs.if.uff.br/ernesto/wiki/doku.php/livro

Sumário

1 – Das pedrinhas ao laptop
2 – Ciência da computação
3 – Surge a computação quântica
4 – Física quântica
5 – Computação quântica, passo a passo
6 – A pesquisa teórica hoje
7 – Botando a mão na massa
8 – De olho no futuro

Glossário

Sugestões de leitura

About these ads

10 Comentários »

Feed RSS para comentários sobre este post. TrackBack URI

  1. Grande Zé,

    Gosto muito desse tema. A possibilidade de transformar problemas NP-Completos em polinomiais nos dará avanços incríveis.
    Mas falando especificamente de criptografia, li duas notícias há pouco tempo que achei bastante interessantes.
    Uma sobre a quebra de um sistema em uso
    E outra, mais interessante, sobre um “grampo” criptográfico

  2. Valeu Péricles,

    Obrigado pelas dicas !

    ab,

    José Rosa.

  3. O artigo é muito bom . Já estou lendo e digerindo o teor deste excelente artigo. Perde, quem não lê seu Blog. Muito obrigado por mais esta cancha de genialidade! Brilhante e atualizado é o teor das matérias deste BLOG, que dá o tom de quem o lê,a saber:no mínimo,achar-se privilegiado. Conhecimento e excelência não têm preço, quando o alvo é melhorar a qualidade de vida da humanidade.

  4. Valeu amigo Walber, abradeço suas palavras.
    E é como sempre digo: “O conhecimento (e o saber) é algo aparentemente paradoxal, e subverte os meandros da Matemática,
    porque quanto mais você divide (compartilha), mais ele aumenta!”

  5. Alô Zé Rosa. Muito bom o artigo! Um abraço.

  6. Valeu Artur,
    Agradeço suas palavras que são para mim um incentivo para continuar postando.
    abraços

  7. Há vinte anos estudo os números primos.
    Hoje, tenho um caminho muito interessante, mas preciso de ajuda.
    A ajuda é a seguinte:

    1- É possível juntarmos 2 conjuntos, com elementos distintos ou não, em um só conjunto, com todos eles?

    2- É possível fazer esta “junção de conjuntos” de forma algébrica?

    Explicando melhor:

    a- Digamos que eu tenha um conjunto formado pelos números ímpares sendo
    [2*n - 1] = {1,3,5,7,9,…

    b- Digamos que eu tenha um segundo conjunto, agora formado pelos números pares: [2*n] = {2,4,6,8,10…}

    Obviamente, se juntarmos os dois conjuntos, teremos os números inteiros positivos (sem o zero), ou seja, n = {1,2,3,4,5,6,7,8,9,10,…}

    Logicamente que a junção do item “a” com o item “b” não foi algébrica. Foi através de retas.

    Minha dúvida central é: é possível fazer esta conta de modo algébrico?
    [2*n - 1] + [2*n] = n

    Se isto for possível, então eu sei determinar precisamente como encontrar uma fórmula que determine se o número é primo ou não. Eu estou afirmando categoricamente isto.

    Alguém pode ajudar?

  8. Teoria da Informação Quântica pode revelar a natureza real do mundo físico

    (http://hypescience.com/teoria-da-informacao-quantica-pode-revelar-a-natureza-real-do-mundo-fisico/?utm_source=feedburner&utm_medium=email&utm_campaign=Feed%3A+feedburner%2Fxgpv+%28HypeScience%29 )

    Por Bernardo Staut em 1.04.2012 as 17:00 RSS RSS Feeds

    Pergunte para qualquer físico quais são as duas principais teorias do século 20, e eles provavelmente vão dar a mesma resposta: a teoria da relatividade de Einstein e a mecânica quântica. Mas talvez uma terceira teoria, do século 21, entre para o hall da fama: a Teoria da Informação Quântica, ou Teoria Quântica da Informação.

    A mecânica quântica surgiu na década de 20, para descrever o estranho comportamento dos átomos e elétrons. Já a teoria da informação apareceu duas décadas depois, com fórmulas para quantificar a comunicação através de telefones.

    Ao contrário dos físicos quânticos, mais preocupados em desenvolver computadores super rápidos, os teóricos da informação quântica estão motivados a entender a realidade física, e entender melhor a mecânica quântica da natureza.

    Realidade computadorizada

    No coração da ciência da informação quântica está um modelo de representação da informação, conhecido como qubit. Ele é análogo ao 1 e 0 , processados por computadores comuns – os bits. Mas um qubit está dentro do universo quântico, por isso pode ser o 1 e o 0 ao mesmo tempo. Essa superposição de identidade dá à informação quântica um poder extraordinário.

    Os qubits podem, por exemplo, transmitir mensagens codificadas super seguras, tipicamente na forma de fótons. Elas são seguras porque qualquer tentativa de alterar a mensagem seria notada.

    Esse tipo de sistema já é comercializado, e talvez um dia se torne uma necessidade de mercado devido à outra aplicação da Informação Quântica: a computação quântica. Computadores com qubtis poderiam resolver problemas que um supercomputador comum não conseguiria em milhões de anos.

    Aplicações? Você poderia usar um computador assim para prever o resultado de reações químicas, por exemplo, sem necessitar dos tubos de laboratório. Essa habilidade poderia melhorar a produção de materiais industriais e de medicamentos.

    “Nós não prevemos que você vai usar um computador quântico para enviar um e-mail. Mas jogos quânticos seriam realmente incríveis”, afirma o físico John Preskill.

    Além do mercado, os cientistas pretendem usar essas teorias para entrar nas fundações da realidade. A quântica poderia mostrar a interface entre a matemática e o mundo físico.

    Quebrar códigos, por exemplo, envolve solucionar o complicado problema matemático de encontrar os fatores primos de um número muito grande, com centenas de dígitos. Mas, como descoberto por Peter Shor, em 1994, algoritmos do computador quântico conseguem solucionar isso – e as implicações são grandes.

    “Fatores são um problema difícil clássico”, afirma Preskill. “Mas os algoritmos de Shor demonstram que isso é um problema fácil para a visão quântica”. Em outras palavras, o processamento de informações quânticas revela algo sobre a relação matemática com a realidade física, algo antes não imaginado.

    Mas alguns problemas matemáticos são difíceis até quanticamente. Entendê-los poderia nos dar uma noção de que tipos de computações matemáticas são possíveis no universo físico.

    Um desses problemas, que está sendo estudado pelo cientista Scott Aaronson, é a tese de Church-Turing. Ela basicamente indica que qualquer coisa que possa ser computada por um sistema físico também pode ser computada por um computador “universal” idealizado, chamado de máquina de Turing.

    “Isso é uma afirmação falsificada sobre as leis da física”, afirma Aaronson. “Ela expressa a crença de que se as leis da física forem como um código de computador, então qualquer linguagem de programação para as leis da natureza poderia emular qualquer outra”.

    Mas as ideias de Shor atestam que os computadores quânticos poderiam fazer coisas que uma máquina de Turing não conseguiria. Nesse caso, ou a computação quântica é impossível (o que não é muito provável, já que isso implicaria que a mecânica quântica está errada), ou a tese de Church-Turing está incorreta no que tange o mundo físico, a não ser que exista uma maneira de um computador comum simular a física quântica. “Ninguém provou isso, mas seria uma incrível descoberta matemática”, afirma Aaronson.

    Raízes quânticas

    Uma descoberta igualmente incrível seria identificar o princípio físico que exige que a realidade obedeça às regas da mecânica quântica. No começo, os pioneiros quânticos visualizaram a matemática que funciona – e que exige o estranho conceito de múltiplas realidades possíveis. Mas a questão do por quê uma matemática tão bizarra funcionava tão bem era deixada de lado.

    Mas, nos últimos tempos, a aventura em busca de um princípio físico pelo qual a mecânica quântica funciona tem ganhado força, e a informação quântica tem sido o motor disso. [ScienceNews]

  9. [...] com matéria tão difícil e complexa. Mas em eu já havia feito um post depois que li o livro O QUE É COMPUTAÇÃO QUÂNTICA. Assim prossigo nesse atrevimento com esses três artigos que me foram enviados por um amigo [...]

  10. […] para onde a computação quântica pode nos levar e os seus avanços e desafios […]


Deixe uma resposta

Preencha os seus dados abaixo ou clique em um ícone para log in:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair / Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair / Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair / Alterar )

Foto do Google+

Você está comentando utilizando sua conta Google+. Sair / Alterar )

Conectando a %s

Blog no WordPress.com. | O tema Pool.
Entradas e comentários feeds.

Seguir

Obtenha todo post novo entregue na sua caixa de entrada.

Junte-se a 66 outros seguidores

%d blogueiros gostam disto: