As tecnologias digitais representam um dos setores mais dinâmicos do desenvolvimento tecnológico contemporâneo, no contexto das dificuldades de recuperação da economia mundial desde a crise de 2008.
A velocidade das mudanças que acontecem neste terreno fazem com que suas origens e tendências tenham hoje maior relevância por suas implicações em todas as atividades econômicas, sociais, militares e laborais.
Nesta nota tentaremos apresentar um olhar sobre a evolução da capacidade de processamento da informação desde suas origens, nos centraremos no surgimento da tecnologia dos microprocessadores ou semicondutores, e neste marco analisaremos a atual “guerra dos chips” ou crise dos semicondutores, que concentra uma das preocupações centrais das principais potências devido ao crescimento de sua demanda, potencializada pela pandemia
.As origensPodemos dizer que toda a informática moderna, comunicações, redes, bases de dados e a chamada “internet das coisas”, presente cada vez mais em quase todos os aparatos, se baseia em três dimensões chave para entender seu desenvolvimento: processamento, armazenamento e transferência da informação. Do avanço nas capacidades e custos nestes terrenos dependem o resto dos desenvolvimentos que permitem que a informação digital substitua cada vez mais processos analógicos em todos os terrenos da atividade humana, gerando por sua vez inovações e possibilidades de desenvolvimento em tecnologia digital impensáveis décadas atrás.
Ainda que iremos nos concentrar aqui na evolução dos processadores, é preciso ter em conta que esta é acompanhada de contínuas melhorias nas memórias, na entrada/saída de dados, transferência de informação e diversas formas de melhorar o hardware, como também as melhoras permanentes a nível de software que fazem uso das novas capacidades e otimizam o uso dos computadores.
Também é preciso ter em conta que estas inovações vão se desenvolvendo no marco das relações de produção capitalista que orientam seus desenvolvimentos e os condicionam de acordo com as necessidades de lucro das empresas ou do interesse dos Estados das principais potências.
Primeiros computadoresNos anos 1950, apareceram os primeiros computadores digitais de propósito geral que se fabricaram utilizando válvulas (tubos de vácuo ou bulbos). Esta tecnologia gerava tamanhos enormes dos computadores da época, grandes consumos de energia, problemas de aquecimento e uma capacidade de processamento limitada
.O transistor assentou as bases para a eletrônica moderna e marcou todos os desenvolvimentos posteriores até a atualidade. A tecnologia dos circuitos de estado sólido baseada em transistores evoluiu nesta década. Desta maneira o uso de transistores permitiu reduzir substancialmente custo, tamanho e peso dos processadores, assim como permitiu conseguir um menor consumo de energia e aquecimento. O emprego do silício (Si) como material semicondutor de baixo custo unitário e com métodos de produção massiva, fizeram do transistor o componente mais usado para o design de circuitos eletrônicos até finais da década de 1950
No início da década de 1960, a eletrônica de estado sólido sofreu um notável avanço, que permitiu a integração de grandes quantidades de pequenos transistores dentro de um pequeno circuito integrado
.Desta maneira se conseguiu uma significativa redução em tamanho, custo e um maior rendimento, comparado aos transistores discretos. Isto porque devido a que os transistores (que constituem os circuitos) se “imprimem” (geralmente mediante fotolitografia) por sua vez sobre um material semicondutor em lugar de construir os transistores individualmente.
O que faz com que usem muito menos material, aumentem seu rendimento e utilizem menos potência, pelo menor tamanho e proximidade de seus componentes.
Os circuitos integrados ou chips são usados em praticamente todos os equipamentos eletrônicos hoje em dia.Até os primeiros anos da década de 1970 era necessário utilizar vários chips para fazer um processador de um computador (CPU). Mas em 1971 a norte-americana Intel conseguiu pela primeira vez “imprimir” todos os transistores que constituíam um processador em um único circuito integrado (o Intel 4004). Nascia o microprocessador, sua primeira versão tinha uma frequência de 740 kHz, integrava em um único chip 2.300 transistores e uma tecnologia de 10 micrômetros (10.000 nanômetros), ou seja, na ordem de uns 1.000 transistores por centímetro.
A partir do momento que os microprocessadores foram comercializados, o custo de produzir um sistema de processamento caiu drasticamente.
A aritmética, lógica e funções de controle que previamente ocuparam várias e caras placas de circuitos, agora estavam todas disponíveis em um único circuito integrado que era muito caro de desenhar e fabricar, mas barato de produzir em grandes quantidades.Em paralelo também se lançam os primeiros chips de memória RAM, que permitiram que os dados críticos e de uso recorrente pudessem ser consultados e armazenados muito mais rapidamente pelos computadores
. Em paralelo se desenvolveram também tecnologias que permitiram o armazenamento de maiores volumes de informação a um custo mais acessível
.Estes avanços, impactaram no desenvolvimento dos grandes centros de processamento com mais capacidade por um lado, enquanto que por outro lado começaram a aparecer os modernos computadores pessoais (conhecidos como PC) que permitiam executar programas destinados tanto a empresas como à informática de consumo massivo
.A informática de consumo surge durante os anos 80. As capacidades de processamento neste momento permitiam executar os primeiros programas de folhas de cálculo, processadores de texto e videogames. Em 1982, se estima que havia uns 15 milhões de PCs baseados no Intel 286, instalados ao redor do mundo
Fruto de maiores capacidades de processamento e menores custos, ano após ano surgem novos modelos de computadores que deixam obsoletos os anteriores.
Durante os anos 90, o incremento das capacidades de processamento e a expansão da internet, além de melhores programas, permitem incorporar os primeiros conteúdos multimídia (imagem, áudio e vídeo) que também começavam a ser compartilhados, primeiramente por linhas telefônicas analógicas de baixa velocidade.
A incorporação da fibra óptica permitiu paulatinamente obter uma maior velocidade nas comunicações digitais.Ao fim da década de 1990, ao redor de 80% do tráfego de dados de longa distância do mundo se transmitia através de cabos de fibra óptica e o uso dos computadores ia se tornando mais massivo. A quantidade de computadores conectados à Internet passa de 1 milhão (1992), a 10 milhões (1996), e a 1 bilhão (2005)
.Nos anos seguintes se desenvolveu todo tipo de circuitos integrados não somente de propósito geral mas de propósitos específicos, como os processadores gráficos ou GPU (Graphics Processing Unit) que depois serão usados também para servidores, “inteligência artificial” e criptomoedas. Os chips são de tamanho cada vez menor e consomem cada vez menos, como os modelos ARM
], que permitem ser usados em dispositivos menores com baterias, como os celulares, tablets, etc.
A evolução dos chips também deixam sua marca nos distintos modelos de celulares que também ficam obsoletos ano após ano. Seguem se integrando cada vez mais componentes em um processador e surgem uma infinidade de chips com designs específicos para uma multiplicidade de propósitos. Enquanto isso, se gera a expansão de novas necessidades, mercados e serviços digitais
.Junto às capacidades de processamento, cresciam também as possíveis aplicações das tecnologias digitais. No início suas aplicações se centram na possibilidade de realizar grande quantidade de operações matemáticas, complexas e repetitivas em pouco tempo, que permitiam sua aplicação em balística, criptografia, estatísticas, censos e todo tipo de operações matemáticas, contábeis e financeiras. Depois, com o desenvolvimento da Internet e o uso de sistemas nas empresas, começou a se utilizar cada vez mais para o processamento de texto, emails, chats, processadores de texto, folhas de cálculo e o crescimento das bases de dados.Os primeiros conteúdos de imagem, áudio e vídeo podiam ser compartilhados. Mas seu uso era muito limitado, tanto em sua transferência, quanto no processamento e capacidade de armazenamento, devido ao volume de informação que este tipo de conteúdo requer e ao fato de que os custos dos computadores eram ainda muito altos. Poder substituir processos analógicos, com programas instalados que funcionam agilmente e de maneira econômica, como os arquivos de papel, os telefones, a rádio e a televisão, requer dispositivos com maiores capacidades digitais capazes de processar grandes volumes de informação a baixo custo.
Na atualidade há ainda muitas tecnologias que estão em processo de transição ao digital. Hoje em dia os microchips são usados não só em computadores, telefones, automóveis, maquinarias avançadas e robótica, mas cada vez mais a quase todos os dispositivos, processo que se conhece como “Internet das Coisas” (por suas siglas em inglês, IoT).
Mas esse crescimento implica demandas ainda maiores de capacidade de processamento de informação, porque também crescem os volumes de dados que provêm de sensores e bases de dados, que possam servir para tomar decisões e dar respostas em tempo real
Justamente, a possibilidade de automatizar muitos dos processos da atividade humana no futuro dependerá da possibilidade de que os dispositivos equipados com microchips e sensores possam tomar cada vez maior quantidade de “decisões” de maneira autônoma em tempo real (em menos tempo que o ser humano) em base a informação do entorno e a baixo custo .
Por sua vez, os dispositivos já equipados com chips, também recebem maiores volumes de informação e demandam mais capacidades para melhores respostas em menos tempo e com maiores graus de autonomia.
Como se pode observar, como poderá evoluir a capacidade dos processadores no futuro e quanto poderá se manter esta tendência não é um dado menor.A “Lei de Moore”No ano 1965 Gordon Moore, físico, pesquisador e posteriormente cofundador da Intel, escreveu em um artigo de uma revista de eletrônica o que hoje se conhece como a “Lei de Moore”.
Ali afirmava que a quantidade de transistores de um processador se duplicaria anualmente nos 10 anos seguintes, ou seja, um crescimento exponencial.
Anos mais tarde ajustou este prognóstico a dois anos e esta previsão superou todas as expectativas (incluindo as do próprio autor) sustentando este crescimento por mais de 50 anos até a atualidade.Ainda que esta previsão não incorpore outros fatores como rendimento efetivo, consumo de energia ou custos, permite ilustrar o ascenso exponencial das capacidades de processamento das tecnologias digitais.
Nestes momentos, no muito mais restrito mundo da informática, se tinha claro que a tecnologia digital ia ter importantes avanços pelas vantagens dos chips, os baixos custos do silício e depois da fibra óptica, mas ninguém imaginava um crescimento exponencial semelhante, nem por tanto tempo.