Melissa Schröder
Em 1946, surgiu o primeiro computador digital: o Eniac (sigla em inglês para “Computador e integrador numérico eletrônico”), que o Exército americano desenvolveu para calcular a trajetória de mísseis. Era ótimo para a época, mas tinha um problemão: pesava 30 toneladas, e usava 18 mil válvulas eletrônicas. Às vezes, mariposas e outros bichinhos se enfiavam entre elas, o que fazia a máquina travar – e deu origem à expressão bug (inseto, em inglês). Em 1971, tudo mudou. Ted Hoff, funcionário de uma pouco conhecida empresa chamada Intel, criou o microprocessador. Em vez de válvulas, o chip usava circuitos chamados transistores – 2.300 deles, espremidos num espaço equivalente ao de uma unha. De lá para cá, a quantidade de transistores dobrou a cada 18 meses, e a potência também – o chip de um iPhone, por exemplo, é 1.300 vezes mais rápido que o computador da Apollo 11, que levou o homem à Lua. Mas isso é apenas o começo. A próxima esperança tecnológica é o chip quântico, 35 mil vezes mais veloz que os atuais.