Quanto tempo o Google demoraria para catalogar todas as páginas da internet?
Cerca de 300 anos. Esse é o tempo estimado pelo executivo-chefe do Google, Eric Schmidt, para catalogar toda a informação da internet e torná-la “buscável”. Segundo o chefão do Google, a quantidade de informação da internet chega a 5 milhões de terabytes – o número 5 seguido de 18 zeros! Desse absurdo total, apenas 170 […]
Cerca de 300 anos. Esse é o tempo estimado pelo executivo-chefe do Google, Eric Schmidt, para catalogar toda a informação da internet e torná-la “buscável”. Segundo o chefão do Google, a quantidade de informação da internet chega a 5 milhões de terabytes – o número 5 seguido de 18 zeros! Desse absurdo total, apenas 170 terabytes foram catalogados até agora. Em termos porcentuais, isso dá apenas 0,0034% da informação disponível. Portanto, a imensa maioria das páginas da web está fora do índice do Google. E com a tecnologia atual, elas vão continuar ausentes por muito tempo. Isso porque os quatro robôs do Google – softwares especiais que fazem a busca pelas páginas da web – conseguem juntos catalogar apenas 600 mil bytes por segundo. A esse ritmo, os robôs demorariam por volta de 270 anos (ou, arredondando, “cerca de 300 anos”) para indexar toda a informação da internet – isso considerando que a rede mundial de computadores continue no mesmo tamanho de hoje, o que é bem improvável. Entre as páginas mais difíceis de ser achadas pelo Google estão as dos sites feitos exclusivamente com programas como Flash, que não “traduzem” em texto toda a informação, os sites com endereços com terminações ?id= seguidas de algarismos (isso rola muito em lojas virtuais, por exemplo), e sites com mais de cem links na página. Os mais “acháveis”, ao contrário, são sites com menos de cem links, que têm links em outras páginas apontando para eles e que têm informação bem organizada – com títulos e subtítulos, por exemplo.