Web Crawler é um programa utilizado para fazer uma
busca na Word Wide Web nos links tags, palavras-chaves, etc, atualizando de forma uniforme a
sua base de dados, realizando uma copiando todas as páginas nos bancos de dados
chamados indexing, que guarda todas as buscas
encontradas belo Web Crawler no
seu banco de dados facilitando o Searching, que
é o próprio mecanismo de busca realizado pelo usuário.
terça-feira, 28 de outubro de 2014
sábado, 25 de outubro de 2014
Tabela de links distintos
A tabela abaixo demostra a diferença entre os sites entres
os sites de busca mais utilizados do mundo.
sábado, 11 de outubro de 2014
Checksum
![]() |
| Imagem http://www.nautilus.com.br/ |
É um software de código aberto, um sistema operacional que faz a soma de verificação de dados de um arquivo, se está ou não sendo corrompido durante a sua transmissão (download) ou armazenamento de dados, e quando o sistema ou programa finaliza o processo de download ele passa pelo algoritmo que realiza a soma de verificação do arquivo. Essa soma de verificação é muito sofisticada e substancialmente mais confiável na detecção de erros na transmissão de arquivos.
Md5 verificador da integridade de dados do arquivo com base em algoritmos.
Assinar:
Comentários (Atom)



