Les recomiendo la lectura del libro de Antonio Salas: Los hombres que susurran a las máquinas.
Deep Web: Se conoce como internet
profunda, internet invisible o internet oculta al
contenido de internet que no es indexado por los motores de búsqueda
convencionales, debido a diversos factores. El término se atribuye al
informático Mike Bergman. Es el opuesto al Internet superficial.
La
principal causa de la existencia del internet profunda es la imposibilidad de
los motores de búsqueda (Google, Yahoo, Bing, etc.) de encontrar o indexar gran
parte de la información existente en Internet. Si los buscadores tuvieran la
capacidad para acceder a toda la información entonces la magnitud de la
«internet profunda» se reduciría casi en su totalidad. No obstante, aunque los
motores de búsqueda pudieran indexar la información del internet profunda esto
no significaría que esta dejara de existir, ya que siempre existirán las
páginas privadas. Los motores de búsqueda no pueden acceder a la información de
estas páginas y sólo determinados usuarios, aquellos con contraseñas o códigos
especiales, pueden hacerlo.
La
internet profunda es un conjunto de sitios web y bases de datos que buscadores
comunes no pueden encontrar ya que no están indexadas. El contenido que se
puede hallar dentro de la internet profunda es muy amplio.
El
internet se ve dividido en dos ramas, La internet profunda y la superficial. La
internet superficial se compone de páginas indexadas en servidores DNS con una
alfabetización y codificación de página perfectamente entendible por los
motores de búsqueda, mientras que la web profunda está compuesta de páginas
cuyos dominios están registrados con extensiones .onion y los nombres de los
dominios están codificados en una trama HASH. Estas páginas se sirven de forma
ad hoc, y no necesitan registrarse, basta con que tu ordenador tenga
funcionando un servicio onion, que hará las veces de un servicio dns, pero
especial para las páginas del internet profundo. Mediante una red P2P, se
replican las bases de datos que contienen la resolución de nombres HASH.
Mientras
que las páginas normales son identificadas mediante el protocolo UDP/IP, las páginas
.onion son repetidas por el ramal al que se ha conectado el navegador
especializado para tal sistema de navegación segura. El sistema de búsqueda es
el mismo que usa BitTorrent. El contenido se coloca en una base de datos y se
proporciona sólo cuando lo solicite el usuario.
En
2010 se estimó que la información que se encuentra en la internet profunda es
de 7500 terabytes, lo que equivale a aproximadamente 550 billones de documentos
individuales. El contenido de la internet profunda es de 400 a 550 veces mayor
de lo que se puede encontrar en la internet superficial. En comparación, se
estima que la internet superficial contiene solo 19 terabytes de contenido y un
billón de documentos individuales.
También
en 2010 se estimó que existían más de 200 000 sitios en la internet
profunda.
Estimaciones
basadas en la extrapolación de un estudio de la Universidad de California en
Berkeley especula que actualmente la internet profunda debe tener unos
91 000 terabytes.
La
Association for Computing Machinery (ACM) publicó en 2007 que Google y Yahoo indexaban
el 32 % de los objetos de la internet profunda, y MSN tenía la cobertura
más pequeña con el 11 %. Sin embargo, la cobertura de los tres motores era
de 37 %, lo que indicaba que estaban indexando casi los mismos objetos.
Se
estima que alrededor del 95 % del internet es internet profunda, también
le llaman invisible u oculta, ya que la información que alberga no siempre está
disponible para su uso. Por ello se han desarrollado herramientas como
buscadores especializados para acceder a ella.
No hay comentarios:
Publicar un comentario