Web Superficial y la Web Profunda

Siguiendo con el Mooc de Miriadax “Encontrando tesoros en la red” esta semana trabajamos la diferenciación de las webs superficiales y profundas, trabajamos las características de la web superficial contrastadas con la de la web profunda a la que rara vez tenemos acceso los docentes y no por el hecho de no querer hacerlo, sino por desconocimiento.

La web que todos conocemos representa solo el 4 % de todo lo que existe en internet, el 96 % restante es información secreta, privada y mayormente prohibida. Este tipo de información la encontramos en la Deep Web.

La Deep Web (o web profunda) es la porción no visible de internet, o dicho de una forma simple, son los lugares en internet donde los motores de búsqueda no pueden indexar, de acceso muy limitado a pesar de los software’s de los buscadores.

Siempre que alguien pide una representación de Internet, los expertos recurren a la imagen de un enorme iceberg: en la superficie, toda la información al alcance de cualquier usuario a través de buscadores como Google, Yahoo o Bing!, y bajo el agua, escondido a los ojos de la mayoría de navegantes, una enorme masa de tamaño indefinido, con un fondo profundo y oscuro en el que muy pocos se atreven a adentrarse.

Fuente: http://www.elrincondemarketing.es/wp-content/uploads/2015/01/mZGgyj5.jpg

Las partes ocultas de Internet como red profunda aparecieron en el año 2001, debido a que es la parte del contenido no indexado por los principales medios de navegación superficial, los motores de búsqueda. A pesar de que muchos pueden pensar que nada escapa a Google, lo cierto es que millones de páginas son invisibles a su lupa. El motivo se divide generalmente en tres factores.

  • El primero es técnico e involuntario, y es debido a una falta de actualización, lo que ha llevado a páginas de cierta antigüedad a caer en el olvido para los buscadores.
  • El segundo caso es el de los sitios privados y protegidos o aquellos que contienen documentos en formatos que no pueden ser indexados. En estos dos casos, los potentes motores no encontrarán forma de leer o acceder a los datos.
  • El otro caso es el de la decisión deliberada por parte del programador de no ser revisado periódicamente por los robots que indexan información

A continuación incorporo un pequeño documental aerca de la internet profunda

Etiquetas: , ,

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s


A %d blogueros les gusta esto: