CRAWLING: uno de los secretos del buscador de Google

crawling

Este gigante de Internet explica de forma interactiva los entresijos desde la introducción de las palabras clave hasta la localización del contenido una vez realizamos una búsqueda a través de ellos.

Un gesto tan sencillo y cotidiano como introducir varias palabras clave lleva consigo un complejo mecanismo de búsqueda que se produce en menos de un segundo.

El cambiante algoritmo de búsqueda de Google ha sido siempre un misterio. La compañía ha ido mejorándolo y modificándolo en los últimos años para dar prioridad a sus servicios y a la información más actual.

Pero, ¿cómo funciona realmente? 

El coloso informático estadounidense ha lanzado una web para dar respuesta al mecanismo del algoritmo.

Desde la página web “How Search Works” muestran los pasos desde que el momento en el que se introduce una consulta hasta encontrar el resultado, pasando por la indexación hasta como se elimina el spam, un procedimiento que se produce “automáticamente”.

El motor de búsqueda de Google (Chrome) está en constante crecimiento. Actualmente recoge más de 30 millones de millones de páginas, maneja alrededor de 100 millones de gigabytes, recibe unos100.000 millones de búsquedas mensuales.

Recalcular y ordenar este material se produce a través de un procedimiento llamado “crawling”, que recorre las diferentes páginas y las indexa en un periodo de tiempo de 2 días.  De esta forma, los propietarios de los portales pueden decidir si su contenido se rastrea o no. Google ordena las páginas en función del contenido y otros factores mediante una serie de fórmulas matemáticas que ofrecen “el mejor resultado”.

Esos algoritmos ponen manos a la obra al motor de búsqueda para traducir lo que los usuarios pretenden encontrar.  Lo consiguen mediante diversas funcionalidades como la proporción de alternativas de búsqueda (entre otros muchos). Basado en esos parámetros se devuelve un ranking de resultados usando más de 200.000 variables.

Hasta hace poco, Google tenía en cuenta como algoritmo prioritario los metatags (key words), lo que hizo que muchos programadores utilizaran este método para posicionar mejor las páginas web. El problema es que muchos de ellos “engañaron” a Google creando páginas enteras con metatags ocultos para nosotros, pero visibles para el motor de búsqueda.

De ahí nace el nuevo sistema de búsqueda conocido como Penguin. Este sistema tiene en cuenta como algoritmos prioritarios otros factores como el link building o el page Rank, solucionando así el problema de los metatags ocultos. Según los portavoces de la compañía “Nuestros algoritmos están cambiando constantemente. Estos cambios empiezan en la mente de nuestros ingenieros. Toman ideas y realizar experimentos, analizan los resultados, ajustan y las ejecutan una y otra vez”. Síguenos y conoce con nosotros todos los entresijos sobre el posicionamiento natural.

Nacho, El blog de Max Power

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s