Administradores de páginas web y proveedores de contenido, comenzaron a optimizar sitios web en los motores de búsqueda a mediados de 1990, tan pronto los motores de búsqueda comenzaban a catalogar el primer Internet.

Al comienzo, todo lo que los administradores de páginas web tenían que hacer, era enviar la dirección de una página web o URL, a los diferentes motores, los cuales, enviarían una Araña web para inspeccionar esa web, extraer los vínculos hacia otras páginas de esa web, y devolver la información recogida para ser indexada. El proceso involucra a un Araña web motor de búsqueda, descargarse una página y almacenarla en los servidores del motor de búsqueda, donde un segundo programa, conocido como indexador, extrae información sobre la página, como las palabras que contiene y donde están localizadas, así como la relevancia de palabras específicas y todos los vínculos que la página contiene, los cuales se almacenan en un proceso programado para ser analizados más tarde.

Los dueños de sitios web comenzaron a reconocer el valor de tener sus páginas web bien posicionadas y visibles para los motores de búsqueda, creando una oportunidad para los usuarios de técnicas SEO, “white hat” (gorro blanco) y “black hat” (gorro negro). De acuerdo con los análisis del experto, Danny Sullivan, el término “optimización de motores de búsqueda”, comenzó a usarse en 19972 . El primer uso documentado del término Optimización de Motores de Búsqueda (SEO), se da de la mano de John Audette y su compañía, Multimedia Marketing Group, documentado por una página web del sitio web MMG en agosto de 1997.

Las primeras versiones de los algoritmos de búsqueda se basaban en la información provista por los administradores de páginas web, como las palabras clave meta tag, o ficheros indexados en motores como ALIWEB. Meta tag ofrecía una guía para el contenido de cada página. Usar meta datos para indexar una página fue un método no demasiado preciso, ya que las palabras provistas por el administrador de sitio web en los meta tag, podría ser una representación no precisa del contenido real de la página web. Datos imprecisos, incompletos e inconsistentes en meta tags podría causar y causó que páginas posicionaran para búsquedas irrelevantes.3 Los proveedores de contenido web también manipulaban una serie de atributos en el código fuente HTML de sus páginas en un intento de posicionar bien en los motores de búsqueda.4

Debido a la importancia de factores como la densidad de palabras clave, la cual estaba al total control del administrador de páginas web, los primeros motores de búsqueda sufrieron el abuso y la manipulación de las clasificaciones. Para proveer de mejores resultados para sus usuarios, los motores de búsqueda tenían que adaptarse para asegurar que sus páginas de resultados mostraban las búsquedas más relevantes en vez de páginas no relacionadas, llenas de palabras clave por administrador de página webs sin escrúpulos. Contando con que el éxito y popularidad de motor de búsqueda están condicionados por su capacidad de producir los resultados más relevantes para cualquier búsqueda, permitir que los resultados fuera falsos, haría que los usuarios se fueran a otros motores de búsqueda. Los motores de búsqueda respondieron desarrollando algoritmos de clasificación más complejos, tomando en cuenta factores adicionales para que fuera más difíciles de manipular por los administrador de páginas web.

Estudiantes graduados por la Universidad de Stanford, Larry Page y Sergey Brin, desarrollaron “Backrub”, un motor de búsqueda que se basaba en un algoritmo matemático que puntuaba la relevancia de páginas web. PageRank, es el nombre del número calculado por el algoritmo, una función que cuenta con la cantidad y fuerza de vínculos entrantes. PageRank estima la posibilidad de que una página web será visita por un usuario web que navega aleatoriamente por la web, y sigue vínculos de una página a otra. Realmente, esto significa que algunos vínculos son más fuerte que otros, por lo que una página con PageRank más alto tiene más posibilidad de ser visitada por un usuario aleatorio. Page y Brin fundaron Google en 1998. Google atrajo a seguidores fieles entre el creciente número de usuarios de Internet, a los cuales les gustó su diseño sencillo.

Factores externos a la página (PageRank y análisis de vínculos), fueron considerados a la par de factores internos (frecuencia de palabra clave, meta tags, cabeceras, vínculos y estructura del sitio web), para permitir a Google evitar el tipo de manipulación vista en motores de búsqueda que solo consideraban factores internos de la página para las clasificaciones. Aunque PageRank era más difícil de manipular, los administrador de páginas webs ya habían desarrollado herramientas de creación de vínculos y planes para influenciar el motor de búsqueda Inktomi, y estos métodos también fueron eficaces para manipular PageRank. Mucho sitios se centraron en intercambiar, comprar y vender vínculos, a menudo, a gran escala. Algunos de estos sistemas, o granjas de vínculos, incluían la creación de miles de sitios con el único propósito de crear vínculos basura.

En 2004, los motores de búsqueda había incorporado un amplio número de factores sin publicar en sus algoritmo de clasificación para reducir el impacto de la manipulación de vínculos. En junio de 2007, Hansell del New York Times, declaró que los motores de búsqueda estaban usando más de 200 factores. Los principales motores de búsqueda, Google, Bing y Yahoo, no publican los algoritmos que usan para posicionar páginas web. Algunos posicionadores o SEO han estudiado distintas maneras de tratar la optimización de los motores de búsqueda, y han compartido sus opiniones. Patentes relacionadas con los motores de búsqueda pueden proveer información para entender mejor a los motores de búsqueda.

En 2005, Google comenzó a personalizar los resultados de búsqueda para cada usuario, dependiendo de su historial en búsquedas previas, Google ofrecía resultados personalizados para usuarios registrados. En 2008, Bruce Clay dijo “el posicionamiento está muerto” debido a la búsqueda personalizada. Opinaba que resultaría irrelevante discutir como un sitio web se posiciona, por su posición variaría en función de cada usuario, cada búsqueda.

En 2007, Google anunció una campaña en contra de los vínculos de pago que transfieren PageRank. El 15 de junio de 2009, Google publicó que había tomado medidas para mitigar los efectos del tallado de PageRank, implementando el atributo nofollow en los vínculos. Matt Cutts, un conocido ingeniero de software de Google, anunció que Google Bot, trataría de manera diferente los vínculos con no follow, con idea de prevenir que los proveedores de servicios de posicionamiento (SEO) usaran no follow para el tallado de PageRank.

El resultado es que el uso de nofollow lleva a la evaporación de PageRank. Para evitar lo arriba mencionado, ingenieros posicionadores (SEO) desarrollaron distintas técnicas alternativas que cambiarían las etiquetas nofollow con Javascript ofuscado, permitiendo el tallado de PageRank. Además de diversas soluciones que incluyen el uso de iframes, Flash y Javascript.

En diciembre del 2009, Google anunció que usaría el historial de búsqueda de todos los usuarios para elaborar los resultados de búsqueda.

Google Instant, búsqueda en tiempo real, fue introducido a finales de 2010 en un intento de hacer los resultados de búsqueda más relevantes y recientes. Históricamente administradores de web han gastado meses o incluso años en optimizar un sitio web para mejorar su posicionamiento. Con el aumento en popularidad de las redes sociales y blogs, los principales motores hicieron cambios en sus algoritmos para permitir contenido fresco y posicionar rápidamente en los resultados de búsqueda. En febrero de 2011, Google anunció la actualización “Panda”, la cual penaliza sitios web que contengan contenido duplicado de otros sitios y fuentes. Históricamente las páginas web han copiado contenido de otras beneficiándose en los clasificación de los motores de búsqueda aplicando esta técnica, sin embargo Google implementó un nuevo sistema en el que penaliza a las páginas web cuyo contenido no es único.

En abril del 2012, Google anunció la actualización “Penguin” cuyo objetivo era penalizar a aquellos sitios que usaban técnicas manipuladoras para mejorar sus rankings.
fuente.wikipedia

Firefox 7: novedades Firefox 7, pretende convertirse en un nuevo intento de la Fundación Mozilla por retomar el camino del crecimiento que ha venido perdiendo progresivame...
Ranking Navegadores Diciembre 2011 El navegador web de Google que centra buena parte de la atención en la carrera de navegadores web ha dado un nuevo paso en su intención por convertirs...
Demandan a Apple sus propios trabajadores por no pagar al día ni dar descanso Apple acaba de recibir dos reveses. El primero es la caída de las ventas de su negocio de tablets. Los de Cupertino han dado a conocer sus resultados ...
mysqli field seek (PHP 5) mysqli_field_seek, result->field_seek — Fija el apuntador del resultado a una posicion específica Descripción Estilo por procedim...
Modelo de cajas en CSS El modelo de cajas o "box model" es seguramente la característica más importante del lenguaje de hojas de estilos CSS, ya que condiciona el diseño de ...
GIMP 2.8 GIMP 2.8 es el resultado de dos años de trabajo (desde la versión anterior) en el desarrollo de una herramienta cuyas nuevas características pretenden...
Que trae el nuevo Flickr? leelo aquí.. Con motivo del evento anual Photo Hack Day, Markus Spiering uno de los máximos responsables de Flickr ha dado a conocer un rediseño del producto. A...
FireCookie, gestor de cookies en Firebug FireCookie añade una nueva pestaña a Firebug con la que observar el flujo de cookies en una página web. Este complemento nos permite examinar el co...
Código para generar un RSS con los archivos de un directorio Esta clase se puede utilizar para generar un feed RSS de los archivos de un directorio de PF. Se puede leer la lista de archivos disponibles en un ...
Mitos sobre el alojamiento web y recomendaciones para elegir uno… Muchos usuarios al día adquieren planes de alojamiento web , muchas veces caen en lo que yo llamo "la trampa de las letras pequeñas", y es que, en un ...