Optimizando PDFs para SEO

Uno de los objetivos de Google es organizar la mayor cantidad de información posible y hacer que esta sea accesible para cualquier usuario. Para lograr este fin, el buscador líder de Internet se encuentra con archivos que no son HTML, entre los que destacan los documentos PDF.

Los algoritmos de Google no se detienen ante formatos de archivo diferentes., por ello desde 2001, fecha en que comenzó el indexado de archivos PDF, ya cuenta con cientos de millones de archivos PDFs indexados.

Google ha presentado una recopilación de las preguntas más frecuentes sobre la indexación de archivos en formato PDF:

  • ¿Google puede indexar cualquier tipo de archivo PDF?

Normalmente, se puede indexar contenido escrito en cualquier idioma, de los archivos PDF que utilizan diferentes tipos de codificación de caracteres, siempre que no estén cifrados ni protegidos por contraseña. Si el texto está insertado en forma de imágenes, se puede procesar las imágenes con algoritmos OCR para extraer el texto. Por tanto si se puede copiar el texto de un documento PDF y pegarlo en un documento de texto estándar, se debería poder indexar.

  • ¿Qué ocurre con las imágenes de los archivos PDF?

Actualmente, las imágenes no se indexan.

  • ¿Cómo se tratan los enlaces incluidos en los documentos PDF?

Normalmente, los enlaces incluidos en los documentos PDF se tratan de forma similar a los enlaces que encontramos en los archivos HTML: pueden entrar en la clasificación de PageRank y otras señales de indexación, y podemos seguirlos después de haber rastreado el archivo PDF. Actualmente, no es posible utilizar el atributo “nofollow” en los enlaces de un documento PDF.

  • ¿Cómo puedo evitar que mis archivos PDF aparezcan en los resultados de búsqueda? Y, si ya aparecen, ¿cómo puedo eliminarlos?

La forma más sencilla de evitar que los documentos PDF aparezcan en los resultados de búsqueda es añadir una etiqueta X-Robots “noindex” en la cabecera HTTP utilizada para mostrar el archivo. Si ya se han indexado, dejarán de aparecer con el tiempo si utilizas la etiqueta X-Robots con la directiva “noindex”. Para acelerar la eliminación, es posible usar la herramienta de solicitud de eliminación de URL de las Herramientas para webmasters de Google.

  • ¿Pueden obtener los archivos PDF una buena clasificación en los resultados de búsqueda?

Por lo general, estos archivos se clasifican de forma similar a otras páginas web. Publicaciones como irs form 2011 devuelven documentos PDF que obtienen una buena posición en los resultados de búsqueda gracias a su contenido y a la forma en la que están insertados y vinculados desde otras páginas web.

  • ¿Se considera contenido duplicado si tengo una copia de mis páginas en formato HTML y PDF?

Siempre que sea posible, se recomienda mostrar una única copia del contenido. Si no es posible, asegúrarse de indicar cuál es nuestra versión preferida. Para ello, podemos incluir la URL que prefiramos en el sitemap o especificar la versión canónica en el archivo HTML o en las cabeceras HTTP del PDF. Para obtener más sugerencias, consulta el artículo del Centro de asistencia sobre canonicalización.

  • ¿Cómo puedo influir en el título que aparece en los resultados de búsqueda de mi documento PDF?

Se usan dos elementos principales para determinar el título que se muestra: los metadatos del título que contiene el archivo y el texto de anclaje de los enlaces que dirigen al archivo PDF. Para que el algoritmo capte claramente el título que debe utilizar, se recomienda actualizar ambos elementos.

fuente.desarrolloweb

Servicio de Posicionamiento en Buscadores,SEO

El SEO no es solo backlinks ni altas en directorios, el SEO comienza por realizar los cambios necesarios en la web para que quede tecnicamente dispuesta para exprimirle el mejor lugar en los buscadores, que significa esto? bueno, los buscadores exijen cada día mas, webs bien estructuradas tecnicamente, en el caso de google , que abarca mas del 90% de las busquedas en promedio mundial, hace poco han dicho que privilegiaran a las webs con buena ortografía, con esto quiero decir que hay una gran cantidad de factores, en el caso de google alrededor de 200 de los cuales se conocen pocos y se infieren en los demas, y con los que se construyen los resultados de las busquedas.

Ahora bien para arrancar un trabajo de SEO lo primero que hay que hacer es analizar la web en cuestion para determinar los detalles tecnicos o fallas de codificacion que se deben arreglar, asi como las consideraciones importantes a tomar en cuenta para que la misma este preparada tecnicamente para seguir una estrategia adecuada, en este caso las herramientas a utilizar para analizar y emitir un reporte son:

Google Page Speed
Firebug
Yahoo YSlow
Woozrank
Google Webmaster Tools (permite ajustar hasta al frecuencia con que google lee tu web, entre otras cosas)
Google Analytics
Websitegrader
Alexa
Keyword Analisis
Analisis de Audiencia

Con esto se emite un reporte y se propone realizar los cambios sugeridos por las herramientas para lograr asi dejar la web lista para la segunda fase que seria de aumentar las visitas cosechando links, creando un blog en la web(si aplica), altas en directorios, monitorear la web con herramientas de tiempo real, realizar test de usabilidad,crear un boletin de subscripcion voluntaria, campañas de email leeo y quedate.

Tiempo: 7 dias
Metodo de Pago: Paypal
Forma de Pago : 50% al inicio, 50% al final

Costo: 200 Euros

En menos de 7 dias ya tendrias tu web lista para comenzar una estrategia de crecimiento basada en que tu sitio primeramente estará tecnicamente preparado para ser mas amigable a los buscadores que los sitios de tu competencia cosa que a la vuelta de poco tiempo hará la diferencia..

Puede solicitarlo desde nuestra seccion de contacto…

 

WebsSite Optimization, la herramienta para detectar errores en las web

WebsSite Optimization ofrece a través de Web Page Analyzer una serie de análisis y recomendaciones con los que llegar a mejorar la velocidad de carga de una web, optimizando las posibilidades de incrementar su tráfico.

El manejo de esta utilidad no presenta ninguna dificultad, simplemente introduce la URL de un determinado site y de forma automática se obtendrá información sobre cantidad de peticiones HTTP, tamaño total del sitio y objetos cargados.

Además, Web Page Analyzer ofrece un análisis completo de cada imagen, script, CSS, archivo multimedia, y demás componentes web, junto a una serie de recomendaciones para solucionar posibles problemas, caso de darse alguno.

Aquellos que lo deseen pueden acceder a Web Page Analyzer de forma gratuita desde www.websiteoptimization.com/services.

fuente:desarrolloweb

Link popularity

Submitting your site to search engines alone is not enough. You also need to work on building link popularity of your site. This factor has grown in importance in the last years. For example, Google is hesitant to list a site that doesn’t have at least one link from other domain indicating that the site is worth listing in its index. In addition, if your link popularity isn’t high enough, you’ll never achieve top rankings on many keywords.

The best thing you can do is to submit your site to the major directories: Yahoo! and Open Directory. Links from them are the most “credentializing” links you can obtain, indicating to Google and other search engines that your site is worth listing. Unfortunately, getting listed in these directories is very difficult.

The simple solution is reciprocal link exchange. This is the most popular way of increasing link popularity: two webmasters simply agree to add a link to each other’s site to their sites. A couple of well-researched link exchanges will generate the link popularity required for a Google listing.

Set up your own Links page on your site that will hold the link swaps you’re going to arrange. Create the Title and Description for your site or copy them from your home page. Since the Title will appears as the link to your site, ensure that it contains your main keyword.

Go to Google and find a site that is ranked high for your main keyword. Most likely it has a Links page with dozens, even hundreds, of reciprocal links. Copy these links along with their descriptions to your Links page. Then, send a polite email to webmasters of these sites, introduce your site, tell them that you have already added a link to their sites from yours, and then ask them whether they would be kind enough to add a link to your site (include your Title and Description).

The response rate to these emails is low, especially if your site is new and doesn’t get a lot of traffic. After a couple of weeks, remove the links to those sites which haven’t responded and try to locate more sites with which to exchange links.

It’s a good idea to submit all URLs that link to your site to search engines, just to be sure that they know about them. Additionally, it allows search engines to find your site on their own.

from buildwebsite4u.com

Diccionario SEO

El día de hoy tenemos un glosario básico de SEO o search engine optimize, con estas pequeñas definiciones cualquiera se pone al día sobre esta materia muy importante en la internet de hoy..

.FLA: Un archivo fuente de secuencia de comandos utilizado para generar archivos Flash .SWF.

200: Código de estado de un servidor Web que indica que el URL solicitado se ha recuperado con éxito.

301: Tipo de redirección enviada por un servidor Web que indica que el contenido de un URL ha sido reubicado permanentemente.

302: Tipo de redirección enviada por un servidor Web que indica que el contenido de un URL ha sido reubicado temporalmente.

404: Código de estado de un servidor Web que indica que el URL solicitado no existe en el servidor.

500: Código de estado de un servidor Web que indica que el servidor está sufriendo un problema temporal.

Accesibilidad: Facilidad de servicio mostrado por un sitio Web con respecto a usuarios con incapacidad o minusvalía.

Agente de usuario: Cualquier usuario o spider Web que acceda a un sitio Web; también se refiere a la cadena enviada por el navegador Web de usuario o por un spider Web indicando qué o quién es.

Agregador: Lector feeds.

AJAX: Acrónimo de JavaScript y XML asíncrono. Tecnlogía que utiliza DOM, JavaScript, y el objeto XMLHttpRequest para crear aplicaciones Web interactivas dentro de una página Web. Los usuarios, con la aplicación AJAX, no navegan por diferentes páginas de contenido; en su lugar, la aplicación ejecuta dentro de una única página Web.

Algoritmo: Conjunto de instrucciones que instruye a un ordenador para que complete una tarea o resuelva un problema; en el ámbito de los buscadores, se utiliza una serie de estos algoritmos para crear la lista de resultados de búsqueda para una consulta particular de usuario, posicionando los resultados en orden de relevancia.

Apache: Servidor Web de código abierto muy popular.

ASP.NET: Estructura de soporte de desarrollo creada por Microsoft para la creación de aplicaciones Web dinámicas y servicios Web. Forma parte de la plataforma de .NET de Microsoft y comparte muy poco con ASP clásico.

Atom: Un estándar de feed de Internet basado en XML.

BigDaddy: Actualización de algoritmos en el ranking de Google para sitios Web que aparecieron a principios de 2006. EL campo de aplicación es parecido a la actualización Florida.

Blog: Sistema de gestión de contenido que presenta artículos en orden cronológico inverso.

Clase: La huella de un objeto en programación orientada a objetos.

Cloaking: La práctica de entregar distintos contenidos a buscadores y a personas que visitan un sitio Web.

Códigos de estado HTTP: Códigos numéricos que proporcionan información con respecto al estado de una solicitud HTTP. se pueden usar, por ejemplo, para indicar que la información solicitada no se halla disponible o se ha cambiado de sitio.

Consulta ad hoc: Petición de búsqueda que recupera información sin conocimiento de la estructura de almacenaje básica de la base de datos.

Contenido duplicado: Contenido sustencialmente idéntico que se encuentra en distintas páginas al mismo tiempo.

CCS (Cascading Style Sheets, Plantilla en cascada): Lenguaje que define la presentación y estética de un lenguaje marcado como HTML.

Densidad de palabras clave: Indicador que calcula la frecuencia con la que aparece una determinada palabra clave en el texto de la página Web para calcular la relevancia de una consulta.

Descatalogar: Quitar un sitio Web del índice del buscador.

Dirección IP: La dirección numérica única de un ordenador o red en Internet; puede hacer que sea análoga a un número de teléfono a propósito.

Directorio: Catálogo editado de sitios Web organizado en categorías; los ejemplos incluyen el directorio de Yahoo! y DMOZ.

DNS: Siglas de Domain Name Server, Servidor de nombre de dominio.

Domain Name Server: Un servidor que almacena datos diversos sobre nombres de dominio y los traduce a sus direcciones IP correspondientes.

Enlace de entrada: Enlace a nuestro sitio Web desde un sitio Web externo.

Enlace de salida: Enlace desde una página Web hacia un sitio Web externo.

Enlaces patrocinados o Pago por clic (PPC): Método de publicidad por medio del cual los anunciantes se ofertan de forma competitiva a ravés de palabras clave o colocadas de acuerdo al contexto en bloques de anuncios. Estos anuncios se denominan “enlaces patrocinados” y aparecen encima o junto a resultados orgánicos en los SERP.

Entrega IP: La entrega IP es el uso de IP, dirección de red conectada al equipo, ya sea un robot o una persona, enviando contenido diferente. Es la tecnlogía detrás tanto del geotargeting como del cloaking.

Expresión regular: Una cadena escrita en un lenguaje especial que coincide con patrones de texto.

Feed de Internet: Proporcionan acceso automático a contenido insertado por un sitio Web a través de cierta modalidad de aplicación o software. Normalmente se utiliza XML para transportar la información en un formato bien estructurado.

Flash: Tecnología desarrollada por Adobe que puede ser utilizada para añadir contenido de animación e interactivo a las páginas Web empleando gráficos vectoriales.

Florida: Actualización de algoritmos en el ranking de Google para sitios Web que aparecieron a principios de 2003.

Geotargeting: La práctica de proporcionar contenido diferente dependiendo de la ubicación física en la tierra del usuario o spider.

Google Sandbox: El “purgatorio” virtual por el que tienen que pasar los sitios Web nuevos con el objetivo de posionarse mejor en Google.

Hacer clic: La acción de un usuario al hacer clic en un anuncio publicitario o SERP.

Iconos de marcado social: Ofrecen a los usuarios prácticos almacenes remotos donde alojar sus marcadores para que puedan utilizarlos cuando y donde quieran.

Índice suplementario: Índice secundario facilitado por Google y que se cree que tiene contenido considerado menos importante,

Interfaz de programación de aplicaciones (API): Funciones de un programa de ordenador al que se puede acceder y hacer uso desde otros programas.

JavaScript: Lenguaje de programación implementado por todos los navegadores Web modernos, más conocido por su uso como lenguaje de programación en el cliente incrustado en las páginas Web. Entre las utilidades de JavaScript se encuentran abrir ventanas emergentes, validar datos en formularios Web, y más recientemente, la creación de aplicaciones AJAX.

Keyword stuffing: Repetición excesiva y planificada de palabras clave con el objetivo de manipular los resultados de búsqueda.

Lector de feeds: Una aplicación que lee y muestra feed de Internet para consumo humano.

Lenguaje de consulta estructurado: Un lenguaje de ordenador empleado para crear, actualizar, seleccionar, y borrar datos de base de datos (relacional).

Lenguaje extensible de marcas: Más conocido como XML, una estructura de documento basado en texto de aplicación general, que facilita el reparto de datos a través de diversas aplicaciones.

Link bait: Cualquier contenido o funcionalidad dentro de un sitio Web diseñado con la finalidad de captar espectadores que enlacen hacia aquellos sitios y desde otros sitios Web.

Link farm: Una página Web o conjunto de páginas Web ideado con el propósito de manipular la popularidad de un enlace interrelacionado estratégicamente sitios Web.

Marketing viral: Técnicas de marketing que utilizan los fenómenos sociales para difundir mensajes a través de procesos virales de autorreproducción, distintos de los virus informáticos.

Matt Cutts: Un extrovertido ingeniero de Google que dirige un blog.

mod_rewrite: Módulo Apache que realiza reescritura de URL.

Modelo de objetos de documento: La representación de una estructura jerárquica tal como un documento XML o HTML.

MySQL: Base de datos relacional gratis de código abierto que utiliza SQL para especificaar peticiones o consultas de datos contenidos en ella.

Navegación siguiendo rastro de migas: Enlaces de navegación que aparecen en una página Web y que muestran la ruta para llegar a esa página en concreto.

Nofollow: Un atributo que se puede aplicar a enlaces para especificar que los buscadores no deberían contarlos como votos, con repecto al valor de enlace, para el URL especificado.

Optimización en buscadores: El subconjunto de marketing en buscadores con la finalidad de mejorar el ranking orgánico de un sitio Web con palabras clave relevantes.

Orgánico: Un adjetivo que describe los resultados que salen en el buscador sin pagar.

PageRank (PR): Un algoritmo patentado por Google que mide la importancia de una página en particular relativa a otras páginas incluidas en el índice del buscador. Se inventó a finales de 1990 por Larry Page y Sergey Brin.

PHP: Lenguaje de programación diseñado ante todo para producir páginas Web dinámicas, en un principio escrito por Rasmus Lerdorf.

Porcentaje de conversión: El porcentaje de conversiones o ventas por número de visitantes.

Programación Orientada a Objetos (OOP): Una función que implementan los lenguajes de programación modernos y que permite al programador crear tipos de datos que pueden ser modelados en función de comportamientos u objetos del mundo real.

Proporción de clics: La proporción de clic por número de visitantes, los cuales visualizan el anuncio o SERP.

Redireccionar: El proceso de redireccionar peticiones presentadas para una página Web hacia otra página.

Reescritura del URL: La práctica de traducir peticiones de URL de entrada a peticiones para otros URL.

Referrer o referer: Una cabecera enviada por un navegador Web que indica de dónde procede o dónde se hizo la referencia.

Regex: Expresión regular.

Rendimiento de la inversión (ROI): Método para medir el beneficio obtenido en unan inversión en particular.

Resultado suplementario: Un resultado en el índice suplementario.

Robo de contenidos: La práctica de sustraer el contenido Web propiedad de otro individuo.

Robot: Spider

robots.txt: Archivo de texto ubicado en el directorio raíz de un sitio Web y que cumple el estándar robots.txt descrito en http://www.robotstxt.org. El estándar especifica archivos que no deben ser accedidos por un spider de buscador.

ROI: Acrónimo para rendimiento de la inversión.

RSS: Un estándar de feed de Internet basado en XML.

Screen scraping (o Extracción automática de texto obviando la información binaria): La práctica de usar un programa para analizar un programa para analizar sintácticamente información procedente de un documento HTML.

SEM: Un acrónimo para marketing o promotor de buscadores.

SEO copywriting: La práctica de la creación de contenido en el sentido de que no sólo se lee bin para el surfero, sino además apunta términos de búsqueda específicos en buscadores.

SEO: Un acrónimo para optimización de buscadores.

SERP: Un acrónimo para páginas de resultados en buscadores.

Sindicación Web: Permite y facilita que otros sitios Web publiquen nuestro contenido Web.

Sitemap: Archivo que proporciona una manera fácil, para personas y para buscadores, de navegar a las páginas de referencia de un stio Web desde una ubicación central.

Sombrero blanco (white hat): Describe el uso de técnicas que cumplen las normas de los buscadores.

Sombrero negro (black hat): El uso de técnicas que, a distintos niveles, no cumplen las normas de los buscadores y pueden aprovechar indebidamente el trabajo o propiedad de otros.

Spam (motor de búsqueda): Página(s) Web ideadas para posicionar bien en buscadores pero que no tienen contenido valioso.

Spider trap: Conjunto de páginas Web que motivan al spider a hacer infinidad de peticiones sin proporcionar ningún contenido sustancial y/o para bloquear.

Spider: Un programa de ordenador que lleva acabo el proceso de inspección de las páginas.

Spidering (o suplantación de identidad): El envío de información no correcta deliberadamente.

SQL: Un acrónimo para “Lenguaje de consulta estructurado”.

SWF: Formato de gráfico vectorial creado por Macromedia utilizado para publicar aplicaciones de animación e interactivas en la Web.

Texto anchor: Texto sobre el que hace clic un usuario cuando busca un enlace.

Usabilidad: La facilidad de uso mostrado por un sitio Web.

Valor de enlace: El valor transferido a otro URL por parte de un enlace en particular.

Web analytics: Paquete de software que rastrea datos de varios sitios Web y estadísticamente utilizado para analizar e interpretar resultados de marketing.

WordPress: Una aplicación de creación de blogs de código abierto muy popular escrita en PHP.

Palabras más buscadas en dos de los buscadores más importantes de Internet en 2009

Como cada año los buscadores más importantes dan a conocer una serie de estadísticas con las que establecer un ranking de palabras claves más buscadas.

Esta clasificación puede resultar interesante para conocer cuales son las temáticas que más interés despiertan y servirnos de referencia en este sentido.

En este breve os traemos los más buscado por Bing, el nuevo buscador de Microsoft y por Yahoo, estamos preparando el ranking de palabras más buscadas en Google, que próximamente publicaremos.

  • Lo más buscado en Yahoo el 2009

1. Michael Jackson
2. Twilight (Crepúsculo)
3. WWE
4. Megan Fox
5. Britney Spears
6. Naruto
7. American Idol
8. Kim Kardashian
9. NASCAR
10. Runescape

  • Lo más buscado en Bing el 2009

1. Michael Jackson
2. Twitter
3. Gripe porcina
4. Mercado de valores
5. Farrah Fawcett
6. Patrick Swayze
7. Cash for Clunkers (Dinero por chatarra)
8. Jon y Kate Gosselin
9. Billy Mays
10. Jaycee Dugard

Guía de Posicionamiento en Buscadores de Microsoft

El posicionamiento en buscadores consiste en adoptar ciertas estrategias y aplicar diversas técnicas tendentes a lograr que los principales buscadores de Internet encuadren una determinada página web en una posición deseada dentro de su página de resultados, para determinados conceptos clave de búsqueda.

Microsoft publica una interesante guía con la que mejorar nuestros conocimientos SEO.

La Guía de Posicionamiento en Buscadores se compone de los siguientes temas :

-El Posicionamiento en Buscadores: Tu empresa en la mejor calle de la ciudad
-Las Palabras Clave: Cuando una palabra vale más que 1000 imágenes
-¿Cómo redactar buenos títulos en nuestra web para el posicionamiento en buscadores?
-Optimización de la página web: Técnicas para seducir a los buscadores
-¿Cómo ser indexado con éxito en los buscadores?
-Incremento de la Popularidad Web: Amigos hay que tener hasta en el infierno
-Evaluación del Rendimiento Web: Traducir el lenguaje de las estadísticas de la web al lenguaje de los negocios

http://www.microsoft.com/spain/empresas/guias/posicionamiento/home.mspx

Herramienta de Validación de Xhtml del W3C

Markup Validation Service es el nombre del servicio web ofrecido de forma libre por la W3C, la organización internacional que establece los estándares de programación web. La validación puede realizarse a partir de la URL de una página web, descargando el fichero desde nuestro ordenador o pegando un trozo del código fuente. Tras el chequeo del código conforme al estándar, recibiremos un listado de las líneas del código HTML, XHTML, SMIL, MathML… que no cumplen con el mismo, junto con una descripción del problema. En algunos errores, podremos encontrar una explicación de la causa que lo provoca y su solución.
Markup Validation Service es un servicio gratuito al que cualquier interesado puede acceder desde validator.w3.org

Recomendaciones SEO desde Google

Lograr aparecer entre los primeros resultados de Google, es el reto de cualquier desarrollador. Matt Cutts presenta en una entrevista concedida a USATODAY.com cinco sencillos pasos con los que optimizar las posibilidades de que Google mejore nuestro posicionamiento.

Las 5 recomendaciones SEO, son:

  • Céntrate en los términos de búsqueda de tu página: pensemos sobre lo que las personas van a escribir para tratar de encontrar un determinado contenido, céntremonos en esos términos de búsqueda y hagamos que aparezcan en la página, tanto al principio como durante el texto.
  • Ten en cuenta las etiquetas: las etiquetas son cruciales, las dos más importantes son título y descripción porque son estas las que se muestran en los resultados de búsqueda con mayor frecuencia.
  • Consigue enlaces de otras webs: Los enlaces es una de la cosas más importantes que se tienen en cuenta de entre los 100 factores que Google considera a la hora de determinar el ranking de una página. Básicamente Google llega a la siguiente conclusión, si estamos recibiendo links de sites importantes debemos ser buenos. Si no podemos lograr este tipo de enlaces al menos tratemos de lograr links de páginas de amigos.
  • Crea un blog y publica a menudo: Bloguear es una forma estupenda de añadir links y crear contenido, además solo nos costara tiempo gracias a la cantidad herramientas gratuitas de creación de blogs que existen en la actualidad.
  • Utiliza herramientas gratuítas: Usar herramientas como Google Webmaster, con los que obtener ayuda, por ejemplo, para que nuestra web sea encontrada a través de un sitemap www.xml-sitemaps.com. Una vez hecho esto, estaremos registrados con Google y podremos acceder a datos estadísticos para saber quien está enlazando con nuestra página o cada cuanto pasa Google por nuestro site en busca de actualizaciones.

Por último es importante señalar la importancia de no abusar del uso de palabras claves y aclarar la idea de que la publicidad en nuestro site no mejora ni empeora el posicionamiento en Google.