martes, 30 de septiembre de 2008

Diferencias entre SEO y SEO 2.0

Hola a todos!

Ayer estuve navegando y leyendo artículos sobre SEO (Search Engine Optimization) y encontré un artículo que me pareció muy interesante para quienes trabajamos en posicionamiento web (a sí sea por ocio).

El artículo original lo pueden encontrar aquí, otra versión traducida, de la cual leí el artículo fué publicada por flashmania.es. El artículo trata sobre las diferencias que hay entre las prácticas de SEO convencionales y las nuevas prácticas que se están llevando a cabo para lograr un buen posicionamiento en buscadores.

Quienes llevan trabajando un buen tiempo como SEOs saben que para lograr que un sitio web tenga un buen nivel de optimización se deben llevar a cabo ciertas tareas, algunas de ellas muy técnicas y especializadas, y otras más sencillas o que cualquier usuario puede ejecutar.

Por ejemplo, una tarea especializada es optimizar todos los links e imágenes de nuestro sitio agregando los atributos 'alt', 'title', etc. en las etiquetas HTML que los componen. Listo, aunque son cosas sencillas de hacer para una persona que tiene un poco de idea de HTML, no lo es para un usuario que no conoce el lenguaje.

Una tarea de menos complejidad es practicar el linkbuilding, por medio del uso de comentarios en foros y redes sociales, dejando un link hacia nuestra página. Aunque esto es más sencillo y menos especializado que el tema de los atributos y etiquetas HTML, me parece más importante hacer esto, ya que si los comentarios que publicamos son interesantes al lector (humano), conseguiremos visitantes para nuestra web, y para mí este factor es de 'mayor peso' para lograr el posicionamiento en los resultados de búsqueda de los motores de búsqueda más importantes de la red.

Bueno, ¿por qué hago el comentario de estas dos formas? pues porque la primera técnica la usamos como si el usuario que fuera a leer la web fuera un robot, que pasa, lee y sigue derecho a leer otra cosa, sin hacer un comentario, sin felicitarnos por el artículo, sin recomendar nuestro blog a un amigo, sin mentarnos la madre por lo que publicamos, etc., y yo creo que eso es lo que se quiere evitar en este medio para el futuro.

Los artículos que escribimos son para que los lean gente como tu o como yo, produciendo contenido interesante y auténtico logramos que más usuarios únicos nos visiten, que nos escriban y que nosotros les escribamos, que nos inviten a eventos o que escriban sobre nosotros en sus respectivos blogs... por eso pienso que ¡Así es como verdaderamente se consigue posicionarse en un buscador carajo!... claro que no debemos olvidar que hay que construír páginas y sistemas agradables a los robots de búsqueda, cumpliendo con estándares, facilitando la usabilidad y accesabilidad del usuario, ya que gracias a ello, también contribuímos al posicionamiento.

A continuación presento una tabla comparativa entre las prácticas SEO y las nuevas prácticas SEO 2.0, pero ojo!, las primeras se deben seguir usando.




































































SEO SEO 2.0
Generación de enlaces entrantes de forma manual, usando intercambios, catálogos, pagando por enlaces. Generación de enlaces entrantes mediante acciones como blogging, escribiendo contenidos únicos, generando link-baiting, socializando.
Optimización on-page para bots de los buscadores, por ejemplo repitiendo títulos, palabras claves, etc. Optimización on-page para los usuarios, por ejemplo colocando títulos provocativos.
Competición: Tu compites con otros para aparecer en el top 10 de los resultados de Google para palabras claves especificas. Cooperación: Tu cooperas con otros bloggers votando por ellos en redes sociales, blogs, etc., esperando que ellos también te enlacen.
Trueque: Si tú me das un enlace y yo te doy otro. Dar: Yo te enlazo independientemente de que tu también me des un enlace, pero en la mayoría de los casos tu también me enlazarás.
Ocultamiento: No estamos haciendo SEO, no podemos mostrar nuestra lista de clientes. Abierto: Bienvenidos los clientes nuevos, estamos orgullosos de trabajar con ellos.
Palabras claves Etiquetas
Optimización para enlaces Optimización para tráfico
Clicks, impresiones, visitas Conversiones, retorno de la inversión, marca
DMOZ del.icio.us
Principales fuentes de tráfico: Google, Yahoo, MSN. Principales fuentes de tráfico: StumpleUpon, redes sociales de noticias, blogs.
Comunicación en una sola dirección Dialogo, conversación
De arriba hacia abajo De abajo hacia arriba
Antidemocrático, quien paga más está en la parte superior. Democrático, quien responde a la demanda popular está en la parte superior.
50% automatizado 10% automatizado
Tecnocrático Emocional

Bueno, espero que luego de leer este artículo podamos reflexionar sobre las prácticas que debemos usar, podemos decir que las de la izquierda son para robots jejeje y las de la derecha son para nosotros los humanos, ¿qué opinan?

Hasta pronto...

domingo, 21 de septiembre de 2008

Google Chrome, otro hijo de Google

Habla y te salvas!

Ya todo el mundo sabe sobre el nuevo browser que desarrolló Google y que está en versión Beta, ¡estoy hablando de el nuevo Google Chrome!

Como ahora trabajo con Eforcers, una empresa de desarrollo de servicios para Internet, primera y única empresa certificada como Enterprise Professional de Google en Colombia todos usamos Google Chrome para probarlo.

Debo aceptar que se bloquea de vez en cuando, pero ajá, es una versión Beta... Pero en cuanto al funcionamiento, me ha parecido muy bueno, algunas de las características que tiene son:

  • Seguridad: Listas negras, Aislamiento de procesos (Sandboxing), Navegación como incógnito.
  • Velocidad: Este aspecto si lo he notado mucho, ya que es muy rápido para ejecutar scripts de JavaScript, para eso se creó de nuevo el motor para JavaCript, el V8, y puedo decir que es más rápido que el firefox y el safari.
  • Estabilidad: Multiprocesamiento, Administrador de tareas (cada pestaña es un proceso diferente, si uno se bloqueda, se puede finalizar el proceso sin que afecte a los demás).
Para más características pueden visitar el sitio oficial de Goolge Chrome y también pueden revisar la wiki acerca del mismo.

Muchos han opinado que ahora Google quiere hacer un monopolio, pero esto no es posible, Google Chrome es una aplicación de código libre, Google no nos obliga a instalarlo y es grátis.

Yo creo que ahora Google busca que la competencia desarrolle herramientas cada vez más poderosas y que cumplan los estándares sin tener que inventar nada, no como nos hace el maligno (Internet Explorer de Microsoft).

Sería muy bueno que se desarrollaran plugins para este browser (y no lo dudo), y que ojalá nos den muchas para optimización para motores de búsqueda (SEO).

Ojalá que todos estos hechos contribuyan a la sana competencia para lograr que Internet sea un mejor 'lugar'.

Wiriki, una nueva herramienta SEO

Ajá y qué?
Hace un tiempo recibí una noticia desde Chica SEO, se trataba de la aparición de una nueva herramienta para análisis SEO llamada Wiriki.

Ya la probé y me ha parecido muy buena, genera buenos reportes sobre el estado de proyectos web en cuanto a la optimización para motores de búsqueda, en este momento se encuentra en versión Beta, pero funciona muy bien.

Es fácil usar la herramienta, sólo hay que digitar la url del proyecto web que queramos analizar y wiriki realiza las operaciones necesarias para generar los reportes.

Sería excelente que pudiera elaborarse más esta herramienta para poder utilizarla al hacer trabajos de SEO, así podríamos tener varias alternativas de reportes, como son las herramientas para webmaster de Google, las herramientas para webmaster de Yahoo, Google Analytics, entre otras.

Así que les recomiendo que la prueben para que conozcan su potencial, espero que les sea de mucha utilidad para realizar los análisis SEO para obtener positivos resultados en sus proyectos de optimización para buscadores.

Red social de programadores web de Colombia

Hola!
Hoy estuve leyendo el foro de nuevos proyectos e ideas de forosdelweb.com y encontré que ya existe una red social para programadores web en mi país, Colombia.

Me ha parecido una muy buena idea, así quien pertenezca a este sector de la ingeniería puede entrar a esta comunidad y encontrar artículos, foros, guías y más recursos que los usuarios vayan agregando en el transcurso del tiempo.

La comunidad se llama Desarrolladores Web de Colombia y pueden visitarla a través de este link: http://webdevcolombia.ning.com

Bueno, yo recomendaré esta web a mis colegas para que podamos contribuír con un granito de arena al desarrollo de nuestro país.

martes, 12 de agosto de 2008

Charla sobre SEO, primera parte

Esta mañana fué mi primera exposición sobre SEO, fué dictada a mis compañeros de trabajo junto con el gerente.

La charla fué una introducción a la teoría que abarcan las técnicas de SEO (Search Engine Optimizacion).

Mostré temas básicos sobre SEO, ya que no todos mis compañeros conocían el término y no conocían toda la teoría acerca del mismo.

Los temas en que dividí mi exposición fueron:
  • Introducción, ¿qué es SEO?
  • ¿Quiénes deben usar SEO?
  • Fases de desarrollo.
  • ¿Cómo saber si una web está suficientemente optimizada?
  • ¿Qué se debe tener en cuenta para hacer SEO?
  • Sencillas formas de hacer SEO.
  • Conclusiones.
La charla estuvo muy interesante, a todos les gustó, tanto así que me solicitaron dirigir un taller sobre SEO para realizarla la próxima semana. Así podemos ver ejemplos de las técnicas que se utilizan, lo que debemos hacer para optimizar nuestras páginas, el funcionamiento de los robots de los buscadores, entre otros temas.

Debo aclarar que los temas que he tratado han sido obtenidos gracias a otros bloggers que han publicado posts con muy buen material y teoría sobre posicionamiento web.

Ahora me queda preparar la práctica de la próxima semana y en cuanto pueda publicaré lo expuesto en ella... pienso que de esta forma podemos seguir mejorando el área de posicionamiento web en mi empresa.

Hasta pronto...


Hola, ¿Qué tal?

Actualizo este post para informar que no podré dictar el taller sobre SEO con mis compañeros de trabajo porque... ya no son mis compañeros de trabajo jejejeje, resulta que el viernes se tomó una desición muy difícil para la empresa y fuimos liquidados 8 integrantes... pero seguiré trabajando con el posicionamiento web y publicando más artículos para no acabar el blog.

Espero escribir algo pronto para seguir compartiendo conocimientos.

Hasta pronto...

Upbeat - Juego

Hola, ¿qué tal?
Este es un juego que me ha gustado mucho, es bueno para poner en práctica nuestra agilidad mental y coordinación jejejejeje.


Con las teclas A, S, D y J, K, L sigue el ritmo de la canción, procura no confundirte para que la gente aplauda.

jueves, 24 de julio de 2008

Los niveles de optimización para posicionamiento web

Ayer encontré un artículo que me pareció muy interesante y de mucha utilidad para ayudarnos a evaluar el estado de la optimización web que estamos haciendo a nuestro sitio.

El artículo original se encuentra en el blog soyseo.blogspot.com

Cuando hemos optimizado una web y pensamos que hemos hecho un buen trabajo, nos llega a la cabeza la pregunta ¿Está correctamente optimizada esta página?, entonces preguntamos a quienes conocen más que nosotros sobre el tema, buscamos manuales, listas de chequeo, etc. Pero todos nos dirán lo mismo 'cada página es un mundo distinto', y es verdad, dependiendo del sector o tema al que pertenezca la página, así mismo será la dificultad para optimizarla.

Según lo que he investigado, y con lo cual estoy de arcuendo, podemos dividir la optimización de un sitio en tres niveles, con los cuales podemos clasificar el tipo de página, por ejemplo, podemos identificar el nivel de una página tipo amateur, una página de tipo profesional pero que se encuentra en un sector de poca competencia y otra página profesional o empresarial que compite en un sector de mucha competencia (hoteles, inmobiliarias, tecnología, tiendas virtuales...). Identificando el tipo de página que estamos optimizando podemos optimizarla a cierto nivel.

Bueno, después de esta introducción, veamos los niveles:

1. NIVEL SEO BÁSICO

Este nivel se caracteriza porque se permite a los buscadores indexar todas las páginas del sitio y para esto debemos tener en cuenta lo siguiente:

  • Ubicar menús en cada página del sitio, que nos permitan acceder a las páginas internas, evitando en lo posible utilizar flash y javascript, ya que los robots de los buscadores leen sólo texto (por ahora).
  • Cada página debe tener title y description únicos, tanto las dinámicas como las estáticas.
  • Evitar el uso de frames.
  • Conseguir algunos enlaces hacia nuestra web, para lograr que los robots la indexen más fácil y rápido, para esto se puede usar el linkbuilding.

2. NIVEL SEO MEDIO

Si queremos que nuestra página se vea un poco más para tener un poco más de visitantes, entonces debemos tener en cuenta lo siguiente:

  • Analizar muy bien el hosting y dominio que se utilizará para enfocar nuestra presencia en cierta región del mercado.
  • La página debe contar con un mapa del sitio (sitemap) en diferentes formatos, el cual tenga un link desde cada página del sitio, favoreciendo así a que los robots hagan una indexación más rápida.
  • En caso de utilizar CMS (Administradores de contenido) como Joomla, Mambo, Zen Cart, PHPbb, entre otros, es recomendable instalar componentes para optimizar el SEO.
  • Cada página debe tener por lo menos un texto entre las etiquetas h1, y este debe ser la palabra clave para esa página y similar al title.
  • La descripción de cada página debe ser única y debe estar en formato texto.
  • Las imágenes deben usar textos alternativos únicos y descriptivos.
  • Evitar en lo posible más de tres niveles de profundidad en la página, es decir, que el usuario no necesite dar más de tres clics para acceder al contenido que desea consultar.
  • Optimizar los Titles, componerlo con las palabras clave al princio de izquierda a derecha.
  • Conseguir una buena cantidad de enlaces, si es posible a secciones internas, para que la indexación sea más rápida y se logre un mejor posicionamiento de la web.

3. NIVEL DE OPTIMIZACION ALTO

En este nivel podemos incluir las páginas que pertenezcan a sectores o categorías donde la competencia es fuerte, muy alta y lograr el posicionamiento es más complicado.

  • Analizar la posibilidad de utilizar varios dominios para distintos idiomas y así lograr presencia en los mercados deseados.
  • Utilizar subdominios en vez de utilizar carpetas o directorios.
  • Optimizar las reglas de re-escritura para generar urls amigables que incluyan las keywords.
  • En caso de utilizar carpteas, asignarle nombres descriptivos, por ejemplo, si nos referimos a carros, usar el nombre 'carros' en vez de utilizar 'contenido1'.
  • Usar el archivo robots.txt para limitar el acceso de los robots de los buscadores.
  • Crear o actualizar un archivo sitemaps para cada buscador, por ejemplo, un sitemap para Google, otro para Yahoo, etc.
  • Impulsar palabras clave por medio de enlaces hacia páginas internas o similares, así se puede mejorar la navegabilidad de los usuarios.

Conociendo estos niveles, pordemos identificar qué tan optimizada está una web y así tomar acciones al respecto.

miércoles, 16 de julio de 2008

Usar comentarios como estrategia para linkbuilding

Hola, ¿Qué tal?

Cada vez he encontrado más post en blogs con información útil para optimizar el posicionamiento de nuestra web. Y cuando me nace, dejo un comentario en el post ya sea porque faltó algo por aclarar, o para agradecer por la información, o por hacer una pregunta relacionada con el tema, etc.

Y como los blogs brindan la posibilidad de insertar un enlace a nuestra web, o enlaces en los comentarios o en las firmas de quienes opinan, podemos aprovechar estas facilidades para aplicar el linkbuilding hacia nuestra web, pero OJO, que la utilización de los comentarios sea legítima, ética y natural.

A continuación presento un artículo adaptado de un post publicado en Seotalk.es, que trata sobre esta estrategia de utilizar los comentarios en los blogs o foros para hacer el linkbuilding de nuestra web.

Los blogs utilizan algoritmos para verificar que los comentarios que dejan los visitantes no sean spam. Para evitar que seamos tomados como spam debemos tener en cuenta ciertos factores:

  • Tiempo que tardamos en comentar en el post.
  • Tiempo promedio que deberíamos invertir en la lectura del artículo (cálculo según cantidad de caracteres).
  • Comentarios con URL en el contenido.
  • La longitud de las URL, la mayoría de los spamers utilizan links hacia páginas internas.
  • IP del usuario que deja el comentario (para comprobar que no esté en lista negra).
  • Cantidad de tiempo que lleva el post publicado.
  • Tiempo transcurrido desde la publicación del último comentario.
  • Filtro de palabras o frases.
  • Análisis del browser de internet usado por quien comenta para comprobar si es un bot o cumple una conducta natural (acepta cookies, javascripts, etc.)

Factores principales utilizados por el software antispam para determinar si los comentarios son spam.

  • URL de referencia (detectar directorios dofollow)
  • Idioma del comentario.
  • Procedencia de la IP del comentario.
  • Repetir el dominio de las URL insertadas en el comentario.
  • Tamaño del comentario VS tiempo transcurrido dentro del post.
  • Textos alternativos en los comentarios.
  • Edición avanzada con tags como el title dentro del anchor.

Los buscadores tienen mayor capacidad para detectar comentarios spam.

  • Ratio de publicación de comentarios en el transcurso del tiempo, por ejemplo, 40 comentarios en un mismo día.
  • Frases específicas en el nombre del autor, por ejemplo, 'sexo', 'compre', 'viajes', etc.
  • Repetición del mismo comentario en diferentes sitios.

Podemos concluir que el uso de los comentarios de los post o foros es legítimo siempre y cuando el comentario dejado sea enriquecedor para los demás usuarios que lean el artículo.

Densidad de archor text

Hola, ¿Qué tal?

Ayer leí un artículo publicado por Sergio Blanco en el cual comparte algunas recomendaciones respecto a la densidad de links que contienen keywords en sus anchor texts.

Todos tratamos de impulsar una keyword de diferentes formas, por ejemplo, utilizarla en los enlaces como anchor text, o en el atributo title, o también impulsarla por medio de etiquetas 'h1', 'strong', etc. Pero al tratar de impulsarla por medio de links, debemos cuidar de no exedernos con la cantidad de links que impulsan esa keyword, ya que de esta forma podemos ser objetivo de los filtros de google.

Por ejemplo, si nuestra web es sobre 'cocina' y tenemos muchos links apuntando con ese anchor-text hacia la página web, la densidad de ese anchor-text puede ser considerada muy alta, es decir, nada natural y por eso ser objetivo de los filtros de google.

Consecuencia

Nuestra página web no saldrá en los resultados de googleal buscar esa keyword. Pero no debemos asustarnos, ya que la página será afectada al hacer búsquedas con esa keyword, no con las otras keywords que tengan una densidad apropiada.

Tener en cuenta

  • Muchos links, además de los que ya tienes apuntando a tu web con la misma keyword puede afectarte negativamente.
  • Utilizar diferentes keywords con variedad de densidades.
  • Utilizar diferentes keywords para impulsar el keyword principal. Por ejemplo, para el keyword 'cocina', podrías utilizar links que tengan anchor-text como 'cocina colombiana', 'cocina italiana', 'cocina española', 'recetas de cocina', etc. Son diferentes, pero impulsan a la palabra 'cocina'.
  • Impulsar la página principal por medio de links internos, por ejemplo utilizar la palabra 'cocina internacional' para ir a esa sección ayuda a que exista 'tema' para esa sección y así aumenta la popularidad hacia la página principal.
  • Si creemos que nuestra web ha sido afectada, podemos optimizar los anchor-text para lograr la densidad adecuada, de esta forma podemos salir del filtro.

En conclusión, debemos tratar de lograr una densidad de anchor-text natural para que nuestra web sea agradable al robot de google.

martes, 15 de julio de 2008

Agregar blog a ask.com

Hola, ¿Qué tal?

Como todos los que trabajamos con posicionamiento web, yo también estube buscando la forma de lograr que mis páginas aparezcan indexadas en los diferentes buscadores y directorios web.

Y leyendo por ahí, enconté este artículo que muestra unas sencillas instrucciones para lograr que nuestro blog aparezca en Ask.com, enviando el mapa del sitio.

Siempre es bueno buscar que nuestras páginas aparezcan en diferentes buscadores (google, yahoo, live, ask, altavista, etc.), ya que así tendremos mayor posibilidad de que los navegantes nos encuentren en la web.

Para el caso de estudio de este artículo, mostraré cómo lograr que nuestro blog aparezca en los índices de Ask.com

Antes de enviar el blog, es necesario que tenga un archivo sitemap.xml.

Cuando tu sitio tenga el archivo sitemap.xml, lo puedes enviar a ask.com escribiendo esta dirección en tu browser de internet:

http://submissions.ask.com/ping?sitemap=http%3A/www.tusitio.com/

tusitemap.xml

Y luego pulsas enter.

La mayoría de los sitemap de los blogs se refieren al archivo sitemap.xml.

Pero para los que tienen blogs en blogger, deben utilizar el archivo atom.xml, que es el utilizado por este sistema.

Y listo, ya has enviado el sitemap de tu blog a Ask.com y solo falta esperar que tu sitio sea indexado.

miércoles, 9 de julio de 2008

Consejos para mantener la poscición en buscadores

Hola a todos,

Hoy estuve navegando y buscando algunos tips o hábitos para lograr que nuestras páginas no pierdan su posición luego de ser indexadas en una posición favorable en los buscadores web.

El artículo original se titula 'Hábitos para mantener las posiciones' y lo pueden encontrar en Hábitos para mantener las posiciones.

En el mundo del posicionamiento web la competencia es fuerte y nunca se detiene, un buen SEO debe asegurarse de que las páginas que ya están indexadas sigan mejorando sus posiciones, ya que es un error mortal descuidar las páginas luego de alcanzar un buen ranking en los buscadores web.

Por eso a continuación presento un conjunto de tips o hábitos que un buen SEO, webmaster o blogger no debe dejar pasar para lograr que las páginas mantengan y mejoren sus posiciones en los resultados de búsquedas.

Verificar las posiciones: Bebemos verificar siempre las posiciones, compararlas día tras día y llevar un seguimiento de las posiciones, para descubrir los cambios que debemos hacer. Es muy importante no perder la paciencia y esperar un tiempo prudente antes de hacer cualquier cambio.

Verificar las páginas indexadas las últimas 24 horas: Si tenemos un conjunto de páginas que esperamos que google indexe, y por alguna razón no aparecen las nuevas páginas, debemos revisar su estructura, ya que puede tener contenido duplicado o inválido para los robots.

Nuevos enlaces entrantes: El seguimiento de los enlaces entrantes es muy importante, ya que tus competidores trataran de conseguir todos los enlaces entrantes que tiene tu web pueden pedir que quiten tus enlaces para que pierdas posiciones, existen muy buenas herramientas que pueden ser utilizadas.

Frecuencia de cacheo: Teniendo en cuenta que creas contenido constantemente, debes asegurarte que google visite tu página con cierta frecuencia para que las nuevas páginas sean indexadas y almacenadas en caché, una buena alternativa para aumentar esta frecuencia de visitas es la cantidad de links entrantes hacia tu página.

Mi marca en el sector: Hay que estar pendiente de lo que los navegantes digan de tu página,  esto se puede hacer usando technorati, Bitacoras.com, Google Blog Search, los trackbacks también son una excelente forma de saber quien habla sobre nosotros.

Pilas con los comentarios!!!: Muy importante revisar los comentarios hechos por los usuarios, ya que algunos se aporvechan dejando mensajes sin sentido con el objetivo obtener un enlace y otros usan el contenido de tu web para dejar links relacionados con las palabras que tu quieres posicionar.

Analytics: Usa google analytics para revisar las estadísticas de tu página del día anterior, revisa la cantidad de visitas, las fuentes de visitas, las zonas desde donde ingresan a tu web, las páginas que tienen links hacia la tuya, etc. Y trata que esos números sean cada vez mejores jejejeje.

Vigila a tus competidores: Siempre es bueno espiar a la competencia, revisar sus contenidos, los links que tienen, las posiciones de sus páginas, etc. También es bueno llevar un log de cambios en sus páginas y sus posiciones, para saber lo que están haciendo para lograr aparecer en los buscadores.

El posicionamiento en internet es uno de los más rentables, la competencia ni los spammers duermen, ya que es una batalla dura y que no terminará mientras que este negocio sea rentable.

Posicionamiento web con google

Hola a todos, Hoy estuve navegando y buscando algunos tips para optimizar nuestras páginas para que sean agradables a google. 

Enconté un artículo titulado 'Posicionamiento web en Google' y me ha parecido de mucha utilidad, tiene muy buenos consejos de SEO para que nuestras páginas cumplan con lo exigido por Google para que sean indexadas.

El artículo se encuentra aquí: Posicionamiento web en Google

Pero de todos modos, voy a dejar un pequeño resumen para los que tienen afán o buscan algo específico...

Si seguimos estos consejos podemos llegar a aparecer en las primeras posciciones de los resultados de búsqueda de Google, pero ojo, que no es un trabajo sencillo, requiere mucha paciencia, estudio y esfuerzo.


lunes, 7 de julio de 2008

SEO Search Engine Optimization

SEO

(Search Engine Optimization u Optimización para Motores de Búsqueda) son un conjunto de técnicas utilizadas por los webmasters para lograr un buen posicionamiento de sus páginas en los diferentes buscadores y directorios web.

¿Cómo se logra?, pues normal, haciendo todo bien organizado, construyendo páginas que cumplan con todas las normas y estándares.

La utilización de estas técnicas es muy frecuente en sitios que ofrecen productos y servicios que tienen una alta competencia.

Las técnicas SEO deben ser utilizadas correcta y prudentemente, ya que los buscadores pueden penalizar las páginas que abusen del SEO o hagan trampa para lograr ser indexadas en posiciones superiores a las demás páginas. Es un trabajo complejo, ya que involucra programación de la web, diseño y contenido.

Pero no hablemos tanta paja y mejor vamos a ver lo importante.

Hay varios consejos que podemos seguir si queremos lograr que nuestras páginas sean indexadas por los buscadores:



  1. Lograr que otras páginas de la mima temática tengan enlaces hacia la tuya. Eso te ayudará porque así habrá más enlaces hacia tu página y el robot de los buscadores te encontrará y dará puntaje a tu web.

  2. Inscribirse en directorios web como Dmoz y Yahoo. Ya que los buscadores revisan las páginas que aparecen en los directorios web y las indexan correctamente, ya que han cumplido con tener contenido correcto y relacionado con la categoría respectiva de la página.

  3. Participar activamente en foros y utilizar tu firma como un enlace a tu web. Para mí, los foros web son las páginas en las que más cambia el contenido y son visitadas por muchas personas constantemente, además estas páginas casi siempre están bien posicionadas en los buscadores.

  4. Recurrir a las comunidades web. En estas comunidades existen muchos usuarios y hay buenas oportunidades para promocionar la web.

  5. Crear artículos que cotnengan las frases (keywords) que los usuarios más buscan en la web. Y tratar que la densidad de esas palabras en el artículo sea adecuada para que los buscadores indexen correctamente la página.

  6. Evitar el exeso de flash, javascript, frames, etc. Ya que los robots de los buscadores solo leen texto, y por ahora solo se está trabajando para que los buscadores logren indexar flash e imágenes correctamente.

  7. No repetir los títulos para los diferentes artículos. Los títulos son la presentación de las páginas y deben estar de acuerdo con el contenido de las mismas y no estar repetidos en varias páginas.

  8. Crear enlaces internos de manera organizada. Al usar un sitemap le mostramos al robot del buscador en qué páginas debe hacer las búsquedas para encontrar las palabras clave.

  9. Crear contenido original y nuevo, no copiar contenido de otras páginas. Y que si el robot encuentra información repetida, indexará nuestra página de forma negativa.
  10. Por supuesto, escoger las palabras clave adecuadas, que representen correctamente el contenido de nuestra página.
  11. No abusar de SEO, ya que todo en exceso es malo.
Otros aspectos de SEO más técnicos que debemos tener en cuenta son:
  • Usar los metatags para la descripción y las palabras clave de nuestra página, y esa descripción y esas keywords serán únicas para esa página o artículo, ya que deben estar relacionados correctamente con el contenido del artículo.
  • Los títulos de los artículos deben ir entre 'h1', y tratar que esas palabras sean los keywords que queremos que relacionen nuestra página con las búsquedas web.
  • Los keywords deben ir en negrita. y aparecer prudentemente dentro del cuerpo del artículo.
  • Usar links donde el texto de enlace sean los keywords, y hacer uso del atributo 'title'.
  • Cuando insertemos una imagen, agregar los atributos 'alt' y 'title'.
  • Hacer buen uso de las abreviaturas.
  • Validar HTML y CSS.
  • Crear un archivo sitemap, para mostrarle al robot dónde puede y dónde no puede buscar.
  • Crear un archivo robots.txt
  • Utilizar herramientas para webmaster, como por ejemplo, las herramientas para webmasters de google.
  • Utilizar herramientas para llevar estadísticas SEO para nuestra web, como por ejemplo, google analytics.

Además de estas hay muchos más trucos que podemos utilizar, yo he seguido investigando para lograr que mis proyectos sean bien indexados por los buscadores.

Aquí hay algunas herramientas SEO que pueden ser de gran ayuda:

Herramientas para palabras clave:

Herramientas de posicionamiento web y directorios web:

Herramientas para calcular densidad de keywords y cantidad de links que direccionan a nuestra web:

Bueno, creo que esta información será de mucha utilidad cuando deseen optimizar sus páginas web para los resultados de búsquedas. Espero que disfruten de la ayuda y que puedan seguir aumentando sus conocimientos.

Hasta pronto...

miércoles, 30 de enero de 2008

Manuales XHTML, CSS, JavaScript, AJAX

Hola, cómo anda la vaina?

Hoy quiero recomendar y compartir un materiales sobre xhtml, JavaScript, XML, AJAX y CSS. Una parte de estos materiales (no está el de XML) son aportados por LibrosWeb están en español y constantemente son actualizados, además están disponibles en versiones html y PDF.

Son muy buenos materiales sobre programación orientada a la Web. Yo aprendí bastate leyendo estos materiales, mientras más vayan aprendiendo se darán cuenta de todas las cosas interesantes que pueden lograr.

Estos son algunos de los temas que son importante conocer al desarrollar aplicaciones orientadas a la Web.

A continuación les muestro una introducción sobre cada tema y les dejo un link para que puedan acceder a los materiales, se los recomiendo.

XHMTL

:

"Una definición simple de HTML indica que “HTML es lo que se utiliza para crear todas las páginas web de Internet”. Más concretamente, HTML es el lenguaje con el que se “escriben” las páginas web.

Los diseñadores de páginas web utilizan el lenguaje HTML para crear sus páginas, los programas que utilizan los diseñadores generan páginas escritas con HTML y los navegadores que utilizamos los usuarios muestran las páginas web después de leer su contenido HTML".

Seguir leyendo...

JavaScript:

"JavaScript es un lenguaje de programación que se utiliza principalmente para crear páginas web dinámicas.

Una página web dinámica es aquella que incorpora efectos como texto que aparece y desaparece, animaciones, acciones que se activan al pulsar botones y ventanas con mensajes de aviso al usuario.

Técnicamente, JavaScript es un lenguaje de programación interpretado, por lo que no es necesario compilar los programas para ejecutarlos. En otras palabras, los programas escritos con JavaScript se pueden probar directamente en cualquier navegador sin necesidad de procesos intermedios".

Seguir leyendo...


AJAX

:

"El término AJAX se acuñó por primera vez en el artículo “Ajax: A New Approach to Web Applications” publicado por Jesse James Garrett el 18 de Febrero de 2005. Hasta ese momento, no existía un término normalizado que hiciera referencia a un nuevo tipo de aplicación web que estaba apareciendo.

En realidad, el término AJAX es un acrónimo de Asynchronous JavaScript + XML, que se puede traducir como “JavaScript asíncrono + XML” ".
Seguir leyendo...

CSS:

"

CSS

es un lenguaje de hojas de estilos creado para controlar el aspecto o presentación de los documentos electrónicos definidos con HTML y XHTML. CSS es la mejor forma de separar los contenidos y su presentación y es imprescindible para crear páginas web complejas.

La separación de los contenidos y su presentación presenta numerosas ventajas, ya que obliga a crear documentos HTML/XHTML bien definidos y con significado completo (también llamados “documentos semánticos”). Además, mejora la accesibilidad del documento, reduce la complejidad de su mantenimiento y permite visualizar el mismo documento en infinidad de dispositivos diferentes".

Seguir leyendo...

Pronto  les dejo el de xml : ) ...

Ciao