Cuánto cuesta una web hecha con WordPress

Gestores de Contenidos

Es un tema delicado. Cada diseñador, programador, cliente, agencia, etc. tiene su opinión al respecto y en este debate suelen saltar chispas.

Origen: Cuánto cuesta una web hecha con WordPress

Anuncios

Cómo añadir el código de seguimiento de Google Analytics a WordPress

Gestores de Contenidos

Da igual si tu sitio es una web, un blog, una tienda online o lo que sea, tienes que realizar seguimiento de tu tráfico para saber lo que estás haciendo bien o mal, y el estándar en analítica web es Google Analytics, así que vamos a ver como integrar Google Analytics con WordPress de todos los modos posibles.

Vamos a ver como integrar Google Analytics con WordPress de todos los modos posibles.

Índice de contenidos [ocultar]

Origen: Cómo añadir el código de seguimiento de Google Analytics a WordPress

19 Formas de mejorar el Posicionamiento en Buscadores (SEO) ¡en un mes!

Gestores de Contenidos

Sin trucos. Con estas prácticas probadas y enfocadas a proyectos ya creados podrás mejorar el posicionamiento en buscadores de tu web en un mes ✅

¿Tienes una web y su posicionamiento en buscadores no acaba de despegar? Hoy vamos a ver 19 formas distintas de mejorar una página para que posicione mejor en Google. Sobre todo estos puntos están enfocados a webs que ya están creadas y no acaban de encontrar su sitio en Google.

¿Por qué en un mes? En el SEO hay muchísimos factores y no todas las prácticas y recomendaciones funcionan por igual en todas las webs. Digamos que el posicionamiento web no es una ciencia exacta. Todas estas prácticas que voy a contar a continuación las puedes aplicar, si le dedicas tiempo, en un mes. Y desde el momento que las aplicas, depende el proyecto y el punto de partida, empezarás a notar resultados (lo he visto). Pasado dos o tres meses tras estos cambios los notarás mucho más.

Sobre todo, los 19 puntos que vamos a ver los tienes que tener en cuenta si quieres que a largo plazo tu web tenga un buen posicionamiento. Las bases del proyecto deben ser sólidas. El SEO no es cosa de uno, dos o tres meses. Debes trabajar a corto, medio y largo plazo.

Antes de que te hagas una idea equivocada de lo que vas a leer en el post o si tiendes más por ser un hater, tengo que decir algo: este post no es un post milagroso, no doy trucos infalibles ni pociones mágicas para mejorar tu posicionamiento web.Como verás, hablo de ‘mejorar tu SEO’ y no de ‘posicionar tu web en un mes’, que es muy distinto, OJO.

 

Hablo de ‘formas’, de practicas y no de consejos y trucos vacíos. Por lo tanto, sí ahora sigues queriendo leer, acomódate, presta atención o incluso guarda este post para consultarlo otras veces.

Los distintos puntos que trato a continuación ayudarán al posicionamiento en buscadores de tu web o blog, no por ciencia infusa, están probados y en mayor o menor medida conseguirás resultados. No sé que planes tenías para el próximo mes, pero ve cancelándolos, Google te espera 🙂

19 Prácticas para mejorar tu posicionamiento web en buscadores en un mes

Eliminar el contenido duplicado

Es MUY habitual encontrar contenido duplicado en webs o blogs, y pensarás: “Yo no creo que tenga, nunca he copiado contenido a nadie”. Seguramente estés en lo cierto, pero solo en la parte de que nunca has copiado contenido a nadie (o eso espero). La parte en la que puede que no tengas tanta razón es en si tienes contenido duplicado o no.

Tener contenido duplicado depende de muchos más factores que simplemente haber copiado contenido de otras webs. Existen parámetros de una web que deben estar configurados de tal forma que eviten que a ojos de Google tengas contenido duplicado o lo que es lo mismo, varias versiones del mismo contenido dentro de una web.

Una web puede tener contenido duplicado si no se tratan bien cosas como:

#1 Etiquetas

Las tags o etiquetas llevan utilizándose años. En la época en la que las meta-keywords eran un factor de posicionamiento en Google y la gente añadía como loca palabras clave sin ningún sentido a su web, las etiquetas también gozaban de una buena reputación SEO.

Las tags permiten ordenar el contenido de una web, organizarlo o agruparlo según temáticas, palabras o secciones. Son muy similares a las categorías que veremos más adelante.

El uso que se le de a las tags será la razón por la que decidiremos desindexar o no estas taxonomías.

Existen casos en los que es recomendable tenerlas como ‘no index/follow’, ya que por su naturaleza queremos que Google no las rastree pero sí siga los enlaces que en ellas se encuentran. Existen otros casos en los que es recomendable tenerlas indexadas.

Puesto que las etiquetas son un herramienta de organización del contenido, haciendo un uso correcto de ellas podemos ofrecer al usuario una experiencia mucho mejor, pues tendremos una mejor estructuración y navegar por las páginas relacionadas será una tarea más natural.

 

Desindexar etiquetas en WordPress

Si tienes WordPress estás de enhorabuena, es muy sencillo desindexar las tags. Mediante el plugin SEO Yoast (también podrías hacerlo con All in One SEO) puedes hacerlo pulsando sólo un botón. Sigue estos pasos:

  1. Accede a SEO Yoast > Títulos y Metas
  2. Entra en la pestaña Taxonomías
  3. Desciende hasta ‘Etiquetas’ y donde pone ‘Meta robots’ indica ‘noindex’.
  4. Guarda los cambios

De esta forma ya habrás desindexado las etiquetas a través de Meta Robots en Yoast.

 

Desindexar tags a través del robots.txt

Si no quieres desindexar las tags desde el meta robots, siempre puedes desindexar desde el archivo Robots.txt las etiquetas de tu web. Para ello debes acceder al archivo robots.txt y desde aquí añadir un ‘disallow’. Con el disallow lo que haces es indicar a Google y otros motores de búsqueda que no queremos que sigan esas páginas concretas.

Simplemente, para indicar que no quieres que se indexen las tags, deberás añadir una línea que incluya Disallow: y la ruta de las tags, que según cada web puede ser de una forma u otra. En mi caso sería así:

Disallow: /tag/

 

Recomendación: la desindexación desde el Robots.txt y/o desde Meta Robots implican cosas distintas. Antes de desindexar páginas, sigue leyendo porque más adelante explicaré la diferencia entre el Robots.txt y las meta robots.

 

¿Qué determina si una tag debe estar indexada o no?

En primer lugar debes preguntar si esa etiqueta será capaz, por sí sola, de posicionar o de ser encontrada por los usuarios en los buscadores. ¿Responde a alguna búsqueda? En el caso de que la respuesta sea afirmativa, esa tag debería contener contenido propio original, cada una de las etiquetas que tenga una web.

En el caso de que estas etiquetas no vayan a contener contenido propio y original que las distinga del resto de tags se deben desindexar. Además, si una misma página se encuentra en varias tags, las páginas de cada tag estará ofreciendo contenido duplicado.

Si decides indexarlas porque crees que puedes posicionar debes hacer un ejercicio: antes de crear el contenido original para cada tag, haz una búsqueda de palabras clave para encontrar aquella que te conviene posicionar y trabajar en tus contenidos. Por muy original y de calidad que sea el contenido de tus etiquetas no posicionará si lo eliges bien las keywords.

Desindexadas o no, las etiquetas pueden seguir siendo utilizadas si su uso va a ayudar al usuario a encontrar mejor el contenido que busca y a ofrecerle una mejor experiencia.

 

#2 Categorías

Con las categorías pasa algo similar que con las etiquetas, sirven para organizar el contenido mediante páginas. En CMS como WordPress es muy fácil gestionarlas. Suelen ser las encargadas de almacenar y separar los distintos contenidos, tanto en blogs como en webs tipo ecommerce.

A la hora de decidir si indexamos o no las categorías, debemos pensar si realmente vamos a poder posicionarlas o si esas cateogrías por su contenido y palabras clave van a ser buscadas. Por ejemplo, en comercios electrónicos es recomendable tenerlas como ‘index’, pues las categorías en este tipo de webs suelen posicionar mejor y se prestan mucho más a generar contenido de valor.

No tiene por qué ser así, pero si las categorías incluyen contenido original, suficientemente extenso y con productos relacionados que responden a las búsquedas orgánicas, puede llegar a posicionar.

En el caso de los blogs o webs que no puedan crear contenido original y de calidad en las categorías se puede optar por desindexar. El contenido duplicado motivado por las categorías viene de asignar a cada artículo una o varias categorías. Aunque se opte por elegir que sean ‘no index’, podemos seguir haciendo un uso de ellas que facilite al usuario encontrar contenido y navegar por la web.


Desindexar categorías en WordPress

Del mismo modo que con las tags, si tienes WordPress puedes desindexar las categorías muy fácilmente. Sigue estos pasos:

  1. Accede a SEO Yoast > Títulos y Metas
  2. Entra en la pestaña Taxonomías
  3. Desciende hasta ‘Categorías’ y donde pone ‘Meta robots’ indica ‘noindex’.
  4. Guarda los cambios

De esta forma ya habrás desindexado las etiquetas a través de Yoast.

desindexar categorias yoast

 

Desindexar categorías a través del robots.txt

Para ello debes acceder al archivo robots.txt y desde aquí añadir un ‘disallow’. Con el disallow lo que haces es indicar a Google y otros motores de búsqueda que no queremos que rastreen esas páginas concretas.

Simplemente, para indicar que no quieres que se indexen las categorías, deberás añadir una línea que incluya ‘Disallow:” y la ruta de las categorías, que según cada web puede ser de una forma u otra. En mi caso sería así:

Disallow: /category/

 

La recomendación que he comentado en el apartado de las tags también sirve para las categorías.

 

#3 Duplicidades versiones web

Existen casos en los que algunas webs, sin saberlo, tienen varias versiones del mismo site y esto genera una cantidad de contenido duplicado bastante grande. Pero, tranquilo, en el caso de que este sea tu caso tiene fácil solución.

Para solucionar los tipos de duplicidades que vamos a ver a continuación necesitarás tener acceso al archivo htaccess. Si usas WordPress estás de suerte, puedes acceder a este archivo de forma muy sencilla con el plugin SEO Yoast, aunque hay otros plugins que también permiten hacerlo.

En el caso que no tengas WordPress o no quieras hacer uso de plugins, puedes acceder también al archivo a través del CPanel de tu hosting o a través del FTP, utilizando algún programa como FileZilla (gratuito).

Álex, ¿y qué tengo que hacer en este archivo llamado htaccess? Pues muy sencillo, seguro que ya conoces las redirecciones 301, ¿verdad? Pues vamos a solucionar estas duplicidades con una redirección 301.

 

Con WWW / Sin WWW

¿Qué versión tiene tu web? Se puede dar el caso que al crear tu web nunca eligieras qué versión querías que tuviera tu dominio, sin con www o sin www. Yo por ejemplo tengo la versión sin las tres w. Si tecleas “www.alexserrano.es” verás como automáticamente te lleva a “alexserrano.es”.

Elijas la opción que elijas, una debe redirigir hacia la otra de forma que no existan dos versiones iguales de la misma web.

Esta es la regla que debes indicar en tu htaccess para que la versión sin www redireccione a con www, es decir, la versión de tu web va a ser http://www.dominio.com

<IfModule mod_rewrite.c>
RewriteCond %{HTTP_HOST} ^tuweb.com [NC]
RewriteRule (.*) http://www.tuweb.com/$1 [R=301,L,QSA]
</IfModule>

 

En el caso contrario, si quieres que tu web sea sin www, debes añadir esto:

<IfModule mod_rewrite.c>
RewriteCond %{HTTP_HOST} ^www.tuweb.com [NC]
RewriteRule (.*) http://tuweb.com/$1 [R=301,L,QSA]
</IfModule>

 

Recuerda: personaliza los campos en color naranja con la dirección de tu web.

 

HTTP y HTTPS

Un caso muy parecido al anterior. En el caso de que hayas decidido contratar un certificado SSL y el dominio de tu web ahora muestra el ‘https’ debes comprobar que tu web solo tiene una versión, es decir, no se muestra con http y con https. Una de estas dos debe redirigir a la otra.

En el caso de que quieras que tu web solo se muestre con HTTPS, utiliza esta regla en el htaccess:

<IfModule mod_rewrite.c>
RewriteCond %{HTTPS} off
RewriteRule (.*) https://www.ejemplo.com/$1 [R=301,L,QSA]
</IfModule>

 

En el caso contrario:

<IfModule mod_rewrite.c>
RewriteCond %{HTTPS} on
RewriteRule (.*) http://www.ejemplo.com/$1 [R=301,L,QSA]
</IfModule>

 

Con / sin /

Parece una tontería, ¿verdad? Pues puede que tu web tenga este tipo de duplicidad. Comrpuébalo, anda 🙂

Esto ocurre cuando se puede acceder a una web con el slash al final y también sin el slash. Por ejemplo:

http://www.tuweb.com/

http://www.tuweb.com

Para evitar que existan estas dos versiones hay que proceder de la siguiente manera:

Versión con slash a la versión sin:

<IfModule mod_rewrite.c>
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_URI} !(.*)/$
RewriteRule (.*) http://www.ejemplo.com/$1/ [R=301,L,QSA]
</IfModule>

 

Versión sin slash a versión con slash:

<IfModule mod_rewrite.c>
RewriteCond %{REQUEST_FILENAME} !-d
RewriteRule (.*)/$ http://www.ejemplo.com/$1 [R=301,L,QSA]
</IfModule>

 

Tiempo de carga de la web

La velocidad de carga o WPO de una web es uno de los factores que más afectan al posicionamiento en buscadores, tanto para mal como para bien. Google quiere ofrecer a sus usuarios la mejor experiencia posible, por ello ‘premia’ a aquellas web que tardan menos en cargar.

Además, una web que contenga páginas que tarden menos en cargar conseguirá que Google pueda rastrear más páginas. Esto está relacionado con el Crawl Budget.

¿Qué es el Crawl Budget?Hablando para que se entienda, Google tiene que rastrear todo Internet; estamos hablando de 130 trillones de páginas web (Pardiez!). Google, por muy omnipotente y omnisciente que pueda ser, tiene unos recursos limitados, y eso le lleva a asignar un tiempo de rastreo a cada página web.

[thrive_leads id=’4553′]Dentro de este tiempo de rastreo, Google podrá analizar un número limitado de páginas dentro de una web, por lo que cuanto más optimizado esté una web de cara al WPO, es decir, el tiempo de carga de sus páginas internas, más páginas podrá rastrear Google. Y si Google rastrea más páginas de tu web, tendrás más posibilidades de rankear.

Existe una forma de ver las páginas de una web que Google rastrea al día. A través de tu Search Console, en Rastreo > Estadísticas de rastreo.

crawl budget

 

Son muchos los puntos que debe cumplir una web para que tenga un page speed score óptimo y en la mayoría de los casos están al alcance de nuestra mano y son controlables realizando algunas acciones.

El papel de los dispositivos móviles es cada vez más importante. Google está empezando a avisar a través de su buscador que ya se realizan más búsquedas a través de móvil que a través de equipos de escritorio. Además te recomienda que hagas una prueba para comprobar cómo se comporta tu web en dispositivos móviles, tanto en experiencia de usuario como en tiempo de carga.

Veamos algunos factores que podemos mejorar para reducir la velocidad de carga de tu web.

Antes de ver los factores debes conocer algunas herramientas para conocer la velocidad de carga de tu web. Te recomiendo:


5 Imágenes

Como trates las imágenes que subes a tu web o los artículos de tu blog será definitivo para el tiempo de carga de tu página. ¿La ventaja? Que es relativamente sencillo darle solución si tu web tiene problemas de este tipo.

Pueden darse dos problemas principalmente en cuanto a las imágenes:

  • Peso de las imágenes: subir imágenes muy pesadas puede (y suele) ser uno de los problemas principales que se encuentran cuando se comprueba la velocidad de carga de un sitio. Siempre se deben utilizar con un tamaño y peso adecuados. Lo ideal es que se editen primero en programas como Canva o Photoshop para darles el tamaño y formato adecuados. Antes de hacer la subida se deben optimizar con herramientas como Tinypng, que te permite reducir el peso de la foto sin perder calidad.

  • Escalado de las imágenes: se trata de subir las imágenes al tamaño al que van a ser mostradas en tu web. Por ejemplo, si el ancho de tu web o de los artículos de tu blog es 650px, las imágenes que subas, como máximo, deberán tener este ancho. De nada servirá subir imágenes con un ancho de 1500px cuando no se van a ver a ese tamaño. Además es probable que cuanto más grande sean mayor sea el peso.

 

¿Qué hacer si tu web ya tiene estos problemas? 

Bien, has realizado la prueba con alguna de las herramientas anteriores y debes optimizar tanto el peso como el escalado de las imágenes, ¿qué debes hacer ahora? Pues depende.

Optimizar el peso de las imágenes pasa por descargarlas todas, optimizarlas y volver a subirlas. Si tienes un sitio web con cientos de imágenes puede que esto sea un trabajo de chinos. En ese caso, existen plugins para WordPress como WP Smush, servicios como Kraken.io, que de forma automática descarga, optimiza y vuelve a subir las imágenes o servicios de proveedores de hosting como Webempresa, quienes realizan un optimizado de todas las fotos de tu web.

El tema del escalado, que aunque siendo menos grave se debe atender, deberás hacerlo de forma manual, subiendo las imágenes en su tamaño correcto.

 

#6 CSS, Caché y Javascript

Casi en todas las webs en las que compruebo su velocidad de carga, este tipo de advertencias siempre suelen aparecer. Todo lo relacionado con el minificado del CSS y Javascript y los problemas derivados de la caché se pueden solucionar con plugins.

Cada plantilla y cada web son distintas, hay algunas que generan más problemas y otras menos. Existen muchos plugins que pueden ayudarte a mejorar el tema de la caché, hojas de estilo CSS, Javascript, compresión Gzip, etc. No hay ninguna configuración base que funcione para todas las webs, debes probar. Por ejemplo, yo tengo funcionando WP Super cache y me da mejores resultados que W3 Total Cache, pero en tu web puede ser al contrario.

En muchos de los casos, tras acometer estas mejoras el tiempo de carga de una web se ve reducido de forma considerable.

Para la caché:

  • W3 Total cache: este plugin es gratuito, es uno de los más utilizados para mejorar la velocidad de carga. Puedes instalarlo y probar si te ayuda. Con este tutorial de Miguel Florido la tarea de configurarlo será mucho más fácil.

 

Para el CSS y Javascript:

Rubén Alonso en este súper post te cuenta mucho más sobre plugins para mejorar la velocidad de carga de tu web, por lo que si es un tema que te preocupa, te recomiendo que leas su post.

Los siguientes plugins son algunos que pueden ayudarte a reducir el tiempo de carga de tus páginas.

  • Autoptimize: este plugin lo tengo funcionando a la vez que WP Super cache, probando y probando descubrí que era la combinación que mejores resultados me daba. Este plugin gratuito y muy fácil de configurar te permite unificar y reducir el CSS, JS y HTML.
  • Speed Booster Pack: otro plugin que está sonando con fuerza últimamente para mejorar el tiempo de carga reduciendo el CSS y el Javascript.

 


#7 Plugins, Widgets y otros agentes nocivos

Hay muchos otros factores que hacen que una web tarde más tiempo en cargar. Por ejemplo, tener activos muchos plugins puede hacer que la web tarde más en responder. Desactiva o elimina aquellos que no utilices o no compense tenerlos.

No abuses de widgets en tu web, cada uno de ellos tarda su tiempo en cargar y cuanto más tengas más tardará el conjunto de la web en cargarse.

Lleva cuidado sobre todo con los widgets típicos de redes sociales, aquellos que incluyen botones para que te sigan automáticamente sin tener que ir a la red social (Facebook, Twitter, Google Plus, etc). También me refiero al plugin de Twitter que muestra tus últimos tweets, o al de Instagram que muestra tus últimas fotos. Todos ellos quedan muy bonitos pero debes plantearte si de verdad aportan o realmente está de decoración.

Para saber exactamente que es lo que está lastrando la velocidad de carga de tu web, puedes echar un ojo en GTmetrix a la pestaña ‘Waterfall’. Ahí puedes ver todos los procesos y cuánto tardan en ejecutarse.

 

 

Lleva mucho cuidado también con aquellos plugins y widgets directamente relacionados/conectados con redes sociales.

Para empezar, seguro que te suena esos widgets en la barra lateral que muestran tu últimos tweets, sirven para que te sigan en Google Plus o se hagan fans de tu página de Facebook. Bien, estos plugins, sobre todo el de Twitter, hacen que el tiempo de carga se incremente considerablemente. Piensa si te sale a cuenta tenerlos, si te compensa. ¿Aportan más de lo que restan?

Otros plugins con los que tienes que llevar mucho cuidado son aquellos que sirven para compartir una página o artículo en las distintas redes sociales. Yo antes utilizaba Sumome, seguro que lo conoces, muchísima gente lo tiene. Sumome y algunos de estos plugins gratuitos, hacen que el tiempo de carga de la página sea más lento, y entiendo que nadie quiera prescindir de este tipo de complementos en su blog o web.

¿La solución? Recomendado por Carlos Miñana, instalé Easy Share Social Buttons. Es el plugin que tengo ahora mismo funcionando en mi blog. No lastra la velocidad de carga, tiene infinidad de funciones como Sumome y es muy fácil de configurar. Sin duda te lo recomiendo (la captura de GTmetrix de más arriba es de mi blog).

Antes de instalar Easy Share, estuve mirando otros plugins que son muy parecidos y entre sus características se encuentra la velocidad de carga del plugin.

Aquí tienes dos más:

Fixed WordPress Social Share Buttons

Ultimate Social


#8 Tiempo de respuesta del servidor

El tiempo de carga de tu web no siempre va a depender de las optimizaciones de las que estamos hablando, en casi todas puedes tomar parte de forma directa, pero hay otras que dependen de terceros. El tipo de plantilla que utilices en tu web puede ser importante, pero también lo es el hosting que estés utilizando para dar alojamiento a tu web.

Es de vital importancia, tanto para la salud de tu web como para mejorar el posicionamiento web a través del WPO, contar con un hosting de calidad.

Hay algo que debes tener clarísimo, si quieres una buena web que posicione bin en Google debes rascarte el bolsillo, no hablo de cientos de euros, la mayoría de hostings que merecen la pena te cuestan menos de 10€/mes.

Lo que sí que debes evitar a toda costa son los alojamientos sospechosamente baratos, no ofrecen recursos suficientes para alojar tu web y esto se traduce en un tiempo de carga elevado y lo que es peor, ellos nunca podrán soluciones.

Si la web que tienes actualmente, la que estás intentando posicionar, tiene una respuesta del servidor muy lenta o necesitas cambiar de hosting debes comparar y buscar el que mejor te convenga.

Si tuviera que recomendarte alguno, tanto para WordPress como para otros CMS, sin duda, te diría Webempresa. Es el que yo utilizo, conozco a muchos otros blogueros que también tienen su web alojada en sus servidores y la mayoría de proyectos que trato en el Curso de SEO avanzado de AulaCM también lo tiene, y me atrevería a decir que el 99% están contentísimos. Además es todo en español, incluso la atención al cliente (24/7)

Gracias a sus servidores compartidos con discos SSD el tiempo de carga de las webs alojadas en webempresa no suelen tener problemas en este sentido. Otra opción sería recurrir a VPS (Virtual Privare Server), algo que elevaría el coste de tu hosting. Empresas como Raiola Networks ofrecen este tipo de hosting.

Entre el 21 y el 28 de febrero, Webempresa ofrece todos sus productos con un 30% de DESCUENTO. ¡Aprovecha ahora!

Una forma de saber si tu servidor está respondiendo con garantías es utilizar Bytecheck. Esta herramienta te dice el tiempo que tarda el navegador en descargar el primer byte de información de una web, algo que depende directamente del servidor que tengas contratado.

El TTFB (Time To First Byte) debe estar por debajo de 0.4/0.5 segundos. Te recomiendo que hagas distintas pruebas a lo largo del día para hacer una estimación.

#9 Formato Google AMP

Un breve repaso, ¿qué es AMP?

Puesto que es algo relativamente reciente, y desde septiembre Google están indexando de forma masiva estos tipos de resultados es algo pronto para afirmar que las páginas AMP mejoran el SEO… ¡pero! Las páginas AMP cargan muchísimo más rápido que los formatos convencionales y lo que sí está comprobado es que la velocidad de carga de una web incide en el SEO.

Tutorial: Activa AMP de Google en tu WordPress

Por lo tanto, si el AMP de Google hace las páginas de tu web tan rápidas será beneficioso para tu SEO, al menos en móviles. En el mundo ya se realizan más búsquedas desde dispositivos móviles que desde equipos de escritorio y Google está haciendo más hincapié que nunca en la optimización de las webs en móviles.

Aquí tienes el ejemplo de uno de mis post. El tiempo de carga de la versión sin AMP y con versión AMP:

Página sin AMP

 

Página con AMP

10 Indexación

Deindexar ciertas páginas de una web puede tener más usos además de para evitar tener contenido duplicado tal y como vimos antes.

Es recomendable hacer un pequeño estudio de las páginas que se están indexando de tu web para saber si necesitas optimizar esta parte.

Antes de tomar la decisión de si desindexar alguna página o no, deberías hacerte algunas preguntas para llegar a la respuesta correcta:

¿Puedo posicionar esta página, teniendo en cuenta la keyword y la competencia en las SERP?

¿Quiero posicionar esta página?

¿Voy a poder posicionar esta página según la keyword, la cantidad de contenido que puedo incluir y mi autoridad?

Recordarás que más arriba he hablado del Crawl Budget, ¿verdad? Si no lo recuerdas, vuelve atrás y repasa ese punto, te vendrá bien 🙂 Debemos indexar aquellas páginas de nuestra web que sean necesarias, que queramos y pensemos que puedan llegar a posicionar. Si vamos a hacer que Google Bot pase por esas páginas, que al menos merezca la pena.

Facilita el trabajo a las arañas de Google, muéstrale las páginas que realmente quieres que vea Google.


Formas de desindexar páginas

  • A través de la Meta robots

La meta etiqueta robots es una tag que se incluye en el código HTML de una página. Esta etiqueta puede indicarle a Google o a otros motores de búsqueda si deben o no indexar esa página.

La etiqueta meta robots se puede incluir de forma manual en el código de la página, pero si utilizas WordPress y tienes un plugin como SEO Yoast, se establecerá de forma automática en el código html de tus páginas.

<meta name="robots" content=“noindex”>

 

Cuando la etiqueta incluye el ‘noindex’ le estarás diciendo a Google que quieres que rastree esa página pero que no la indexe, por lo que será capaz de rastrearla, encontrar los enlaces y estos a su vez transmitirán autoridad.

En el caso de que acompañemos el ‘noindex’ con ‘nofollow’, los enlaces de esa página no transmitirán autoridad.

 

  • Robots.txt

El archivo Robots.txt te ayuda también a decirle a Google lo que quieres indexar y lo que no, pero además, lo que indiques como ‘Disallow’ hará que directamente el robot de Google no acceda a esa página que le has indicado.

Recuerda que para desindexar cualquier página a través del Robots.txt debes añadir una línea que incluya:

Disallow: /pagina-desindexar/

 

Entonces Álex, ¿qué utilizo para desindexar una página, el robots.txt o la etiqueta meta robot? Buena pregunta, querido lector. Bien, seguro que explicándolo así entiendes la diferencia entre ambos:

Diferencias entre el Robots y Meta Robots
Robots.txt Meta robots
Google no indexa Google no indexa
Google no rastrea Google sí rastrea
Contenido visible Contenido visible
Google no sigue enlaces Google sí sigue enlaces
Los enlaces no transmite Los enlaces transmite
Importante conocer la diferencia entre el Robots.txt y el Meta robots para #SEOHAGA CLIC PARA TWEET

La respuesta es “depende”. Depende del uso que quieras darle a esa página que planeas desindexar. Si esta página a su vez enlaza a otras páginas que sí estás intentando posicionar, yo optaría por utilizar el meta robots en lugar del robots.txt.

De esta forma Google Bot sería capaz de entrar a esa página (no indexarla) y ver cada uno de los enlaces y si procede (si están en follow) transmitir autoridad y seguirlos.

Como todo en esta vida, el meta robots tiene sus ventajas y desventajas.

La principal ventaja es que podemos desindexar una página sin que ésta sea un obstáculo para los rastreadores, permitimos a Google pasar y seguir los enlaces internos (tan importantes para un mejor rastreo/crawleo de una web).

Por contra, la desventaja de esta meta etiqueta es que le hacemos a Google que tenga que rastrear más páginas, y en términos de crawl budget esto no nos gusta. Con el robots.txt las arañas no entran a la página que indiques como ‘Disallow, con el meta robots harás que sí acceda a esa página y la rastree.

 

  • Eliminación de URL a través de Search console

Otra forma eficaz de eliminar una página de los resultados de búsqueda es eliminarla a través de Google Search Console. Google, con su herramienta para webmasters te permite hacerlo, eso sí, la eliminación de estas URL es temporal, a los 90 días de realizar la eliminación volverá a aparecer en las SERP.

Para acceder a esta función del antiguo Web Master Tool, debes ir a Índice de Google > Eliminación de URL.

Existen tres tipos de eliminación de URL:

Oculta de forma temporal una página y elimínala de la caché: con este tipo borrarás la URL enviada durante aproximadamente 90 días, además también se eliminará la copia que se guarda en la caché.

Eliminación de la página solo de la caché: de esta forma no eliminarás la página de Google, solo lo guardado en caché.

Oculta un directorio: es igual que la primera opción, es efectivo durante unos 90 días pero solo aplica a un directorio concreto.

 

11 Optimización de páginas

Cuando hablamos de optimizar páginas nos referimos a tener en cuenta ciertos factores de posicionamiento en buscadores que pueden hacer tus páginas mucho más atractivas a los ojos de Google. Páginas que ya tengas publicadas e indexadas o páginas que vayas a crear desde cero. Revisa aquellas páginas que tiene tu web y que quieres posicionar, y sobre todo, todo el contenido nuevo que vayas creado, procura que cumpla con lo que vas a ver a continuación:

 

Más de 300 palabras

Dentro de los muchos factores SEO que pueden hacer que una página posicione, se encuentra la extensión del texto, la calidad y originalidad del mismo.

Google Panda se encarga de perseguirlo, por lo que intenta siempre que puedas, crear contenidos tanto para blogs, como webs corporativas o para vender productos o servicios, que superen las 300 palabras.

A Google no le gusta el contenido pobre, además, cuanto más extenso sea el texto más posibilidades tendrás de incluir palabras clave, sinónimos, semántica en general y por supuesto enlaces.

Que sea bueno que escribas más de 300 palabras no significa que si no lo haces es imposible que posiciones. Te ayudará, sumarás mini puntos a la hora de mejorar el posicionamiento web de tus páginas.

⚠️ Importante: hay casos en los que es difícil o casi imposible redactar contenidos de más de 300 palabras, o bien no tienes esa capacidad imaginativa, de redacción o copywriting para llevarlo a cabo. Siempre que tu presupuesto lo permita puedes contratar a un profesional para que se encargue de esta parte.

En otras ocasiones ocurrirá que por la naturaleza de tu contenido no puedas añadir tantas palabras, véase un producto de un ecommerce que prácticamente se describe solo. Huye de crear contenidos repetitivos que no aporten nada, no rellenes por rellenar.

 

Títulos y metas descripciones

De cara a posicionar tus páginas en Google o conseguir que el posicionamiento web de una página concreta mejore en las SERP, es importante que revises las páginas que estás indexando (y que trabajes las nuevas páginas que vayas creando), para optimizar al máximo tus títulos SEO y meta descripciones.

Te recomiendo que busques en Google el comando “Site:” seguido de tu web. De esta forma podrás ver las páginas que tienes indexadas y cómo lo están haciendo.

Títulos: los títulos que aparecen en los resultados de búsqueda corresponde a la etiqueta ‘title’ de tus páginas. Este título es de vital importancia para el posicionamiento en buscadores. Google lo utilizará para posicionarlo según las palabras clave y además ayudará a mejorar el CTR siempre que esté bien creado.

En el título SEO siempre debe ir la palabra clave con la que quieres posicionar esa página, además es recomendable que se incluya lo más a la izquierda posible, no porque vaya a posicionar mejor, sino porque leemos de izquierda a derecha, y si ven a antes la keyword que están buscando, tienes más posibilidades de que hagan click en tu resultado.

Crea títulos que no superen los caracteres permitidos, sé directo y conciso y crea llamadas a la acción. Cambia los títulos de las páginas que tienes posicionadas cuantas veces sea necesario y utiliza Search Console para ver cómo varía el CTR.

[thrive_leads id=’4553′]

Meta descripciones: Google no utiliza las meta descripciones para posicionar según palabras clave. Para que nos entendamos, el trabajo que hagas para mejorar las descripciones de tus resultados servirá para atraer a más usuarios a tu web, aumentando el tráfico y el CTR. Revisa que tus meta descripciones no superan los caracteres, que incluyen la palabra clave y que describen a la perfección lo que los usuarios pueden encontrar dentro de esa página.

Para practicar con los títulos y las descripciones puedes utilizar alguna página como SerpSimulator.

 

Keywords

Esto aplica tanto para nuevas páginas como páginas que ya tienes publicadas o incluso indexadas. Antes de crear una página (título, H1, contenido, etc) es primordial que hagas un estudio de palabras clave para saber qué keyword te conviene trabajar para posicionar.

En función de volumen de búsquedas, competencia, o incluso por la conversión o margen de beneficio que te puede generar.

Una de las mejores herramientas que existen para hacer ese estudio de palabras clave es SEMrush, que además de SEO también te servirá para el SEM y para ‘espiar’ a tu competencia.

Es importantísimo saber qué palabras clave quieres posicionar antes de ponerte a crear alguna página o contenido. Como ya he dicho antes, utiliza las keywords con sentido común, no sobre optimices, la densidad de palabras clave no debe superar el 0.5%-1% del total del contenido. Utiliza sinónimos, no repitas exactamente lo mismo en el título de la entrada o H1 y en el título SEO, incluye siempre la keyword en la URL de la página…

En el caso de que quieras optimizar páginas que ya tienes posicionadas, escoge aquellas que ya se encuentren indexadas y entre las primeras páginas de Google, decide para qué palabras quieres posicionarlas y actualiza el contenido después de hacer el estudio de palabras clave. Además, siempre que puedas, añade contenido nuevo y de valor.

Las mejores herramientas para keyword research

 

Canonicals

Antes de hablar de las canonical, te quiero mencionar algo que queremos solucionar o evitar con ellas, la canibalización de keywords. Para evitar que ocurra y que dos o más páginas estén compitiendo por posicionar con la misma keyword, podemos utilizar las URLs canónicas.

Imagina que tienes 3 páginas que están trabajando la misma palabra clave, pero solo quieres posicionar una de ellas, la que más te interesa. Para que no hubiera conflicto a la hora de posicionar, deberías indicar en las 2 páginas que te interesan menos posicionar que la URL canónica es la página que quieres posicionar.

Página 1 (la que quieres posicionar): no se indica canonical

Página 2: indicas que la canónica es http://www.tuweb.com/pagina-1

Página 3: indicas que la canónica es http://www.tuweb.com/pagina-1

Si tienes WordPress, la forma más sencilla de hacer uso de las canónicas es a través de SEO Yoast. Al final de la página de edición de tus páginas, encontrarás este cajón dentro de las opciones de configuración de Yoast.

 


12 Penalizaciones: afectan al posiconamiento en buscadores

Puede que ya conozcas a los famosos algoritmos de Google, los dos más famosos y que más estragos han hecho desde que fueron lanzados son Google Panda y Google Pingüino o Penguin. Es fundamental conocerlos, saber qué penalizan y por supuesto, conocer si tu web puede estar penalizada por alguno de estos dos animalejos.

Una penalización en tu web puede significar una gran pérdida de posiciones, con la consiguiente disminución del tráfico y eso, en empresas muy grandes con una fuerte dependencia de las ventas online puede suponer un problema muy serio.

Google Panda

Google lanzó este algoritmo a comienzos de 2011 con un claro objetivo: que el contenido de las webs aumentara en calidad y originalidad. Panda nacía para perseguir a las webs con contenido pobre o plagiado de otras webs, así como el contenido duplicado interno.

Qué tipo de penalizaciones hay y cómo salir de ellas. #SEOHAGA CLIC PARA TWEET

Google Penguin

Poco más de un año después de Google Panda, nacía Penguin, un algoritmo que está ahora más de moda que nunca gracias a su última actualización.

Hace unos años, las webs para incrementar su autoridad a ojos de Google realizaban prácticas ahora consideradas spam, donde se conseguía gran cantidad de enlaces y de distintas maneras. De esta forma Google entendía que éramos muy recomendados.

Conseguir enlaces artificialmente era fácil y funcionaba pero Google un día decidió acabar con esto.

Google Penguin persigue aquellos enlaces de mala calidad que llegan a una web, como por ejemplo granjas de enlaces o enlaces de webs que están en la lista negra de Google como las de póker, viagra o apuestas.

Penguin tampoco ve con buenos ojos tener muchos enlaces de una misma página, lo considera poco natural. No son recomendables tampoco los enlaces desde webs con una temática que nada tiene que ver con la de tu web. ¿Tiene sentido que si tu web es de recetas de cocina, te enlacen desde webs sobre recambios de coches? ¡Claro que no!

Al pingüino tampoco le gusta que tengamos un perfil de enlaces sobreoptimizado con palabras claves exactas en los anchor text o anchor text iguales.

En general, tu web debe tener un perfil de enlaces cuidado, teniendo en cuenta muchos factores.

A día de hoy este algoritmo está en boca de todos. Con su última actualización es capaz de analizar en tiempo real, y esto es bueno en el caso de que queramos salir de una penalización pero es un fastidio para aquellos que quieran hacer prácticas sospechosas para conseguir enlaces, el pingüino les cazará antes.

 

Tipos de penalizaciones 

Dentro de las penalizaciones que una web puede recibir hay que distinguir entre dos, para saber cómo proceder para salir de dicha penalización:

  • Penalizaciones algorítmicas

Mayoritariamente se producen cuando los algoritmos de Google Panda y Penguin (u otros) rastrean las webs y analizan si cumplen con las directrices de calidad.

Las penalizaciones resultantes de este análisis se aplican de forma automática y en ningún caso son notificadas. Es por ello que son difíciles de identificar, aunque se pueden intuir, pues tras una penalización conlleva una disminución considerable del tráfico orgánico.


  • Penalizaciones manuales

Son realizadas por empleados de Google. Si tienes una penalización manual serás notificado pero será más difícil salir de ella.

Ocurren cuando en Google se recibe una alarma o cuando terceros reportan como spam a una web a través de Google Search Console.

En el mismo lugar, en Search Console, puedes comprobar si tienes penalizaciones manuales a través del apartado ‘Acciones manuales’.

Cómo saber si estás penalizado

Algorítmica

No existe ninguna confirmación que te diga si realmente estás penalizado. En las penalizaciones algorítmicas Google no te va a avisar. Vas a tener que echar mano de diversas herramientas y de tu capacidad analítica para saber si estás penalizado y por qué.

Google Analytics: una de las primeras herramientas que te puede dar pistas sobre si estás sufriendo algún tipo de penalización es Google Analytics.

Observando el tráfico, si tienes un nivel de visitas más o menos estático, podrás deducir si has sido penalizado si te encuentras con un bajón importante y repentino en tus estadísticas. Lo ideal es que investigues un poco más, compruebes a través de qué canal se ha perdido ese tráfico y si esa sangría viene desde el Canal Orgánico, teme lo peor.

Tampoco está demás que compruebes si estás perdiendo tráfico de forma específica desde alguna de tus páginas estrella o si es a nivel global. Si es la primera opción puede que haya habido algún tipo de problema con alguna página concreta.

Barracuda Panguin Tool: esta herramienta no te dirá si sufres una penalización pero ayuda bastante. Para poder utilizarla necesitarás vincular tu cuenta de Google Analytics, entonces verás tu gráfica de visitas con unas barras sobreimpresionadas.

Estas barras verticales corresponden a cada una de las actualizaciones o lanzamientos de algoritmos de Google. Utilizando tu gran capacidad analítica podrás deducir si sufres penalizaciones algorítmicas, relacionando bajadas importantes de tráfico con las actualizaciones de los algoritmos.

Sistrix: es una de las herramientas SEO más utilizadas por profesionales, seguro que la conoces. Sistrix también te puede ayudar a descifrar si está penalizado. En sus gráficas de visibilidad también ofrece datos sobre actualizaciones de algoritmos, lo que puedes relacionar con subidas o bajadas de tu visibilidad según Sistrix.

MOZ: los buenos de Moz también te pueden ayudar con esta tarea. Tienen una web muy útil que recoge año tras año los lanzamientos y actualizaciones de los algoritmos de Google. Relacionando estas fechas con por ejemplo, tus datos de Google Analytics, Sistrix o incluso SEMrush, puedes hacerte una idea de lo que ocurre.


Manual

Las penalizaciones manuales son más fáciles de identificar. Cuando recibes una acción manual por parte de Google, aparecerá un aviso en Google Search Console en Análisis de búsqueda > Acciones manuales.

Existen muchas directrices que puedes incumplir para que Google te aplique una acción manual. Si has recibido alguna acción de este tipo, comprueba si has infringido alguna de estas directrices de Google y pon soluciones.

 

Cómo salir de una penalización de Google

Salir de una penalización de Google Panda

Contenido copiado de otros: es una de las cosas que menos le gustan al este algoritmo. Cuando copias contenido de otras webs Google puede detectarlo y actuar. Comprueba que no sea así, que no tienes contenido copiado de otras webs. Sobre todo si tienes un comercio electrónico, presta especial atención a las fichas de producto. Es común que al escribir la descripción de un producto se copie de su ficha original.

¿Cuál es la solución? Si tienes este problema la solución pasa por dedicar horas a eliminar este contenido o modificarlo de tal forma que Google no capte que está copiado de otras webs. Utiliza la imaginación, los sinónimos, el copywriting.

Contenido duplicado propio: como te expliqué al comienzo de post, el contenido duplicado dentro de tu propia web también puede ser conflictivo. Desindexa, elimina contenido si fuera necesario, organiza los contenido de tu web…

Haz lo que sea necesario para que tu contenido duplicado interno se reduzca lo máximo posible y recuerda, siempre puedes utiliza Siteliner para comprobar cuánto contenido duplicado tienes.

Para conocer si tienes contenido duplicado de otras webs o si te han copiado contenido, puedes utilizar Copyscape. Una herramienta gratuita con versión premium.

Contenido escaso: algo que no le gusta nada a Google Panda es el contenido escaso, de menos de 300 palabras. Esto no significa que tengas que incluir palabras sin ton ni son.

Intenta siempre, aplicando la imaginación y el copywriting, ofrecer líneas que sean de utilidad y con sentido común. Entiendo que en ocasiones cueste, pero hay que intentarlo, sobre todo en fichas de producto de ecommerce, donde llegar a 300 palabras en muchas ocasiones es complicado, también en landing pages.

Cuando te copian: además de copiar contenidos de otros puede que se dé el caso de que te copien contenido a ti. Esto también puede ser motivo de penalización. Existen webs que son tan rápidas en plagiar un contenido que lo hacen prácticamente al momento de que el original sea publicado. Si esa web que copia tiene más autoridad que tú, puede posicionarse por delante, haciendo pensar a Google que el que ha infringido la directriz eres tú.

Una vez hayas solucionado aquello que creas que has infringido y por lo que estás siendo penalizado, deberás esperar. No hay un tiempo estimado para salir de una penalización de Google Panda, pero puede que tengas que esperar hasta la siguiente actualización.

 

Penguin

En el caso de que sospeches que estás siendo penalizado por Google Penguin deberás hacer un exhaustivo análisis de los enlaces, tanto entrantes como salientes de tu web.

  • Utiliza herramientas como Google Search Console, Ahrefs, RankSignals, Majestic… para saber qué webs te están enlazando y con cuántos enlaces.
  • Comprueba la procedencia y calidad de esos enlaces: deben ser webs de temáticas similar a la tuya, nunca deben ser enlaces de webs que no le gustan a Google, de temática porno, viagra o póker.

Sospecha de aquellos enlaces de webs de idiomas que no tienen que ver nada con el tuyo (por ejemplo chino o árabe). Tampoco son buenos los enlaces de las famosas granjas de enlaces, webs con un diseño muy simple y que simplemente están formadas por listados larguísimos de enlaces a todo tipo de webs. Visita las webs que te enlazan y comprueba si son enlaces situados en footers o barras laterales, estos lugares suelen generar enlaces masivos hacia tu web y tampoco es bueno. Existen muchos factores para determinar si un enlace puede ser malo o no, pero ante la duda, intenta eliminar toda relación con ellos.

 

Desautorizar enlaces o Disavow tool

Cuando localizas enlaces con los que no quieres tener ningún tipo de relación (contigo no, bicho) puedes contactar con el webmaster de turno para pedirle que por favor, elimine tu enlace o lo etiqueten como ‘nofollow’.

Si haciendo esto último no consigues que eliminen el enlace, tienes la opción de utilizar la herramienta Disavow de Google. Te permite, a través de tu Search Console, decirle a Google que no quieres tener cierta relación con determinados enlaces a tu web. Utiliza esta herramienta con cautela, no vayas a desautorizar enlaces de calidad que te están trasmitiendo autoridad.

Para desautorizar enlaces debes acceder a Disavow Tool y subir un archivo .txt con formato de codificación UTF-8.

En este archivo debes indicar aquellos enlaces que quieres desautorizar. Estos enlaces debes incluirlos en el archivo de la siguiente manera:

#Hola, estos son los enlaces con lo que no quiero tener ningún tipo de relación

Domain:laweb.com

Domain:laweb2.com

Domain:laweb3.com

 

Conforme subas el archivo, Google te dirá si es correcto y ahora solo tendrás que esperar a que un empleado de Google revise tu documento y desautorice los enlaces. Este proceso puede tardar varias semanas, por lo que ten paciencia.

Si en algún momento quieres añadir más enlaces para desautorizar, puedes descargar el documento que subiste, actualizarlo y volver a subirlo. Cuando mandas un archivo de desautorización a Google correctamente te mandan un correo a tu Gmail con ese documento.

 

Solicitud de reconsideración

Si cuando recibes una acción manual realizas las modificaciones necesarias para cumplir con las directrices de Google y quieres que te retiren esa acción manual debes enviar una solicitud de reconsideración. Es similar al Disavow y sirve para decirle a Google que vuelva a comprobar si tu web cumple con las buenas prácticas y pueden levantarte el castigo.

 

13 Enlaces internos

Unos de los factores que también hay que tener muy en cuenta para mejorar el posicionamiento web son los enlaces internos, es decir, los enlaces que pones en tus páginas hacia otras páginas propias, de tu web. Veamos por qué son importantes:

-Enlazado interno para conseguir tráfico: en primer lugar, y aunque no es tan relevante de cara al SEO, no se debe obviar. Enlazar a páginas internas de tu web o blog puede hacer que el volumen de visitas se incremente, sobre todo si los utilizas de forma adecuada. Enlaza a páginas relacionadas, que complementen la información que ya estás dando o puedan ser de interés para el usuario.

-Enlazado interno para ayudar a Google a rastrear tu web: en este mismo post, unas miles de palabras arriba, he hablado sobre el crawl budget, ¿verdad? Si te has saltado esa parte te recomiendo que vuelvas (esto es como Juego de Tronos, hay capítulos que no te puedes perder! 😄)

Google rastrea y navega por las distintas páginas web de todo Internet (hay entorno a unos 130 trillones 😱) sirviéndose de los distintos enlaces (crawl). Bien, pues los enlaces internos que utilices van a ayudar a Google a pasar de página en página en tu web, por lo tanto se lo pondrás más fácil para que llegue lo más profundo posible.

-Linkjuice: el llamado linkjuice, que fluye de un enlace a otro también, debemos tenerlo en cuenta de cara a enlaces internos. El linkjuice debe fluir dentro de tu web, de un enlace a otro, de forma continua. Intenta que todas tus páginas tengan enlaces a otras (sin pasarse).

Si quieres conocer más sobre los enlaces internos y qué tipos puedes utilizar, lee atentamente este artículo del gran Dean Romero.

 

14 Enlaces salientes

Igual que los backlinks o enlaces entrantes, los enlaces salientes, es decir, de tu web a otras también son importantes. Google Penguin también se fija en ellos y debes saber qué cosas no debes hacer, tanto en un proyecto nuevo como en un proyecto que estás intentando mejorar.

-Enlaces masivos a mismas páginas (footer, sidebar): a Google le gusta la naturalidad en los enlaces, y hay algo que le puede no gustar y llegar a penalizar. Se trata de aquellos enlaces a otras webs que incluyes en el pie de página o en la barra lateral. Antes era muy habitual crear ‘blogrolls’ o incluir enlaces a páginas ‘amigas’, tanto en el sidebar como en el footer.

Esto lo que provoca es tener un enlazado masivo a webs externas, ya que todas las páginas de una web van a contener esos enlaces (footer/sidebar) y se van a multiplicar por tantas páginas como tenga tu web.

Google sabe que en el momento que lanzó los enlaces nofollow, la gente se puso a cambiar como loca estos enlaces, pasándolos de follow a nofollow. Esto tampoco es recomendable, Google también sabe encontrar los enlaces nofollow y conoce de este tipo de prácticas por lo que siempre que puedas, intenta evitar este tipo de enlaces masivos.

-Enlaces a webs malas: siempre que enlaces a webs externas comprueba que son webs que no pueden comprometerte. Huye de aquellas webs con un alto Spam Score en MOZ.

Un perfil de enlaces salientes de una web debe ser coherente, no tiene mucho sentido que una web sobre salud y belleza enlace a webs de tan distinta temática como mecánica de coches, apuestas, política… Puede existir algún enlace pero el perfil de enlaces salientes debe ser natural en su conjunto.

-Enlaces follow/nofollow: intenta tener una proporción de enlaces follow/nofollow lo más natural posible. No es bueno tenerlos todos follow y viceversa. Deben ser follow aquellos enlaces a webs de temática similar y sobre todo, que tú recomiendas de forma natural.

-Haz nofollow a aquellos enlaces que puedan resultar muy comerciales, como a páginas de marcas, empresas, productos, programas de afiliados. También a webs de distinta temática o que no tengan que ver nada con lo que trata tu web. Y por supuesto, aquellas webs que se encuentran en la lista negra de Google.

Más sobre el Nofollow y opinión de expertos

 

15 Enlaces rotos

Los enlaces rotos derivan en un error 404. Aunque es muy complicado ser penalizado en términos de posicionamiento en buscadores, debido a los errores 404 o enlaces rotos, hay que tenerlos en cuenta por dos motivos, la usabilidad y el propio Google. Un error 404 se da cuando la información a la que queremos acceder en una página no se encuentra. Seguro que te has topado con más de uno, ¿verdad?

Este tipo de errores o los enlaces rotos perjudican, obviamente al usuario, porque no encuentra lo que iba buscando y también perjudica en cuanto a SEO por una sencilla razón:

Si las arañas de Google en sus labores de rastreo se topa con enlaces rotos estarás perdiendo la oportunidad de que descubran nuevas páginas y puedan indexarlas.

Existen herramientas para encontrar errores 404 o enlaces rotos. Hoy en día, la propia el SEMrush puede hacerlo, pero además puedes recurrir a herramientas gratuitas como Broken Link Check o Check My Links (extensión para Chrome).

También Search Console, desde Rastreo > Errores de rastreo, puede ayudarte a encontrar los 404 de tu web.

Luego existen herramientas mucho más potentes, enfocadas más a profesionales como Screaming Frog que te permite dar con todos los enlaces rotos de una web.

¿Qué hacer con los errores 404?

La opción más socorrida para solucionar un error 404 es crear una redirección 301, es decir, una regla que indica que la web que ya no contiene el contenido y que está dando error dirija automáticamente a otra de destino. Esto se suele hacer cuando dos páginas son prácticamente iguales o equivalentes. No es recomendable llevar al usuario a una página que no tiene nada que ver con esa que estaba buscando y que ha dado error o que el enlace estaba roto.

Además de personalizar la página de error 404, puedes hacer redireccionamientos (toma palabreja) a través del htaccess o mediante plugins, como Redirection o 404 Redirected. Hay muchos más pero estos son los que he probado.


16 Canibalización de keywords

 

 

  • ¿Qué es? Ya he mencionado más arriba este término, pero lo vuelvo a explicar. La canibalización de keywords se produce cuando 2 páginas o más de una web están intentando posicionar para una misma palabra clave. Esto puede producir que empeore el posicionamiento web de esas páginas, ya que los buscadores no saben cuál es la más relevante y la que debe posicionar.

  • Cómo comprobar si estás canibalizando: depende del tamaño y número de páginas que tenga tu web puedes hacerlo incluso de forma manual. Puedes ir de página en página viendo qué keywords estás intentando posicionar para cada una. Seguro que tienes una noción incluso antes de ponerte a analizarlas.

canibalización keywords

Otra opción es recurrir a herramientas como SEMrush o el propio Search Console. Así podrás ver las palabras clave que estás posicionando (ahora SEMrush da datos de las primeras 10 páginas de Google) y con qué páginas. En el caso de que veas 2 o más páginas trabajando para una misma keywords deberás poner soluciones.

  • Soluciones: todas las soluciones pasan por cosas que ya hemos visto en el post.
  1. Desindexar: si tienes páginas que pueden estar canibalizando y crees que no deben indexarse por ciertas razones (contenido pobre, duplicidad de contenido, etc) puedes desindexarlas y dejar indexada aquella página que sí que crees y quieres que posicione en Google.

  2. Redirección 301: es una posible solución ante la canibalización. Quizás se de el caso de que tienes dos páginas con contenido muy similar y que están intentando posicionar para una misma palabra clave. Una de esas páginas redirige mediante una 301 a la página que sí quieres posicionar. Además de esta forma, estarás pasando autoridad a la página sobre la que quieres priorizar.

  3. Canonical: y tal y como vimos antes, una buena solución es utilizar las URL canónicas, es decir, indicar en las páginas que están canibalizando que la URL principal es otra. (explico cómo hacerlo en el punto 11).

17 Mejorar el CTR en Google

Antes de nada, ¿sabes qué es el CTR? Es el Click Throught Rate y básicamente la tasa de clicks, y es una de las cosas más codiciadas en el mundo del SEO, además de unos buenos enlaces 😉

El CTR es el porcentaje de personas que hacen clic sobre un enlace comparado con las impresiones que éste ha recibido. Es decir, si un resultado de búsqueda en Google recibe 1000 impresiones y recibe 100 clics, el CTR de este resultado en Google es del 10%. En función de en qué posición esté ese resultado podrás conformarte con ese CTR.

Obviamente si estás primero o segundo, un 10% es muy bajo, pero si estás al final de la primera página de Google o incluso en la segunda puedes estar muy contento.

El CTR es un factor SEO muy importante, (hablaré más en profundidad sobre esto próximamente en un post). Para entendernos, el CTR le sirve a Google como control de calidad sobre los resultados que ofrece a los usuarios. Pensemos que Google, como cualquier empresa quiere que sus clientes (los que buscan en Google) esté muy contentos con el servicio y para ello debe ofrecerles resultados que respondan a sus necesidades (de búsqueda).

Aumentar o tener un buen CTR puede ayudarte a ganar posiciones en Google, está comprobado y por ello existen muchas formas de optimizar el CTR.

Imagina que tienes una página en la posición 15 (segunda página) para una keyword concreta y está estancado, no retrocede ni avanza. Trabajar el CTR de este resultado concreto puede hacer que Google eleve esa página unos cuantos puestos y si el CTR se mantiene al alza, es probable que en el futuro se estabilice en las primeras posiciones o al menos en la primera página.

 

¿Cómo podemos mejorar el CTR?

Esto da para un post entero y así será (prometido), pero al menos ahora voy a hablar por encima de algunas formas de mejorarlo:

-Title: el ‘title’ o título SEO es el título que aparece en los resultados de búsqueda y es otro factor SEO muy importante. Debes comprobar que no supera los 65 caracteres y que incluye las palabras clave que quieres posicionar o que estás trabajando para esa página de la cual quieres aumentar el CTR en Google.

Intenta que el título sea llamativo, no prometas nada que luego los usuarios no encuentren y si puedes, incluye las palabras clave al principio. Esto último no es definitivo pero piensa que las personas leen de izquierda a derecha y si encuentran en su campo de visión las keywords antes, llamarás más su atención.


-Meta-description: no es un factor SEO directo pero puede ayudar a mejorar el CTR si se trabaja bien. Incluye las palabras clave, describe muy bien lo que van a encontrar en esa página y aprovecha los caracteres que te ofrece.


-Fechas: existe un interesante debate en cuanto quitar o dejar las fechas que aparece en los resultados de Google. ¿Tú entrarías a un artículo de 2013 para informarte sobre algo? Quizás prefieres algo más actualizado, ¿verdad?

Puede que ese artículo de 2013 sea el mejor de todos los que existen pero por la fecha puede que su CTR sea más bajo de lo que merece.

Una opción para evitar esto es actualizar de forma periódica esos artículos que han quedado algo desfasados, otra es directamente eliminar la fecha de publicación de los post.

El resultado de esta acción puede ser dispar según el tipo de artículo, o al menos eso pienso yo. Muchos de nosotros nos guiamos por las fechas a la hora de elegir uno u otro resultado en Google y a veces, que aparezca la fecha es un punto a favor.

En el caso de que quieras eliminar la fecha de tus artículos, incluye este código en el archivo functions.php:

/* Quitar fecha de los posts */
function jl_remove_post_dates() {
add_filter('the_date', '__return_false');
add_filter('the_time', '__return_false');
add_filter('the_modified_date', '__return_false');
add_filter('get_the_date', '__return_false');
add_filter('get_the_time', '__return_false');
add_filter('get_the_modified_date', '__return_false');
} add_action('loop_start', 'jl_remove_post_dates');

-Rich Snippets: cuando he hablado de los resultados de Google me estaba refiriendo a los Snippets, el conjunto de información que se muestra de una página en los motores de búsqueda. Por lo tanto, ¿qué son los Rich Snippets? Son esos resultados de búsqueda enriquecidos con elementos que los hacen más visuales. Consiguiendo que esos resultados sean más visibles o llamen más la atención podrás aumentar el CTR.

Existen distintos tipos de Rich Snippets y seguro que has visto más de uno. El más común es el de las estrellas de valoración. También habrás visto el de recetas, apps o reviews. Puedes ver todos los tipos y aprender a configurarlos desde Schema.org. Si quieres saber más sobre datos estructurado y Schema, échale un ojo a este post de Tomás de Teresa.

Rich Snippet de recetas

 

Estrellas de valoración

Plugins para crear Rich Snippets

 

18 Nuevos contenidos para mejorar el posicionamiento en buscadores

Como bien explica Google, a la hora de organizar y posicionar los contenidos tiene en cuenta en torno a 200 factores SEO, y uno de ellos es el contenido fresco y actualizado.

Es fundamental si quieres mejorar tu posicionamiento web la creación de contenidos y páginas con contenido nuevo cada cierto tiempo. En función del tiempo/presupuesto que tengas para tu estrategia SEO, deberás decidir con qué periodicidad publicas contenido.

La mejor opción para crear contenido nuevo y de valor es un blog. Si todavía tu empresa no tiene un blog he de decirte algo: estás perdiendo una oportunidad de oro. No solo para el SEO si no por otras muchas ventajas que aporta tener un blog.

Además de publicar contenido, hay algo que puedes hacer y que funciona genial para el posicionamiento en buscadores de tus páginas: actualiza el contenido.

Ve en busca de aquellos artículos del blog o páginas de la web que crees que pueden actualizarse o recibir contenido nuevo, no tengas miedo a actualizar un mismo contenido tantas veces como quieras. Google sabrá que ese contenido se va actualizando y le gustará.

A la larga, un contenido que lleva años sin actualizarse tiende a caer en las SERP. Google entiende que ese contenido se está quedando desfasado y prioriza aquellos que son más nuevos. Además, hay que añadir el factor fecha (en el caso de que no la hayas quitado, como hemos visto más arriba). Los usuarios huyen de contenidos que fueron escritos hace mucho tiempo, ya que según qué temática, pueden perder bastante utilidad e interés.

Y por supuesto, crea un plan editorial en base a un estudio de palabras clave y publica con regularidad en el blog.

Muchas veces se cae en el error de decir “es que no tengo tiempo para escribir en el blog de la empresa”. Bien, es normal, pero el blog no es algo accesorio que pueda ser atendido en los tiempos libres, puede y debe ser un pilar fundamental en la estrategia SEO de tu web.

Si ya tienes un proyecto en marcha y quieres que mejore su posicionamiento, decide ya al menos 5 páginas que creas que deban ser actualizadas.Añade suficiente contenido, fotos nuevas, videos, enlaces internos y salientes y dile a Google que lo has actualizado.

 

Origen: 19 Formas de mejorar el Posicionamiento en Buscadores (SEO) ¡en un mes!

Reduce cientos de Mb de tu base de datos en menos de 1 minuto

Gestores de Contenidos

Ayer estuve echando un vistazo a la base de datos del blog en PHPMyAdmin, algo que recomiendo a todos hacer de vez en cuando, y me encontré, como siempre, un montón de tablas cargaditas de megas, normalmente de plugins que ya no uso, y otras de plugins que sí uso. Por supuesto borré todas las de los plugins que ya no uso, pero había algunas que eran de plugins activos y me llamaron la atención por su enorme tamaño. De hecho cada una de ellas ocupaba más de 30Mb, y todas empezaban por wf. Como igual ya has adivinado eran de WordFence, un buenísimo plugin de seguridad sí, pero que almacena muchísima información en la base de datos. Y me ha parecido importante compartir cómo hacerle limpieza ya que es uno de los plugins más populares, que muchos utilizamos. Por ejemplo, la tabla _wfFileMods, que es la que almacena las modificaciones en archivos, ocupaba ella solita más de 30Mb, no digamos si tienes activa la visualización de tráfico en tiempo real, en cuyo caso te puedes encontrar tablas

Origen: Reduce cientos de Mb de tu base de datos en menos de 1 minuto

Qué son los errores soft 404 y cómo solucionarlos en WordPress

Gestores de Contenidos

Si usas habitualmente la consola de búsqueda de Google, antiguas herramientas para webmasters (y sino deberías) habrás visto un tipo de errores extraños, los llamados errores “soft 404” o errores 404 leves, como los llama Google. No hace falta que hiperventiles, vamos a ver qué son y, sobre todo, cómo solucionarlos. ¿Qué son los errores soft 404? Básicamente son páginas que deberían tener el código de error “404 – No encontrado” pero que en realidad son páginas 200, de respuesta normal, que muestran contenido, pero no el que el usuario esperaba encontrar. Vamos, que porque una página se parezca a un error 404 no significa que lo sea. Y Google piensa que eso puede trastornar, molestar, hacer sentir mal o decepcionados a tus visitantes (pobrecitos) así que te avisa para que lo arregles. No me refiero a que no puedas personalizar tus páginas 404 añadiendo un buscador o lo que sea, pero la cabecera HTTP debe ser claramente de código de error 404, o incluso 410, no otro. Y es que a veces

Origen: Qué son los errores soft 404 y cómo solucionarlos en WordPress