“PA – DA, algoritmo, linkbuilding, CTR, canibalización, indexación, SERP, TF – CF”.
En mi primer acercamiento con el mundo del posicionamiento en buscadores lo primero que note fue la gran cantidad de términos que tiene este mundillo del SEO.
Son tantos conceptos que aún no logro recordarlos todos. Pero si quieres aprender SEO, entonces tienes que entender sobre cada uno.
Muchos dicen que el vocabulario SEO es otro idioma por lo complicado de los conceptos. Es por eso que he desarrollado un diccionario con los términos más útiles y relevantes.
Tabla de Contenidos
A)
Algoritmos de Google
Google lleva casi dos décadas desarrollando algoritmos cada vez más especializados en la entrega de información precisa, en el momento correcto a las personas adecuadas.
Para esta ardua tarea de rastrear, (en algunos casos renderizar) clasificar, indexar y procesar la información de todas las páginas disponibles en Internet, el gigante de silicon valley utiliza una amplia gama de algoritmos (panda, penguin, rank brain, entre otros.)
Este ecosistema de algoritmos no es estático, suelen cambiar constantemente en pequeña o gran medida, con la finalidad de dar la mejor experiencia de usuario en las búsquedas.
¿Cómo saber cuando hay un update de los algoritmos de Google?
Debido a esto existen herramientas como Semrush Sensor, la cual monitorea constantemente las páginas de resultados de Google buscando fluctuaciones y reconociendo patrones en las clasificaciones según sus propias bases de datos. A continuación el Sensor funcionando en tiempo real:
Además de Sensor de Semrush, la propia gente de Google informa mediante la red social twitter cuando se realizan cambios importantes en sus sistemas de clasificación.
The new COVID-19 experience on @GoogleNews organizes the latest news at the global & local level, plus provides easy access to the latest guidance regarding prevention, symptoms from authoritative sources. Learn more: https://t.co/XATUeaPiSD pic.twitter.com/SF4M0OPdp6
— Google SearchLiaison (@searchliaison) April 7, 2020
Anchor Text
¿Alguna vez han visto una palabra “azul u otro color” en un artículo y cuando le dan clic los lleva a otra página interna o externa?
Bueno esa palabra es el anchor text anchor text o texto ancla, es el texto visible que acompaña a un enlace.
Dicho de manera más silvestre, son las palabras clickeables que nos llevan a una página relacionada con lo que estamos leyendo y que ofrecen contenido de valor a los usuarios y motores de búsqueda.
¿Por qué incluir anchor text en una estrategia SEO?
Uno de los puntos claves del posicionamiento es el perfil de enlaces entrantes o salientes de una página o URL.
Para esto la gran G creo a Google Penguin, un algoritmo especializado en auditar el perfil de enlaces de las páginas rastreadas, clasificadas e indexadas por los rastreadores como googlebot.
Google toma en consideración diversos factores de posicionamiento, entre ellos, la calidad de los enlaces y el texto ancla.
Un ejemplo de esto sería:
Una página que habla sobre reparación de celulares enlaza a tu página de venta de repuestos para celulares, pero en el texto del enlace colocan “Golosinas”, ¿Crees que es natural?.
Igualmente sucede en el caso opuesto, el texto de los enlaces debe estar relacionado semánticamente con la página de destino.
El anchor text o texto de anclaje da señales al buscador para comprender ¿Dónde se vincula y cual es el tema?
Si el anchor text es correcto, Google comprenderá de manera más fácil de que se trata ayudará a posicionar mucho mejor tu artículo o tu página.
Ahora bien, existen diferentes tipos de anchor text, estos son algunos:
- Anchor text de keyword exacta.
- Anchor text naturales.
- Anchor text sinónimos.
- Anchor text de marca.
- Anchor text long tail.
Cada uno con una función diferente y de los cuales hablaremos con mayor profundidad en otro blog.
Autoridad
Es una medida que según expertos como el co-fundador de MOZ Rand Fishkin, utilizan los buscadores para evaluar la popularidad de un sitio web según unas métricas específicas que son importantes para posicionarla.
Cabe destacar que el PA-DA son métricas creadas por MOZ y Google no las menciona en ninguna de sus patentes.
Dicho esto, en el SEO se consideran dos tipos de autoridades para el posicionamiento orgánico: Autoridad de Dominio (DA) y Autoridad de Página (PA).
Abajo te explicamos cada una.
Autoridad de Dominio (DA)
Podemos definir este indicador como la autoridad y credibilidad de un sitio web en general frente al resto de páginas web.
Se mide en un ranking clasificatorio del 1 a 100. Siendo 1 la clasificación más baja y 100 la más alta. MOZ determina este factor por el número de enlaces externos que apuntan hacia tu página o dominio raíz. Aunque existen otros factores que no develan.
Tener una autoridad de dominio alta te permite ganar mayor visibilidad en buscadores, posicionar tu página web mucho más rápido y colocarla en lo mejores lugares.
Autoridad de Página (PA)
Para hacerlo más preciso, es lo mismo que el DA pero aplicado a una página o URL en específico. En otros términos, es la autoridad interna de la página que estás visitando independientemente de su dominio.
Sigue la misma dinámica del 1 al 100. Y lo que posiblemente ayude a clasificar estas páginas son los enlaces al dominio principal, subdominios, los anchor text, páginas enlazadas, entre otros indicadores.
Ambas métricas fueron creadas por MOZ para predecir de forma más precisa la clasificación de una página web antes los ojos de un buscador.
¿Como Saber el Page Authority (PA) y Domain Authority (DA) de mi página?
Es muy fácil solo debes ir a la página de MOZ, registrarte y acceder a la herramienta “Link Explorer” colocar el dominio que quieres analizar y explorar los resultados; verás una pantalla así:
Además existe una extensión para Google Chrome llamada “MozBar” en la cual podemos ver el PD y el DA de las páginas sin acceder a la herramienta, solo debemos logearnos.
Atributo Alt (Texto Alternativo)
Google hace años realizó una inversión significativa en la creación del HTML5 como lenguaje de marcado estructurado para páginas web fáciles de procesar por sus sistemas.
El atributo “ALT” fue uno de esos avances, es un código HTML5 que proporciona información específica para describir una imagen a los algoritmos de rastreo y entender de qué se trata la página.
Los motores de búsqueda no pueden ver imágenes (por ahora), solo pueden leer texto plano en HTML. Es por eso que el atributo alt es importante, ya que les ayuda a entender de qué trata la imagen para poder entregarla a sus usuarios al momento de una búsqueda.
La mayoría de CMS del mercado como el todo poderoso WordPress tiene la opción de colocar el texto alternativo al momento de subir una imagen.
¿Cómo sé que mis imágenes tienen el atributo Alt?
Desde cualquier navegador puedes:
- Dar clic derecho en la imagen.
- Inspeccionar.
- Verificar que el atributo en el HTML tenga una descripción de la imagen.
B)
Backlinks
Son los enlaces entrantes a tu sitio web provenientes de otros sitios web que apuntan hacia URLs en específico.
Para los sistemas de clasificación en Google, un backlink es un voto de confianza que una web da a otra web.
Es la forma más antigua de transmitir autoridad o mejorar el ranking SEO, por eso son tan importantes ante los ojos de Google.
De hecho, en esta premisa prevalece el factor calidad por encima de cantidad. Mientras más relevantes sean los enlaces que apuntan a tu web, más posibilidades de ganar notoriedad tendrá tu página o blog.
En otra ocasión profundizaremos sobre los aspectos a tomar en cuenta para crear una estrategia efectiva de backlinks.
Black Hat SEO
También denominado el lado oscuro del SEO. Son las técnicas de posicionamiento en buscadores que va en contra de las normativas y directrices de posicionamiento de Google.
El “Blackhatero”, uno de los tantos nombres como se le conoce, utiliza un conjunto de técnicas «prohibidas» para beneficiar el posicionamiento de una página en específico.
Cabe mencionar que estas técnicas de villano no solo son para subir posiciones en las SERP, sino tambien para bajar las posiciones bien sea de la competencia o en casos de reputación online.
Los que siguen esta doctrina suelen acelerar los procesos de posicionamiento a través de técnicas como el spinning, cloaking, keyword stuffing, spam, entre otras.
Aunque da resultados a corto plazo, el factor de riesgo es alto, yo no lo recomendaría para proyectos sostenibles y de larga duración.
Actualmente, hay demasiadas estrategias de Black Hat SEO. Sin embargo, cada vez es más difícil pasar desapercibido por Google, quien siempre está merodeando para penalizar a quienes vayan en contra de su reinado.
¿Donde aprender Blackhat SEO?
Existe una comunidad de SEO en espeañol muy activa donde convergen diferentes tipos de profesionales en buscadores y monetización, enseñan técnicas y herramientas enfocadas en la automatización de procesos y blackhat.
C)
Canonical URL
La URL canonical, es una etiqueta utilizada en el código HTML para indicarle a los bot de búsqueda la versión original a la que tienen que darle toda la atención y que obvie la duplicidades que puedan existir.
¿Pero cómo se come eso? Bueno, supongamos que tenemos dos URL que dirigen al mismo contenido: https://andruzlegro.com/ y https://andruzlegro.com/, aunque para nosotros es lo mismo para Google no lo es.
Para los sistemas de Google las 2 URLS son entidades diferentes pero con contenido duplicado y esto confunde a los algoritmos, para resolver esto es necesario establecer desde un comienzo cuál versión de url vamos a usar en el proyecto:
- Http
- Https
- Con www
- Sin www
Una vez establecida la versión procedemos a colocarla en la etiqueta <link rel=»canonical» href=»https://andruzlegro.com/» /> mediante codigo o mediante las opciones del CMS que usemos.
Esto nos ayuda a que Google nos indexe solo la versión de nuestro dominio que le indiquemos y todas las versiones disponibles para ser rastreadas.
Crawling
Es uno de los procesos más importantes para la clasificación de sitios web en los buscadores, ya que el proceso de rastreo es la fase inicial donde los bots de búsqueda inspeccionan las páginas y su contenido para ser clasificados según la temática e indexado en los sistemas para ser entregado a los usuarios de Google.
Como dato curioso, a los crawlers se les conoce también como spiders, arañas o trepadores, pero en realidad son programas que viajan por Internet para identificar todos los sitios webs, analizarlos y otorgarles una posición en Google.
Canibalización de keywords
Se considera canibalización de keywords cuando varias URL compiten por una misma palabra clave para posicionarse.
Por ejemplo, digamos que tienes dos URL con un contenido parecido y compitiendo por la misma keyword. Segun se entiende, es que Google no podrá diferenciar cuál de los dos es el más relevante para mostrar primero en los resultados.
Supuestamente esto causará una evidente reducción en el posicionamiento de las páginas con la misma palabra clave compitiendo.
¿Cómo solucionar una canibalización de keywords?
Primero que todo debemos analizar la situación y llegar a la conclusión de que tan perjudicial es tener a dos urls compitiendo por la misma palabra clave.
Además debemos analizar cuál de las 2 urls está teniendo más tráfico para hacer una fusión y redirección 301 a la url con más fuerza.
Pueden existir casos donde no tienes necesidad de esto, tengo clientes que cuando buscan sus palabras claves y ven que su marca está en los dos primeros puestos opacando a la competencia, ¡les encanta!
Contenido duplicado
Google considera el contenido duplicado cuando dos o más URL diferentes tienen información similar. Pueden ser desde textos e imágenes hasta la propia URL.
Cabe aclarar que ya Google no penaliza contenido duplicado proveniente de un plagio entre páginas, a menos que esté protegido por derechos de autor y en ese caso es necesario pasar por un proceso de denuncia que puede tardar.
Pero debemos considerar y prestar mucha atención con el contenido duplicado de nuestra propia web que sí puede afectar negativamente el posicionamiento orgánico.
¿A qué me refiero con esto? Ya te lo explico. Regularmente, los sitios web desarrollados con CMS (como WordPress) y en código propio donde se suelen crear copias de una misma página que posteriormente se replican internamente.
Aunque también existen otros factores que podrían afectar, como diferentes URLs para una misma página, dos dominios iguales, subdominios, versiones similares para dispositivos móviles, etc.
Esto también puede contar como contenido duplicado y lo mejor es tratar de controlarlo para evitar bajar de posiciones.
Aquí puedes consultar las directrices de Google para contenido duplicado.
Cloaking
Es una de las técnicas de encubrimiento Black Hat SEO más conocidas. Consiste en mostrar contenidos a los usuarios diferentes a los que se les presentarán a los robots de Google.
Para los sistemas de Google esto es algo que no debería pasar en las páginas, el contenido que le presentas a los usuarios debe ser el mismo que rastreen los bot de búsqueda.
Por ello es muy importante no esconder partes de nuestra web con la vieja más confiable “Display=”none” en CSS.
La finalidad es simple: posicionarse más rápido y mejor con ciertas palabras clave. Esta práctica incumple las normativas de calidad para webmasters de Google.
CMS (Content Management System)
Un CMS es un sistema de gestión de contenidos para crear sitios web. Tiene el objetivo de hacer más sencillo el proceso de creación de páginas web a los usuarios que no tienen experiencia en programación.
Lo que ha hecho tan fuerte estos sistemas manejadores de contenido, es que cualquier persona sin necesidad de conocimientos en programación, puede crear un sitio web básico y funcional sin crear una línea de código.
Existe una gran variedad de CMS en Internet, pero el más popular y el que tiene la cuota de mercado más alta, es WordPress. Se calcula que 1 de cada 3 sitios web están realizados en este CMS.
Este éxito se debe a la facilidad de uso de WordPress y a su gran comunidad que se mantiene en constante creación de complementos y temas.
CTR (Click Through Rate)
Es una métrica utilizada tanto en SEO como en otros medios digitales. Es la relación entre el número de impresiones o veces que un usuario ve un enlace determinado en las SERP y el número de clics realizados en dichos enlaces.
Vamos a ver un ejemplo para que lo entiendas mejor. Por ejemplo, si tu página recibió 100 clics y tuvo 2000 impresiones, el CTR sería de 5%.
Por si no quedó claro, se realizó la siguiente operación: 100 clicks / 2000 impresiones x 100 = 5%. Esto indica que se realizan 100 clics cada 2000 impresiones.
¿Por qué es importante el CTR?
Porque con esta métrica puedes conocer la eficiencia de los textos en tus títulos y meta descripciones.
Con esta métrica Google puede interpretar si tu página está bien optimizada y es atractiva para los usuarios. Si el CTR es alto, hay mayores posibilidades que tu página se posicione en los primeros lugares.
¿Donde puedo ver el CTR de mi página?
Para ver la relación entre las veces que ven una url de tu sitio, entre las veces que le dan clic en las SERP, debes ir a la herramienta para webmaster que te proporciona el buscador de tu preferencia (Google Search Console, Bing Webmaster Tool, entre otros).
¿Cuál debería ser el CTR de mi página?
Se dice que un CTR decente está entre el 2% y 5%, pero hay excepciones donde este promedio es más alto de lo común. En la siguiente imagen pueden ver un cliente con el que trabaje más de un año:
Cookie
“Utilizamos cookies propias y de terceros para mejorar nuestros servicios y mostrarle publicidad relacionada con sus preferencias mediante el análisis de sus hábitos de navegación. Si continúa navegando, consideramos que acepta su uso”.
Cualquiera en Internet puede reconocer este molesto mensaje que sale en todas las páginas y que es obligatorio en muchos países con leyes de protección de datos.
Y aunque se hable mucho de ellas, muy pocos saben en realidad qué son.
Las cookies son fragmentos de datos creados por un sitio web que se almacenan en el navegador del usuario.
De esta manera, registra su actividad y luego la analiza para poder evaluar su comportamiento en el sitio: cuántas páginas ha visitado y lo que ha hecho en ellas.
D)
Densidad de keywords
Es la frecuencia que tiene una keyword frente al total de palabras que contiene un texto.
Se calcula igual que el CTR. Es decir, si en nuestro texto la keyword principal aparece 20 veces y el total de palabras del artículo es de 1000, la densidad de palabra clave sería del 2%.
Este indicador es esencial para los motores de búsqueda, debido a que pueden identificarla como keyword stuffing en caso de que haya una altísima densidad de la palabra clave.
Por eso, desde hace unos años, lo más recomendable es escribir de la manera más natural posible, sin forzar los textos y hacerlos comprensibles para los buscadores.
Google quiere que la experiencia de usuario sea la mejor. Eso incluye también la semántica de tu sitio web o tu blog.
Si una palabra tiene demasiada frecuencia o no está bien contextualizada, lo que hará Google Panda es penalizar tu página bajandola de posición.
E)
Etiqueta Robots
Es una etiqueta HTML5 que sirve para indicar a los bots de búsqueda que páginas pueden indexar y cuales no.
De esta forma podemos controlar qué páginas queremos que sean rastreadas, clasificadas e indexadas por los bots de búsqueda.
¿Cuál es la función del meta tag robots?
Sucede que los crawlers indexan todo lo que se deje rastrear como páginas de contenido sin valor como la página de carrito de compras, página de políticas de privacidad, checkout entre otras páginas con contenido pobre.
Gracias a esta etiqueta podemos controlar la indexación y que solo sean rastreadas las página de contenido valioso para los usuarios de Google.
Error 404
Este error es parte de la familia de los “Client Error” o errores del lado del cliente (error 4XX), es un estatus http que indica que la página solicitado no ha sido encontrada y normalmente nos muestra un aviso como:
“¡Ups! La página no ha sido encontrada”.
Google considera este error una falta grave, porque afecta la experiencia de sus usuarios, cuando dan clic a un enlace en las SERP y estos llegan a una página donde no encuentran la información que estaban buscando.
Por eso siempre debemos tratar de tenerlos controlados en nuestra web y evitar que sucedan.
Las herramientas SEO más eficaces para detectar este tipo de problemas son:
Etiquetas H (headings)
Son etiquetas HTML5 que nos ayudan a jerarquizar la información dentro de nuestra página.
En el ámbito SEO, se cree que el uso de estos tags le permite a los bots de búsqueda comprender la estructura del contenido, sin embargo, John Müller, Webmaster trend analyst de Google, en una de las sesiones de preguntas y respuestas comento “No sirve de nada para posicionar mejor poner la palabra clave en los H1, ni tampoco los H2 son más importantes que los H3”.
Según John Mu, los sistemas de Google ya han avanzado lo suficiente para comprender la estructura de un texto y saber las partes más importantes del mismo, comentó en el Hangouts de webmaster central del 27 de diciembre del 2019.
Sin embargo estas etiquetas de cabecera sirven para las usuarios, ya que pueden localizar la información relevante de manera rápida, no es lo mismo un bloque de texto de 4000 palabras sin títulos que un texto distribuido por títulos y subtítulos.
Las etiquetas son: H1, H2, H3, H4, H5 y H6.
Van en orden jerárquico, siendo H1 el más importante y H6 el de menor relevancia.
G)
Google Panda
Es un algoritmo especializado en el análisis de los contenidos de las páginas web, funciona como un “clasificador de contenidos” y trabaja con los demás algoritmos del ecosistema para considerar un contenido de alta calidad.
Es sumamente importante al momento de detectar dominios basura o con contenido duplicado y mejorar la experiencia de los usuarios en los resultados de búsqueda.
Google Penguin
Este algoritmo nace con la necesidad de controlar el posicionamiento basado en el PageRank, el cual media la calidad de una página web mediante los enlaces entrantes.
Antes de Penguin, muchos SEO se aprovecharon de la falta de capacidad de los sistemas de Google para reconocer los enlaces naturales de los artificiales.
Penguin es el algoritmo de Google que llegó para luchar contra el spam web. Analiza todas las páginas, detecta enlaces sospechosos e impide que se posicionen en la SERP.
Su función es sencilla: evitar que se generen enlaces “basura” que manipulen los resultados de búsqueda.
También ayuda a posicionar aquellos enlaces de dominio naturales y de alta calidad. Por eso siempre debes centrar tus esfuerzos en mejorar el contenido de tu página. Siempre.
Google Pigeon
Imagina tener un restaurante y que no aparezca en Google. ¿Estarías perdiendo muchos clientes, verdad? Pues Pigeon (o paloma) es la actualización del algoritmo de Google que permite ubicar negocios locales en los buscadores.
Su función es mostrar los resultados de búsqueda más adecuados según la ubicación del usuario.
Es decir, si te encuentras en Lima y estás buscando “las mejores cevicherías de Lima”, Pigeon te mostrará los negocios locales que estén más cerca de tu ubicación actual.
Para lograr que Google te rastree, es evidente que debes tener una cuenta en Google My Business primero, así como trabajar con contenido de calidad para tu página.
Google RankBrain
Considerado como el tercer factor de posicionamiento más importante. Rankbrain es el sofisticado algoritmo de Google que implementa inteligencia artificial para mostrar los resultados más relevantes según las consultas del usuario.
RankBrain, que trabaja bajo el concepto de machine learning, transforma las palabras en números para que las máquinas puedan reconocer los datos de mejor manera.
Así, puede arrojar resultados más específicos en torno a sinónimos de palabras clave o términos relacionados a una búsqueda.
Dicho de otra forma, el algoritmo busca “patrones” similares entre los términos de búsqueda para mostrar resultados muchos más exactos que concuerden con la consulta del usuario.
I)
Indexación
Llegamos a una de las palabras más nombradas en los textos SEO: la indexación.
Es un proceso que se da luego de que la web ha sido rastreada, donde los sistemas de Google se encargan de procesar la información rastreada para luego ser clasificada e indexada en las bases de datos de los buscadores para ser entregadas cuando un usuario realice una búsqueda.
A diferencia del posicionamiento, indexar solo significa “aparecer en los buscadores”. Mientras que posicionarse hace referencia al acto de estar en los primeros lugares.
Keyword
Keyword o Palabra clave en español, es uno de los términos SEO más usados en cualquier texto sobre posicionamiento en buscadores.
Podemos definirla como la palabra o conjunto de palabras (query) que usan los usuarios de los motores de búsqueda para encontrarnos.
Su función no es otra que darle todo el poder semántico a nuestra página para que sea reconocida por los usuarios y los buscadores.
Keyword Research
El estudio de palabras clave es la acción de localizar los términos más eficientes y rentables para nuestro sitio web, suena fácil, pero no lo es.
Para determinar si una palabra clave es rentable debemos fijarnos en el volumen de búsquedas mensual, pero debemos tener cuidado, porque si elegimos un término con un alto volumen de búsquedas, esto significa que competir por esa palabra va aser dificil.
Para encontrar esta lista de palabras clave existen diferentes herramientas SEO como el famoso Keyword Planner de Google, que nos permite encontrar las palabras claves más relevantes para nuestra página y también para pujar en Google Ads.
Existen muchas herramientas en el mercado para hacer keyword research, ya depende de tu presupuesto y ubicación geográfica encontrar la que mejor se adapte a tus necesidades. Estas son solo algunas:
- Keyword planner
- Ubersuggest
- Semrush
- Ahrefs
- Answer the public
- Also asked
- Keyword Tool
- Keyword surfer
Keyword Stuffing
El Keyword Stuffing es una técnica Black Hat SEO para manipular los resultados de búsqueda.
¿Cómo funciona? Bueno, consiste en sobre-optimizar una página o un artículo repitiendo excesivamente una misma palabra clave con la intención de manipular el ranking de resultados.
Por ejemplo, si mi página trata sobre “bicicletas” y esa es mi palabra clave, con el keyword stuffing puedo repetir en muchas oportunidades la keyword “bicicletas” para tratar de posicionarla en un menor tiempo.
Google conoce muy bien esta práctica y en ocasiones suele detectarla muy rápido y penalizar a las páginas que la estén implementando.
Lo más recomendable es escribir el contenido de tu sitio tomando en cuenta la densidad de la palabra clave. También redactar de la forma más natural posible, sin tratar de saturar el contenido con la keyword que seleccionaste.
L)
Link Baiting
El Link Baiting es una técnica que se utiliza para conseguir enlaces de forma orgánica o natural a través de contenidos de calidad.
¿Cómo se logra? Repito, con contenido viral y de valor para tu público, como artículos, videos, infografías, etc. De esta manera puedes lograr que una gran cantidad de usuarios enlacen un contenido a tu sitio.
Link Building
El Link Building es una técnica SEO Off-Page que consiste en la generación o adquisición de enlaces (backlinks) para aumentar la autoridad de nuestro sitio web.
Esto no quiere decir que mientras más enlaces consigamos tendremos mayores posibilidades de incrementar la autoridad y subir de posiciones en Google.
Como mencioné anteriormente, Google penguin se encarga de analizar estos enlaces y verificar si son de calidad y cumplen las directrices de Google.
Aquí la calidad prevalece por encima de la cantidad.
Se que existe el mito “Sin enlaces no hay posicionamiento”, sin embargo, esta premisa no es del todo cierta , ya que depende de la keyword y la competencia si es necesario tener enlaces para rankear.
Link Juice
El link juice es la capacidad que tiene un sitio web de transmitir autoridad a diferentes URLs a través de enlaces.
Por ejemplo, pongamos en contexto lo siguiente: Un Diario importante enlaza tu página en uno de sus artículos.
Y luego, tu amigo Carlos, que empezó un blog parecido al tuyo hace un mes, también te enlaza.
Si comparamos, la relevancia del blog de tu amigo Carlos no se equipara con la autoridad que tiene diario. Obviamente, conseguir un enlace en la web más importante del país es mucho más eficiente para el posicionamiento que lastimosamente la del blog de Carlos.
Esa es la gran diferencia: la relevancia de la página que te enlaza. De esos se trata el Link Juice.
En el SEO onpage, también se trata de la transmisión de autoridad pero de forma interna, donde el Home como la página más importante del sitio, le da link juice a las demás páginas internas, perdiendo fuerza con cada nivel de profundidad, para entenderlo mejor:
Long tail
keyword de cola larga, es una palabra clave o frase que se compone por otras palabras generales para formar un término o consulta de búsqueda más largo, concreto y mucho más fácil de posicionar.
Supongamos que tomamos “casas” como nuestra palabra clave principal. En principio, sabemos que no se trata de una long tail y que tal vez sea una palabra muy genérica y competida en buscadores.
Pero, si le agregamos otros valores adicionales podríamos enriquecer su sintaxis y apuntar hacia un término menos buscado y más fácil de posicionar, como por ejemplo: “Casas de último modelo en Lima 2020”.
De esta manera, generamos la oportunidad de subir de posiciones a través de una palabra clave menos competida, pero relevante para nuestro nicho.
Esto es importante si apenas estamos empezando, así que lo mejor es realizar una estrategia de keyword research completa que incluya palabras clave de cola larga.
M)
Meta Tags
Meta Tags o etiquetas meta son fragmentos de código HTML5 que cumplen la función de proporcionar información a los bot de búsqueda.
Normalmente son implementadas en las cabeceras (<head>) de las páginas web y sirven para diversos fines como:
- Codificación de caracteres = <meta charset=»utf-8″/>
- Título de la página= <title>Diccionario SEO</title>
- Meta descripciones= <meta name=»description» content=»contenido»/>
- Control de indexación= <meta name=»robots» content=»index»/>
- Seguimiento de enlaces= <meta name=»robots» content=»follow»/>
- Entre otras funciones.
Meta Description
Como vimos anteriormente la meta descripción es un pequeño fragmento de código HTML5 donde colocamos el texto que se utiliza para describir el contenido de una página en los buscadores.
Siempre se muestra debajo del título de la página como un snippet de los resultados de búsqueda, aunque realmente no tiene incidencia en el posicionamiento.
Sin embargo, es sumamente importante para mejorar la experiencia de usuario, ya que incentiva a que tus resultados reciban una mayor cantidad de clics.
De este modo, una meta descripción optimizada puede garantizar la visita de un usuario a tu web.
P)
PageRank
Es el primer algoritmos con el que Google salió al mercado, se basaba en un sistema de puntuación matemático con la que Google califica y evalúa la importancia de una página web en los buscadores. Esta clasificación suele tener influencia en el posicionamiento.
Los buscadores miden la relevancia de una página en la escala del 0 al 10, aunque ya no muestran públicamente el ranking, como solían hacer anteriormente.
¿Cómo la evalúan? A través de la calidad y cantidad de los enlaces entrantes a un sitio web.
A ciencia cierta no se sabe si este algoritmo se mantiene en producción actualmente, pero es recordado por muchos. Su primera formula es esta:
Q)
Query
“¿Cómo ganar dinero haciendo SEO?”.
Eso es una Query. Son las consultas o búsquedas que realizan los usuarios en una base de datos determinada, como en este caso, la de un buscador.
S)
SEM
Es el acrónimo de Search Engine Marketing (SEM) o en otros términos, marketing en motores de búsqueda. Es decir, toda acción de marketing que se genere dentro de las SERPs.
Son estrategias de publicidad pagada (comúnmente) que realizamos en los buscadores para dar mayor visibilidad a nuestra página a través de campañas de anuncios.
Algunos medios de publicidad que podemos encontrar son: Google Ads, Bing Ads o Yahoo! Search Marketing, cada uno para su respectivo buscador.
SEO
El Search Engine Optimization (SEO), es una disciplina del marketing digital que tiene como función incrementar la visibilidad de una página web en los diferentes motores de búsqueda.
El SEO es una mezcla de distintas habilidades como desarrollo web, marketing, redacción, analítica y hasta matemática, que se compenetran para generar procesos que permitan posicionar una página mucho más fácil.
En la actualidad, el SEO es una de las disciplinas más importantes del marketing digital y una de las más demandadas.
SEO Off-Page
Podemos denominar el SEO Off-Page como la acción que se centra en los factores externos de nuestra página web, pero que tienen incidencia directa en su posicionamiento.
Estos factores pueden ser:
- CTR.
- Calidad y cantidad de enlaces (link building).
- Menciones en redes sociales, etc.
SEO ON-Page
El SEO On-Page sería la acción opuesta a SEO Off-page. Es decir, cuando trabajamos en factores internos que involucran a nuestra página y que influyen en el posicionamiento.
- Estos factores son:
- Arquitectura web.
- Enlaces internos.
- Optimización del contenido.
- Optimización de los meta tags y el atributo ALT en las imágenes.
SEO Negativo
Forma parte de las acciones de un Black Hat SEO. En este caso, el SEO negativo es una práctica anti-ética que busca atacar una página para bajarla de posiciones en los motores de búsqueda.
Regularmente el SEO negativo va dirigido hacia la web de la competencia para que Google la desindexe o penalice bajando sus resultados.
Algunas acciones de SEO negativo son:
- Spam.
- Backlinks de baja calidad.
- Contenido duplicado.
- Comentarios ofensivos que puedan perjudicar la marca.
Snippet
Un snippet es un fragmento que Google genera para mostrar un resumen de la información de nuestra página o de un contenido en específico.
Estos snippets se generan de forma automática por los motores de búsqueda para mostrar un breve resumen del contenido de la URL cuando reciben la consulta de usuario.
Regularmente se muestra el título de la página, una pequeña descripción y la URL destino.
SERP
La SERP es el acrónimo de Search Engine Result Pages. En pocas palabras, es la página de resultados de un buscador como por ejemplo Google, Bing o el viejo Yahoo.
Es donde se muestran todos los resultados de búsqueda ordenados por posición. Es decir, que cuando más se optimice una web, más posibilidades de subir de posiciones en las SERPs se tiene.
W)
Web Scraping
Es una técnica de desarrollo web que se utiliza para extraer grandes cantidades de datos de diferentes páginas web, tiene múltiples usos como realizar comparativas de precios, recopilar Email, descubrir tendencias y obtener datos de diversas fuentes para una investigación.
White Hat SEO
O “la fuerza” del SEO. Son todas aquellas prácticas que buscan seguir las directrices de calidad de los motores de búsqueda para posicionar un sitio web.
Su objetivo es posicionar una página en los primeros resultados a través de las siguientes acciones:
- Optimización On-Page.
- Contenido relevante y de valor.
- Estrategia de palabras clave.
- Enlaces naturales de calidad.
- Diseño adaptado para una mejor experiencia de usuario.
Al momento de implementar una estrategia de “White Hat SEO”, nos aseguramos de conseguir resultados sostenibles, seguros y escalables, que nos permitan seguir creciendo en los motores de búsqueda.
Una clara diferencia de lo que podría suceder si solo implementamos acciones de Black Hat SEO.
Conclusión
Estos no son todos los términos SEO que existen (creo yo), pero si he logrado recopilar la mayoría que conozco, la finalidad de todo este artículo extenso es tener algo más que un diccionario, es crear una fuente de recursos para los que están interesados en mi mundo :).