fbpx
Cambiar tendencias de innovación 2020
Innovación para cambiar las tendencias en 2020
21/01/2020
Encuestas de satisfacción
Diseñar encuestas de satisfacción. Ejemplos y consejos.
25/02/2020

Google BERT: Cómo afecta al posicionamiento SEO de una web

BERT algoritmo google seo
Google Bert SEO

Google BERT, la última actualización del algoritmo de Google está dando mucho que hablar. A pesar de que aún no ha sido implementada en España, es bueno que vayamos “calentando motores”: ¿Qué es Google BERT? ¿Cómo funciona? ¿Cómo afectará al posicionamiento SEO de una web?

El pasado octubre de 2019 Google anunció, según sus propias palabras “la mayor actualización de su algoritmo producida en los últimos años”. Así fue como oímos hablar por primera vez de BERT.

La actualización del algoritmo se hizo primero en Estados Unidos, pero como ha anunciado Pandu Nayak, Vicepresidente de Google Search, llegará a otros idiomas a lo largo del 2020, español incluido.

Conocerlo más a fondo es cosa de SEO avanzado

¿Qué es BERT?

BERT responde a la siglas “Bidirectional Encoder Representations from Transformers”. Esta actualización del algoritmo de Google basada en Inteligencia Artificial, es similar, aunque por supuesto más innovadora, a “RankBrain”, el primer algoritmo de Google lanzado en el 2015 que basó su aprendizaje en la Inteligencia Artificial.

BERT no es cómo tal un factor de clasificación de contenidos hacia los resultados que arroja Google Search (las SERPs), es decir, no influye como tal en las páginas que Google indexa, sino en la comprensión lingüística de las consultas realizadas por el usuario.

Y es que este es uno de sus puntos fuertes, BERT está basado en NPL (natural language processing en inglés) o procesamiento del lenguaje natural.

¿Y eso qué quiere decir? Sigamos leyendo.

BERT: Contexto y bidireccionalidad

La novedad de BERT reside en entender mejor el lenguaje natural de los usuarios en función del contexto. Para ello, BERT funciona de forma bidireccional a nivel semántico:

Analiza una oración en dos direcciones, es decir las palabras a la derecha y a la izquierda de nuestra palabra clave, y este proceso lo lleva a cabo gracias a una propiedad que se llama Transformadores (“Transformers”), de ahí que aparezca en sus siglas.

De esta manera se entiende mejor el contexto, se reduce el problema de polisemia y se trabaja en la intención de búsqueda del usuario. Lo que se hace es establecer un tipo de búsqueda más semántica y como novedad, poner atención en las preposiciones, antes desechadas en los resultados de búsqueda.

Pondremos un par de ejemplos en los que se entienda claramente a lo que nos referimos:

Ejemplo 1: Polisemia

BERT polisemia

De acuerdo con esta imagen, Google antes interpretaba las búsquedas de los usuarios de izquierda a derecha, por lo que no se tenía en cuenta realmente el contexto lingüístico y los resultados podían estar muy lejos de las necesidades de los usuarios.

Con BERT, se acaba esa lectura unidireccional a nivel lingüístico, pasando a ser bidireccional, es decir, es importante el contexto tanto a la izquierda como a la derecha de la palabra clave “bank”.

Como observamos, en la imagen, la palabra “bank” puede tener dos significados diferentes. Antes de BERT, la frase número 2, “necesito ir al banco a hacer un depósito”, podría haber arrojado resultados de búsqueda erróneos al no considerar el contexto total de la frase (es decir, lo que hay también a la izquierda de la palabra clave). Con BERT, se reduce el problema de la polisemia.

Ejemplo 2: Preposiciones

Imaginemos que un usuario introduce la keyword “Vuelo Sevilla a Madrid”.

Antes de BERT, dado que las preposiciones carecían de importancia, las SERPs de Google  podrían haber arrojado resultados de vuelos tanto de Sevilla a Madrid como de Madrid a Sevilla.

Con BERT desaparece el problema al considerar tanto la dirección de la búsqueda “Sevilla-Madrid” como las preposiciones “a”. De este modo la búsqueda muestra un resultado más preciso respecto a la intención del usuario.

En este sentido, Pandu Nayak, afirma lo siguiente sobre el algoritmo:

«Todavía queda mucho trabajo por delante. Por ejemplo, la palabra ‘bajo’ significa muchas cosas (puede ser un adjetivo o un instrumento musical). Hay muchos significados para una sola palabra. Por eso es vital que se entienda el contexto para poder entender el significado preciso del término».

Intención de búsqueda Vs. Palabras clave

Con BERT las palabras clave pierden relevancia.  Lo que Google Search tiene en cuenta a la hora de arrojar resultados es la intención de búsqueda del usuario. Dicho de otro modo, la palabra clave es importante, sí,  pero tiene una relación directa con el contexto lingüístico en el que se encuentra.

Este nuevo proceso de Google Search seguramente irá perfeccionando poco a poco la generación de algunos factores interesantes ya introducidos como los fragmentos destacados y del fenómeno zero click en las SERP.

¿Qué es eso de “Fragmentos destacados” y “zero click”?

Muy brevemente, los fragmentos destacados son los resultados de búsqueda especiales que se muestran en cuadros en el mismo Google Search. Zero click significa como su nombre indica que para responder a la búsqueda de un usuario no es necesario entrar a ninguna página, sino que se puede consultar directamente en los SERP de Google.

Aquí un ejemplo gráfico para que se vea más claro:

BERT-fragmentos destacados

En palabras del propio Pandu Nayak:

“Para los fragmentos destacados, estamos utilizando un modelo BERT para mejorarlos en las dos docenas de países en los que esta función está disponible, y observamos mejoras significativas en idiomas como el coreano, el hindi y el portugués.”

Y esto… ¿En qué afecta a la redacción de contenidos para SEO?

Muy sencillo. Durante años, los técnicos de SEO y los redactores de contenidos se han obsesionado en basar su trabajo en una planificación de palabras claves y en la redacción de cada contenido en base a la palabra clave escogida. Este fenómeno a veces desnaturalizaba los contenidos ofrecidos a los usuarios, dado que la intención era repetir de forma estricta una determinada palabra clave, si variaciones.

Con BERT, lo importante en sí no es la palabra clave en sí, sino su contexto. Gracias a esta novedad, un buen contenido SEO cambia su formato narrativo pasando a ser un texto más conversacional con un enfoque mucho más basado en el usuario.

Dicho de otra manera, lo que se prioriza es que el contenido responda de forma natural a las consultas de los usuarios.

Optimización para humanos, no para buscadores.

Vale, todo esto está muy bien, pero…. cuando BERT se implemente en España ¿cómo afectará al posicionamiento SEO de una web?

Lo cierto es que no hay motivos para que cunda el pánico.

En palabras de nuestro experto en SEO Jose B. Moreno:

“Sinceramente, creo que esta mejora está más en el lado del servidor que del SEO. En mi caso, continuaré optimizando igual (ya hace tiempo que no trabajo cadenas de keywords sino intenciones de búsqueda)”.

Bien, parece que el objetivo sigue siendo el mismo: responder a las preguntas de los usuarios de forma precisa y rápida. No olvidemos que detrás de toda máquina hay un humano, de modo que… posicionemos para ellos.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *