¿Qué es Google BERT?

Viene de las siglas en inglés de Bidirectional Encoder Representations from Transformers (BERT). Google BERT es un sistema que está basado en IA (Inteligencia Artificial) que ayuda al algoritmo de la búsqueda de Google a entender mejor el lenguaje que utilizamos los usuarios interpretando el contenido de las palabras clave que usamos al interrogar al buscador.

¿Cómo funciona Google BERT?

Google BERT se basa en una características llamada bidireccionalidad, y su funcionamiento básicamente trata de analizar una oración en dos direcciones, analizando las palabras que se encuentran de izquierda a derecho como de derecha a izquierda. Así el algoritmo entiende el texto en su contexto y temática para mostrar los resultados más relevantes resolviendo de forma significativa la intención de búsqueda del usuario.

Actualmente, la limitación principal es que los modelos estándar son unidireccionales y esto limita la elección de las arquitecturas que se pueden usar durante el entrenamiento de un algoritmo. En cambio, Google BERT, alivia la restricción de unidireccionalidad mediante el uso de un objetivo de entrenamiento de “masked lan-guage model” (MLM).

La forma en que BERT crea modelos de lenguaje es usando encoders y decorders.

  • Encoder: procesa cada elemento en la secuencia de entrada y condensa la información que captura en el contexto.
  • Decoder: después de procesar toda la secuencia en el enconder, se envía al decoder que comienza a producir la secuencia de salida, elemento por elemento.

En lugar de enseñar al modelo a predecir la siguiente palabra en una oración, enmascara una proporción fija de tokens al azar en una secuencia y entrena al modelo para recuperar estas palabras enmascaradas.

¿Para que se utiliza Google BERT?

El objetivo de Google BERT es predecir las relaciones entres las oraciones analizandolas de manera integral. Así como tareas a nivel token, como el reconocimiento de entidades con nombre y la respuesta a preguntas, en las que se requieren modelos para producir resultados detallados.

Este modelo previamente capacitado puede ajustarse en muchas tareas de comprensión del idioma, como el reconocimiento de entidades con nombre, la respuesta a preguntas y la clasificación de textos.

¿Qué consecuencias tiene Google BERT para SEO?

Esta actualización del algoritmo, permitirá que los resultados que se encuentran en las serps de Google sean mucho más precisos respondiendo de forma minuciosa la intención de búsqueda del usuario.

Google nos muestra la relevancia de este cambio con un claro ejemplo:

Qué es Google BERT y cómo funciona

Para la búsqueda “2019 brazil traveler to usa need a visa” vemos un cambio radical. Antes de BERT, el motor de búsqueda mostraba un resultado del diario Washington Post, destinado a viajeros estadounidenses que querían realizar trámites para viajar a Brasil.

El algoritmo no era capaz de interpretar el connect “to”, que es un detalle con mucho impacto ya que cambia drásticamente la intención de búsqueda de la query.

Después de la inclusión de BERT en el algoritmo de Google y analizando el contexto de la búsqueda, se observa que el resultado es mucho más riguroso y google es capaz de interpretar perfectamente el valor de la query para devolver el resultado que el usuario está demandando.

Más allá de BERT

Por ahora, BERT sólo funciona sobre el 10% de las búsquedas en inglés y EEUU aunque actualmente ya se han publicado la lista de todos los idiomas en los que está operativo y entre ellos se incluye el español.

Optimizar tu sitio web para BERT no debería diferir mucho de tu proceso SEO habitual. BERT nos aportará tráfico de calidad mostrando nuestro resultado cada vez que el contenido resuelva la intención de búsqueda del usuario.

¿Te ha resultado útil esta información?