Google va actualitzant el seu algorisme de cerca de tant en tant incorporant les millors que creu més convenient i deixant obsoletes algunes funcionalitats sempre buscant la mateixa finalitat: Acostar-se al màxim al resultat òptim que està buscant l’usuari.
Els últims avanços del cercador de Google s’han centrat en dissimular la seva publicitat entre els resultats de cerca, però sense deixar de mostrar d’una o altra forma que és publicitat. Respondre a les nostres preguntes sense haver de sortir del propi cercador, com per exemple fer una operació matemàtica, veure el canvi de divises o veure unitats equivalents com passar de centímetres a polzades, entre altres. Finalment i segurament el més important, mostrar el contingut més rellevant per a l’usuari personalitzant els seus resultats segons els seus gustos i situació geogràfica.
La ubicació és molt rellevant perquè no és el mateix buscar el terme “Guadalajara” si el dispositiu des del qual fem la cerca està a Espanya o està a Mèxic. El més probable és que si estem a Espanya ens interessi informació sobre el Guadalajara espanyol i, per contra, si la cerca la fem des dels països llatinoamericans, estarem interessats al Guadalajara llatinoamericà.
En aquest últim punt és on se centra la nova eina de Google que es coneix per les sigles BERT (Bidirectional Encoder Representations from Transformers), una xarxa neuronal de codi obert que ha estat entrenada per Google per a processar molt millor el nostre llenguatge natural.
Aquest entrenament o aprenentatge es va retroalimentant conforme es va usant amb intel·ligència artificial i així va millorant gradualment la forma en què el cercador entén les consultes dels usuaris, amb el que es transforma en un dels avanços més importants de la companyia en tota la seva història.
Un exemple del potencial de BERT
Abans, qui buscava literalment “2019 viatjar del Brasil als Estats Units fa falta visat” es trobava com a primer resultat un article del mitjà de comunicacions Washington Post que mostrava com viatjar al Brasil des dels Estats Units perquè Google no era capaç d’entendre la preposició “a” en la frase i només podia mostrar els resultats amb els conceptes de paraules clau com 2019, viatjar, brasil i els Estats Units. Això en una coctelera donava com a resultat l’esmentat post.
Amb BERT actiu, el cercador és capaç d’oferir com a resultat un article de la web de l’ambaixada estatunidenca al Brasil relacionada amb els visats per als turistes brasilers, un avanç important, oi?
Un altre exemple amb adverbis seria una cerca com “aparcar en una pujada si no hi ha vorera”. En aquest cas, Google no reconeixia la importància de l’adverbi “no” i el resultat que oferia precisament era sobre com aparcar en una pujada AMB vorera.
Amb BERT i gràcies a l’aprenentatge i entrenament, l’algorisme és capaç de donar un resultat molt més útil per a l’usuari com un tutorial sobre com aparcar en una pujada sense vorera.
La fi de les paraules clau?
Això ens indica que no és que sigui la fi de les paraules clau tal com les coneixem, sinó que ara podrem formular preguntes molt més directes com si la hi féssim a una altra persona com “puc comprar un medicament per a una altra persona a una farmàcia?”. Abans, Google no entenia que feia referència a “per a una altra persona” i retornava una sèrie de resultats molt generals que no solucionaven el dubte de l’usuari. Amb BERT, el resultat que mostra és la pàgina del govern responent a la pregunta.
El concepte de BERT no és nou dins de l’ecosistema de Google perquè ja porta anys darrere d’aquesta funcionalitat, el que sí que és nou és la millora accelerada dels seus algorismes de comprensió de llenguatge gràcies a Google Assistant (el SIRI d’Android per a entendre’ns).
Actualment, els avanços de BERT únicament s’estan aplicant en les cerques en anglès dins del territori dels Estats Units però en un futur pròxim s’estendrà a la resta de països i idiomes, començant pel portuguès, hindi i coreà.