Algoritmos y sensacionalismos
By Enrique Dans
Es un tema que lleva coleando desde que Larry Page y Sergey Brin tuvieron la idea de, adaptando originalmente el sistema de cuantificación de citas del mundo académico o citation index, desarrollar un motor de búsqueda basado en la relevancia social, en lo que otros decían sobre nuestra página medido en función de sus enlaces hacia ella.
Con su algoritmo, Google solucionó el principal problema que los motores de búsqueda tenían anteriormente, el de tener algoritmos basados en el contenido que resultaban fácilmente manipulables por los propietarios de las páginas, pero falló en un tema fundamental: en la diferenciación entre páginas que obtenían muchos enlaces porque eran objetivamente buenas, y aquellas que los recibían porque eran fundamentalmente sensacionalistas.
El sensacionalismo es, sin duda, un mal de nuestro tiempo. Obtener atención mediante el recurso al escándalo, a llamar la atención a cualquier precio, a condicionar cualquier valor otorgado a la verdad o a la objetividad a la obtención de más atención es algo que lleva mucho tiempo haciéndose, y con resultados indudablemente positivos para quien lo practica. Las sociedades humanas muestran, en muchos casos, tanta o más avidez por el escándalo o por el cotilleo como lo pueden mostrar por la veracidad o la objetividad. En la web, hemos vivido exactamente lo mismo: desde un algoritmo que originalmente primaba aquellos sitios que eran más enlazados con una palabra o palabras determinadas, algoritmo que va siendo progresivamente revisado para incluir a las redes sociales como indicadoras, sobre todo, de la relevancia instantánea o inmediata (que tardaba tradicionalmente más tiempo en reflejarse en forma de enlaces), hasta ver la prostitución del mismo por parte de todo tipo de click-baiters y de “pornógrafos de la atención” que millones de usuarios circulan en función de lo escandaloso o intrigante de su título, o simplemente de paginas que divulgan mentiras grandilocuentes y conspiranoicas, pero que igualmente obtienen enlaces, aunque sean negativos y con objeto de denunciarlas. En la web, y con la algoritmia tradicional, la adaptación de aquella frase de Oscar Wilde tenía muchísima razón: lo importante era que hablasen de uno, aunque fuese mal (la frase original decía “hay solamente una cosa en el mundo peor que el que hablen de ti, y es que no hablen de ti”)
Ahora, Google parece lanzarse a un interesante intento de cambio en su algoritmo que pretende buscar criterios diferentes. Durante más de dieciséis años, nadie ha sido capaz de enfrentarse a Google con un principio que no fuese otro más que el tratar de perfeccionar sus propias reglas, sobre todo la que decía que la mejor manera de medir la relevancia de algo era la vía social, la de analizar qué decían otros sobre ello. Ahora, la tecnología empieza a permitir un nivel de cualificación superior: podemos aplicar análisis semántico a los textos de los enlaces o al contexto que los rodea para diferenciar “enlaces positivos” de “negativos” o “neutros”, y podemos medir otras cuestiones como el clickthrough, o el rebote, para evaluar si la reacción de quien aterriza en un contenido es la de consumirlo o la de salir corriendo (o simplemente, no hacer clic aunque te lo pongan delante de la nariz, porque entiendes que no es más que clickbait, carnaza diseñada para obtener el clic a toda costa).
Estamos hablando de un cambio que puede afectar al desarrollo de toda la web en su conjunto, y que nos lleva a pensar en las posibles implicaciones de que sea una empresa, en este caso Google, la que tenga la clave de “las cosas que son verdad y las que no”. Si Google obtuvo lo que obtuvo con un simple algoritmo cuando no era más que una startup creada por dos universitarios, el posible impacto de un cambio tan dramático en su algoritmo – afectaría a la introducción de nuevas métricas entre los primeros criterios, los de más peso en la indexación – podría tener un alcance potencialmente enorme. Ya no se trataría de obtener enlaces, retweets y compartidos a toda costa, sino de primar la calidad, el enlace con contexto, la métrica que privilegia un consumo de calidad. Según los expertos, con la limitada validez que puede tener la observación de quienes tratan de hacer ingeniería inversa del algoritmo de Google en función de metodologías de diversos tipos, el algoritmo ya ha empezado a cambiar, y hemos pasado de la versión de 2013, que privilegiaba intensamente la compartición en redes sociales, a uno en 2014 que introduce en la cúspide métricas como el clickthrough rate.
Pero todo esto, lógicamente, no es sencillo, y por el momento no hablamos de trabajo conseguido, sino simplemente del ideal buscado. Lo que sí conviene ir pensando es de qué manera afectará a nuestra compañía un cambio así, y qué posibles efecto notaremos una vez que empiece a aplicarse. Pero intereses propios o ajenos aparte… el tema es para dedicarle, cuando menos, una pensadita.
Puedes leer el artículo completo en: : Algoritmos y sensacionalismos
