Por Mariano Blejman - Página 12 - 29/06/2011
Como trascendió el lunes, si uno busca “Chau River” en Google Argentina, el buscador devuelve unos 20.700 resultados, pero sugiere algo que parece una broma: “Quizá quiso decir: Chau Riber”, así con “b”, como una broma de simpatizantes de otros equipos por mandar al equipo al Nacional B. Pero no es un chiste, es apenas un algoritmo y sirve para entender cómo construye Google la “verdad” en Internet. El resultado de la búsqueda de “Chau Riber” devuelve unos 40.900 resultados, un número notablemente superior al de la búsqueda “Chau River”. Ese es el primer motivo por el cual Google supone que “Chau Riber” es una construcción más confiable que “Chau River”. La mayoría de la gente que buscó y escribió “Chau Riber” en la web lo hizo con B larga. Es obvio: los fans de River no van a burlarse a sí mismos. Menos gente escribirá “Chau River” correctamente, puesto que en la frase está implícita la gastada. Los resultados de la búsqueda “River Plate”, por ejemplo, no ofrecen chiste alguno.
Los algoritmos de Google permiten tomar decisiones en el corazón del motor de búsqueda para organizar la información de la mejor manera para los usuarios, sobre las bases de experiencias previas y otras características, que detallaremos más adelante. “Google usa un software de corrección ortográfica que comprueba si los términos de la consulta están escritos con la grafía más común”, explicaron ayer del departamento de prensa de Google Argentina. Como es de suponer en una estructura planetaria que organiza información en tiempo real, la manera de construir verdad –o posible verdad– que tiene Google funciona de forma automática. Es la forma que tiene Google de sugerir el buen camino de cosas que los usuarios generalmente equivocan: errores de tipeo, errores de nombres, las cosas más comunes.
Pero no es sólo una cuestión de cantidad de respuestas y de búsquedas sobre “Chau Riber” lo que hace aparecer la sugerencia como si “Chau River” fuera un error. También entra en juego el tráfico de las páginas donde se alojan los comentarios con ese tipeo: Facebook, Taringa! y Twitter fueron los principales medios por donde circuló la frase que se hizo rápidamente “tema del momento”. Son páginas muy populares. Además, Google aprende de búsquedas ya realizadas por usuarios anteriores: es decir, si la mayoría de las personas que buscaron “Chau River” hicieron click en una página que decía “Chau Riber”, Google supone que el resto de los usuarios intentará buscar en la misma dirección.
Google aprendió en estos años a mejorar la velocidad de respuesta, a trabajar con información en tiempo real, y construyó algoritmos para comprender probabilísticamente cuál será la próxima acción de los usuarios antes de que ésta ocurra. “Hay una diferencia enorme sobre cómo respondió Google informando los ataques del 11 de septiembre de 2001 en Nueva York con lo que sucedió cuando se conoció la noticia de la muerte de Osama bin Laden diez años después”, cuenta Martín Sarsale, gerente técnico de Sumavisos, quien trabaja sobre los algoritmos del buscador. “El índice de Google se actualiza de una manera cada vez más rápida”, cuenta Sarsale.
Pero hay otro aspecto más inquietante de Google: las búsquedas “Chau River” ejecutadas desde otras latitudes, sobre todo anglosajonas, no generan ninguna opción que implique un chiste. Google devuelve información diferente según el contexto, el país y finalmente el usuario. No hay “un” resultado de Google. Cuando se busca “Chau River” desde Londres, por ejemplo, el resultado viene principalmente en inglés. Tal vez el usuario común no haya reflexionado sobre esto, pero Google devuelve búsquedas hacia los usuarios sobre la base de aprender qué es lo que el usuario elige. Como cuenta en una fantástica charla TED el activista Eli Parser, gracias a las grandes plataformas virtuales vivimos filtrados por burbujas de algoritmos. Esto es: si Google o Facebook aprenden de nuestras propias búsquedas anteriores, la próxima vez que queramos algo nos darán lo que ya buscamos anteriormente. Si buscamos “Egipto”, por ejemplo, y anteriormente hemos ingresado a sitios sobre turismo en Egipto, ya no veremos información sobre levantamientos en Egipto en la primera página. Si queremos seguir las opiniones de nuestros amigos en Facebook, en tanto, sólo veremos las opiniones de quienes más visitamos. Si entramos frecuentemente a algunos perfiles de nuestros amigos, lentamente dejaremos de “ver” qué actividad tienen otros usuarios. Parser mostró cómo sus amigos “conservadores” habían desaparecido de las menciones en su cuenta de Facebook ya que el algoritmo interpretó que éstos eran poco interesantes para su perfil... y dejó de mostrarlos.
Según Eli Parser, Google ya no muestra el mundo “tal cual es”, sino tal cual nosotros queremos que sea, tal cual nosotros esperamos que Google nos devuelva en cada búsqueda. Si un usuario busca “Chau River”, lo que espera de Google, finalmente, es un contenido principalmente relacionado con “Chau Riber”. El usuario “espera” que Google devuelva un resultado tendiente a la broma. Ese tipo de comportamiento, según Parser, rompe con el criterio editorial sobre lo que “la gente” debe saber sobre un lugar o un acontecimiento. Es decir, para una persona que busca información turística sobre Egipto, está “bien” que también sepa que en Egipto hubo disturbios y no solamente pirámides. Lo que Parser le “pide” a Google es agregarle al algoritmo “algo” de criterio editorial que rompa con esa burbuja que crea la extrema personalización. El problema es quién puede ser capaz de automatizar la lógica sobre lo que se debería saber. Será cuestión de mejorar el promedio.
No hay comentarios:
Publicar un comentario