26/Abril/2024 P A CDMX: 26° EDOMEX: 20° PUE: 10° HID: 7° MOR: 31° QUER: 11° TLAX: 9° 9 y 0

Foto: Internet

El poder de Facebook de modelar el comportamiento de sus usuarios es real

Redacción 2018-04-16 - 10:16:42

La presente elección federal mexicana de este 2018 será tal vez la que más frentes mediáticos tenga en la historia moderna. El uso de las redes sociales digitales ha tomado un papel protagonista y sus efectos bien pueden afectar en la realidad los resultados que se vean en el proceso de votación.

Mark Zuckerberg, creador y director general de Facebook los pasados 10 y 11 de Abril tuvo más de 10 horas de audiencia ante las comisiones de “Comercio, Ciencia y Transporte” y “Energía y Comercio” del senado estadounidense. En estas audiencias se vio obligado a responder a las inquietudes acerca del manejo de los datos de 87 millones de usuarios que se hizo por parte de la empresa Cambridge Analytica, de entre los cuales según cifras de Facebook van los datos de 789,880 mexicanos.

Además también del tema de la investigación del uso por parte del gobierno ruso de su plataforma para intervenir en distintas elecciones alrededor del mundo.

En este punto es imposible negar la efectividad y poder de las redes sociales globales como Facebook, Twitter, YouTube, Reddit,  en las que la batalla electoral ha llegado y se libra sin reglas claras, sino es que inexistentes del todo.

Existe escepticismo si esto es posible o no, si es efectivo o no.

Posiblemente conviene entonces poner en antecedentes que Facebook ha conducido experimentos psicosociales en su plataforma con sus usuarios donde han logrado inducir comportamientos. Y lo han hecho también con fines políticos.

En 2008 los usuarios de Facebook mayores de 18 años el día de la elección presidencial estadounidense vieron aparecer en su perfil un botón. Antes de ir a botar decía “I’m a Voter” (Soy un votante). Una vez hecho click cambiaba a “I Voted” (Yo Vote). Al menos 5.4 millones de personas hicieron click.

En la elección intermedia de 2010 el modelo cambió y se usó además para hacer mediciones acerca de su impacto. 611,000 usuarios (que representaban el 1% del total de usuarios registrados en ese año) recibieron un mensaje informativo solo de texto invitándolos a votar.

0 millones de usuarios (aproximadamente el 98% de usuarios) vieron además del mensaje informativo de texto las fotos de sus amigos que ya habían ido a votar.

Luego, se comparó contra un registro público de votantes a un grupo de 6.3 millones de usuarios y se analizó el comportamiento.

Sus conclusiones fueron que quienes nada más vieron el mensaje informativo sin elementos adicionales votaron en la misma proporción que quienes no vieron ningún mensaje en absoluto.

El grupo que recibió el mensaje social sin elementos adicionales dio 2% más veces click para marcarlo como “Yo Vote” y 0.3% de esos mismos usuarios buscaron información del lugar donde les correspondía ir a votar.

Pero para el grupo que vio el mensaje social con las fotos de sus amigos, se estima que la votación se incrementó en 60,000 votos y llevó a casi 280,000 personas a las casillas con un efecto de “contagio”.

Así surgió como uso regular lo que Facebook llama el “Megáfono Electoral” y que ha sido implementado ya no solo en votaciones de Estados Unidos sino por todo el mundo, incluyendo el referendum por la permanencia del Reino Unido como parte de la Unión Europea: el Brexit.

Para la votación de 2012 se dio un ajuste más.

En el Newsfeed en los 3 meses previos a la votación se incrementaron la cantidad de noticias políticas que se mostraba a 1.9 millones de los usuarios.

La votación de ese año subió de un promedio histórico de 64% a 67%, es decir, se estima que esta acción de Facebook pudo haber incrementado un 3% la votación total ese año.

Todos estos experimentos se han realizado (y se realizan) sin la obligación de Facebook de hacerlo de conocimiento del usuario puesto que viene establecido en los Términos de Servicio y se dan por aceptados al completar el registro de una cuenta por parte del usuario.

Internet no conoce fronteras y ahora también se entiende la posibilidad que esto se use por quien sepa cómo manipular a los usuarios según sus intenciones, sin importar en qué país se encuentre.

Justo así es como opera la injerencia rusa por el mundo.

No sólo en la elección de Donald Trump, sino que también en el Brexit, Cataluña, Qatar, la India, y posiblemente más lugares donde ni siquiera se tenga sospecha.

De acuerdo a la investigación de la comisión de seguridad del senado de EEUU en Facebook 470 agentes rusos colocaron de 2015 a 2017 un estimado de 80,000 publicaciones que llegaron de primera mano a 29 millones de usuarios.

De esos, gracias a los mecanismos de interacción que la plataforma permite amplificaron el alcance hasta 126 millones de usuarios en total. A esto se suman 3,000 anuncios publicitarios que se colocaron en el mismo lapso que llegaron a otros 10 millones de usuarios alcanzados por la operación de injerencia rusa en Facebook.

Rusia influyó al menos al 38% de la población estadounidense utilizando únicamente Facebook, aunque algunos estudios indican que pudo ser hasta el 50% realmente.

El poder de Facebook de modelar el comportamiento de sus usuarios es real y a escala global. Puede ser de manera local como el Megáfono Electoral, o desde más allá de las fronteras como se ha demostrado que opera la injerencia rusa. Estamos en la era donde la información mediante las interacciones sociales puede ser usada como una nueva arma.

Y para muestra, en la viva voz de Mark Zuckerberg en estas audiencias reconoce que aun la elección mexicana del presente año está en este escenario de riesgo, nuevo, real y efectivo.

Artículo original, aquí
Republicado con autorización de Leo García, autor del artículo