Elecciones: el papel clave de Facebook (2)

En el primer capítulo de esta serie ya vimos que, en términos de participación, sí puede decidir unas elecciones. También vimos que los ‘experimentos’ en la sombra de Facebook pueden ir más allá de llamar al ciudadano a cumplir su compromiso civil de votar.

elecciones

Pero estos días, a raíz de varias noticias falsas difundidas a través del gigante tecnológico durante la campaña electoral americana, como la que aseguraba que el Papa Francisco apoyaba la candidatura de Trump, la praxis de la compañía de Zuckerberg ha sido colocada en el ojo del huracán. Y más tras el triunfo del republicano, cuya arma electoral ha sido la mentira. Sin duda, la publicación sin filtros de este tipo de noticias puede incidir en la decisión de un gran número de votantes, si tenemos en cuenta que Facebook es la primera fuente de información de un 44% de los estadounidenses, según un estudio del Pew Research Center.

Algoritmos que deciden elecciones

Tanto Facebook como Google anunciaron que la primera solución pasaría por vetar la publicidad de estos sitios en sus plataformas. Pero no es la solución. También Zuckerberg aseguró que controlarían los contenidos maliciosos colaborando con empresas dedicadas al fastchecking, pero es difícil comprobar la veracidad de una información en tiempo real. El CEO de FB señaló que su empresa “tiene que tener mucho cuidado en no convertirse en árbitro de la verdad”. De entrada, la Inteligencia Artificial que usa es el motor principal del funcionamiento del feed de noticias. La red alimenta al usuario con la información que éste quiere oír –sea verdadera o falsa-, con la que se identifica, con la que sabe que aumentará su engagement, la que Facebook sabe que compartirá… para el beneficio propio de la compañía. ¿No puede ese algoritmo decidir unas elecciones? Creo que sí. Y la responsabilidad de Zuckerberg es cambiarlo.

Facebook puede decidir unas elecciones (1)

El 20 de diciembre de 2015, Facebook habilitó el botón ‘he votado’ por primera vez en España en unas elecciones generales, con el fin de que los usuarios indicaran si ya habían ejercido su derecho a voto, compartiéndolo con sus contactos, pero sin pedir por qué partido se habían decantado.Facebook

No se trató de una práctica novedosa. La red social de Zuckerberg implantó el sistema en 2008, y desde entonces lo ha habilitado en diversos procesos electorales en EEUU, India, Reino Unido y Argentina, entre otros. Podríamos afirmar que es una iniciativa positiva, ya que anima al ciudadano a acudir a las urnas y ayuda a combatir la abstención. De hecho, en el referéndum  sobre el Brexit, el viernes antes del día límite para registrarse para votar, Facebook lanzó el botón con el fin de alentar a los usuarios al registro. Ese día, los registros online se multiplicaron por dos, especialmente entre los más jóvenes.

Facebook: experimentos secretos y manipulación

Pero, ¿es este botón tan neutro como parece? Veamos. Según los datos publicados por la prestigiosa revista de periodismo de investigación de EEUU MotherJones, durante los tres meses previos al ‘Election Day’ de 2012, Facebook llevó a cabo un experimento secreto (que salió a la luz por casualidad) en el cual se mostraron a 1,9 millones de personas más noticias de lo habitual en sus muros –sin ellos saberlo- para ver si este cambio hacía que más gente fuera a votar. En efecto: el colectivo que leyó más informaciones votó un 3% más que el resto.

Visto lo visto, Facebook sí puede decidir unas elecciones, al menos en cuanto a participación. Pero, además, con la manipulación del feed de noticias, me asaltan varias dudas: las informaciones que aparecieron en los muros de estas personas, ¿de qué medio provenían y a qué candidato apoyaban? Si la compañía sabe cómo se comportan sus usuarios y puede alterar sus comportamientos, ¿no podría introducir algoritmos para inclinar su voto?