El año negro de Facebook

La operación rusa y Cambridge Analytica son solo los casos más conocidos de unos meses desastrosos para la red social

Mark Zuckerberg, el pasado abril, cuando testificó en el Congreso de EE UU por el caso de Cambridge Analytica. ANDREW HARNIK AP


JORDI PÉREZ COLOMÉ
Facebook tiene más de 2.000 millones de cuentas y es una herramienta central para la información y relaciones sociales. Las decisiones de sus directivos ya no son las bromas de dormitorio de estudiantes donde se creó en 2004. A finales de este año han cristalizado dos sensaciones: no están claras las consecuencias sociales de las expansión brutal de Facebook y la compañía parece más interesada en relativizar su impacto que en ayudar a entenderlo. Mark Zuckerberg admitió en una reunión interna que estaban “en guerra” tras un año negro en el que los casos de Cambridge Analytica y las interferencias rusas han sido solo la cara más conocida de la crisis de la red social.

La percepción de Facebook ha cambiado. Desde 2017, la red se ha enfrentado al caso de filtración de datos y ha ido admitiendo en comunicados dubitativos la actividad rusa en su red. En marzo de 2018, Facebook fue acusado de ser una plataforma generadora de odio en Myanmar, además de casos similares en Sri Lanka o Nigeria. Durante este año también, una docena de ejecutivos y cargos importantes han abandonado la compañía. Su valor en Bolsa cae desde julio, no por los escándalos sino por no cumplir expectativas de crecimiento.

“La elección de Trump lo cambió todo”, dice el experiodista de The Guardian Harry Davies. Lo sabe por experiencia. En diciembre de 2015, cuando nadie aún había oído hablar de algo llamado Cambridge Analytica, Davies reveló sus trucos. Fuera del entorno más preocupado por la privacidad, nadie le prestó atención. Facebook seguía, en la percepción colectiva, “uniendo al mundo”, como dice su misión.

Durante 2016 y 2017 más de una docena de piezas citaba a Cambridge Analytica como “salsa secreta”, según por ejemplo el New York Times, de la victoria de Trump. Nunca pasó de un detalle más de la campaña. Pero el 17 de marzo de 2018 estalló todo: la periodista Carol Cadwalladr sacó en el mismo The Guardian “50 millones de perfiles de Facebook recopilados para Cambridge Analytica en un enorme pérdida de datos”. El revuelo fue mundial.

¿Qué había cambiado en dos años para la explosión de algo que llevaba tanto publicado? “Es complejo y tiene mucho que ver con la dinámica de los medios”, dice Paul-Olivier Dehaye, uno de los activistas que sigue la pista de Cambridge Analytica desde 2015 y que ha declarado dos veces en el Parlamento británico, la segunda el martes pasado. “En marzo pasaron tres cosas: una, un vídeo grabado con cámara oculta [por Channel 4] que mostraba que Cambridge Analytica no era solo una agencia digital; dos, Chris Wylie emergió como denunciante, y tres, Facebook amenazó a periodistas para prevenir el artículo”.

El documental de Channel 4 revelaba que SCL, la empresa madre de Cambridge Analytica, había trabajado en países en desarrollo con trampas tétricas como provocar a los adversarios para que cayeran en fotos comprometidas. Wylie, por su parte, era un canadiense con el pelo rosa que había dejado Cambridge Analytica en 2014, pero que la victoria de Trump le dio “remordimientos” y le obligó a dar la cara “por responsabilidad”. El caso tenía ahora protagonistas claros: los de Cambridge Analytica eran muy malos y el joven con el pelo de colores era una buena foto.

“Esta búsqueda desesperada de respuestas a la victoria de Trump nutrió el considerable interés en Cambridge Analytica y probablemente hinchó el significado de la compañía”, dice Davies. Aún no había respuestas a la pregunta clave: ¿cómo pudo ser que ganara Trump? “Decir que casi un 50% de votantes piensa parecido a Trump es inaceptable para muchos, en mi opinión. Es más reconfortante pensar que alguien ha engañado a esos votantes con estrategias ilegítimas”, dice Ángel Cuevas, investigador de la Universidad Carlos III que lleva años trabajando sobre Facebook.

Cómo surgió Cambridge Analytica
En 2014, un joven estudiante de psicología en Cambridge, Alexander Kogan, creó una aplicación para conocer tu personalidad con presuntos fines académicos. Más de 270.000 personas se la descargaron en Facebook. Por un permiso de la red ahora eliminado, Kogan pudo llevarse con él los datos de esas 270.000 personas y de todos sus amigos. Con esos millones de perfiles, su objetivo era definir tipos básicos de personalidad a partir de los likes de Facebook. Esos datos fueron la base del trabajo de Cambridge Analytica.

¿Para qué? Así lo explicó Wylie en el Parlamento: “Puede aparecer así un perfil de gente más dada a conspiraciones para los que es posible predecir cómo es de probable que sean más receptivos a anuncios con webs o fake news”. Una vez definido qué likes o intereses hacen que un individuo sea más proclive a ser por ejemplo neurótico, Facebook permite apuntar con publicidad a gente similar. Así, un anunciante puede subir 10.000 clientes definidos según esos rasgos y pedirle a Facebook que le busque un millón de personas parecidas. Un detalle importante es que nadie más ve esos anuncios: existen solo para un grupo de votantes pero nadie más puede valorar su contenido.
La labor de Cambridge Analytica añadía presuntamente ese dudoso factor emocional a lo que ya hacen miles de empresas: identificar los perfiles de sus clientes y mandarles la mejor publicidad posible. ¿Cambió Cambridge Analytica el destino de la elección de 2016 y el Brexit? Es poco probable. Ahora bien, ¿cambiaron los anuncios personalizados en Facebook el resultado? Es más probable, según estudios académicos.

El mérito ruso
Por si fuera poco, faltaban los rusos. Rusia hizo presuntamente dos acciones en la campaña de 2016: una, hackear servidores del Partido Demócrata y divulgar sus contenidos, y dos, una consistente campaña de influencia para fomentar discordia y desinformación entre votantes. Facebook fue una herramienta extraordinaria para la segunda. Según Facebook, 126 millones de americanos vieron información publicada por agentes rusos. Si por ejemplo los rusos accedieron a datos sobre likes -o Kogan les pasó los suyos-, su campaña de influencia pudo tener una base más sólida. El Parlamento británico dice tener correos electrónicos que explican cómo desde Rusia se recopilaron en 2013 datos personales de Facebook con un sistema similar al que usó Cambridge Analytica. Si se confirma, sería una noticia aún peor para la red.

El debate sobre la elección de 2016 sigue abierto, pero no es irreal pensar que Facebook pudo tener un papel. Días después de las elecciones, Zuckerberg dijo que era una “idea bastante loca” pensar que las fake news habían decidido la victoria de Trump. La precipitación de su opinión no ayudó. Gracias a una investigación del New York Times, se ha sabido ahora que el interés dentro de la compañía por destapar la operación rusa no fue implacable. La número 2, Sheryl Sandberg, ralentizó la investigación interna y la publicación de los resultados. Facebook parecía más interesado en disimular que en enmendar la plataforma. “Hay maneras de entender el impacto, pero requiere acceso a unos datos que solo Facebook tiene”, dice Dehaye. La red no comparte nada.
No fue la única mala decisión política de Facebook. En esos meses contrató a una empresa de relaciones públicas, Definers, para criticar con mensajes dudosos a competidores y activistas. Dos nombres han destacado: Apple y George Soros, presidente de Open Society. La campaña contra Soros es especialmente sensible porque es un objetivo habitual de antisemitas. “Cuando a Facebook le empiezan a caer reproches, es obvio que los grupos que le critican estarán activos”, dice Jordi Vaquer, director europeo de Open Society. “Algunos de ellos han tenido financiación de la Open Society y otros no. Pero lo que es nuevo es que Facebook recurra a la herramienta de los autócratas: usar el argumento de que les paga un multimillonario para hacer daño en lugar de afrontar el problema”.

El algoritmo incomprensible
Facebook dice que es solo una plataforma donde los usuarios crean los contenidos. Es una de sus grandes mentiras. Zuckerberg no es asimilable a un director de periódico, que encarga, edita y ordena las informaciones. Pero tampoco es una ventana transparente. Facebook decide qué vemos y su orden. Son dos decisiones enormes que en su mayoría las toma un algoritmo.

Esta red es una agencia de noticias personal sin transparencia. La eficacia de sus anuncios, la polarización de las noticias falsas o su uso para radicalizar son factores incomprendidos desde fuera. “Solo empezamos a entender la influencia de los algoritmos en opiniones, pero aún no tenemos estudios que comparen a personas expuestas a algoritmos y los que no”, dice Chris Bail, profesor de la Universidad de Duke.

El objetivo del algoritmo no es ayudar a hacer un mundo mejor, sino mantenernos en la página para que veamos más anuncios. El mejor contenido es por tanto el más impactante. En una admisión extraordinaria, Zuckerberg escribió en un largo post el 15 de noviembre: “Uno de los grandes retos de las redes es que, cuando no se controlan, la gente dedica desproporcionadamente más tiempo a contenido más sensacionalista y provocador. No es un fenómeno nuevo. Está extendido en la tele por cable y los tabloides. Cuando se escala, puede minar la calidad del discurso público y llevar a polarización”.

“Las redes permiten transmitir información más radical más rápido. En el pasado, alguien debía suscribirse a un periódico radical o encontrarse en un sótano”, dice Thomas Zeitzoff, profesor de la Universidad Americana de Washington. “Pero ahora puede leer contenido radical en redes dirigido a personas como él”, añade.
Según Zuckerberg, Facebook dejará de promover contenido sensacionalista: dará, siempre presuntamente, menos carnaza. El cambio es un riesgo: “Si la nueva versión de los algoritmos selecciona contenido de menor interés para los usuarios, paulatinamente irán reduciendo su tiempo en Facebook”, dice Cuevas. Quizá desde dentro han visto que es su mejor salida.

En la comparecencia de Mark Zuckerberg en el Senado en abril, el senador republicano Lindsey Graham le insistió que le dijera quiénes eran sus competidores. Zuckerberg no concretaba y Graham le preguntó: “Se lo voy a decir así. Si compro un Ford y no funciona, puedo comprarme un Chevrolet. Si estoy molesto con Facebook, ¿cuál es el producto equivalente en el que puedo apuntarme?” Zuckerberg siguió dando largas hasta que Graham le preguntó si creía que eran un monopolio. Zuckerberg dijo entonces: “¡No tengo para nada esa sensación!”

En realidad no hay una alternativa idéntica a Facebook, pero Zuckerberg tiene razón al decir que compite con aplicaciones que se solapan: todos quieren el tiempo y la atención del usuario.

La combinación de millones de usuarios, tiempo de consumo y datos de cada individuo hacen que Facebook sea una potencia única. Es en el fondo una historia de éxito impresionante. En 2006 Facebook era algo cerrado para universidades americanas. Hoy hay países en los que es sinónimo de internet. La compañía es propietaria además de Instagram y WhatsApp, dos inexploradas e inabarcables minas.

Facebook no quiere regulación que limite su expansión, que le obligue a vender sus propiedades ni que le lleve ser transparente con sus datos. Pero empieza a estar en un punto donde no depende de ellos. La peor consecuencia de esta larga crisis es la sensación de que no son una empresa de fiar para tener datos íntimos de todos. En 2017, Zuckerberg y Sandberg eran sondeados como futuros presidentes o miembros del Gobierno. Después de un año negro, su gestión les ha cerrado esa opción. Facebook, de momento, resiste.
Fuente: El Pais.