El número de marzo de Wired resumió en una extensa nota de tapa los dos últimos años de lo que llamó «el desastre», al cual Facebook, «confundido y a la defensiva» se condujo por sus propias decisiones. Y también se ocupó de «cómo Mark Zuckerberg está tratando de arreglarlo», según la presentación del artículo de Nicholas Thompson (director de la revista) y Fred Vogelstein, aunque las críticas no lo acompañan, según publicó Infobae.

 Así como el asesinato del archiduque Franz Ferdinand en Sarajevo desató la Primera Guerra Mundial, el despido de un empleado subcontratado (Benjamin Fearnow, quien había filtrado a Michael Nuñez, periodista de Gizmodo, dos comunicaciones internas de Zuckerberg) fue el detonante, según la prestigiosa publicación de tecnología y cultura digital, de «los dos años más tumultuosos de la existencia de Facebook». El episodio «desencadenó una cadena de hechos que distraerían y confundirían a la empresa mientras se la comenzaban a tragar unos desastres mucho mayores».

Feranow puede haber ocupado el lugar del archiduque, o de su asesino. Lo mismo da. Era apenas una figura vinculada por medio de una compañía proveedora de servicios para el gigante de las redes sociales, porque «las tecnológicas, en su mayoría, prefieren que los humanos hagan la menor cantidad posible de cosas porque, como se suele decir, (las personas) no cambian la escala de su productividad», recordó Wired. «Necesitan ir al baño y tener seguro de salud, y los más irritantes entre ellos a veces hablan con la prensa».

De ellos, 51 hablaron con la revista. Son o fueron empleados de Zuckerberg y muchos pidieron que no se citara su nombre; uno llegó a solicitar que el periodista que los entrevistó apagara su teléfono, «así a la compañía se le hacía más difícil rastrear si había estado cerca de los teléfonos de alguien de Facebook».

Con pequeñas diferencias, todos contaron la misma historia: la del final de la tecno-inocencia. El tránsito del mito fundacional de la era de la información —el crecimiento asombroso de la empresa— a la manipulación por una potencia extranjera en las elecciones presidenciales, el repudio público, las explicaciones ante el Congreso.

Primero hubo una visión «brillante y simple»: los humanos son animales sociales, pero internet es una cloaca, así que «si se hace que la gente se sienta segura de publicar, compartirán obsesivamente». Y si esa base de datos se pone a disposición de los anunciantes, «la plataforma se convertirá en una de las tecnologías de medios más importantes de comienzos del siglo XXI».

Esa visión se dobló bajo la fuerza de Zuckerberg: «Muévete rápido y rompe cosas» no fue solo su consejo a los programadores sino una filosofía que se aplicó a asuntos delicados, «muchos de los cuales tenían que ver con la privacidad de los usuarios», para favorecer el crecimiento de la plataforma.

Y entonces surgió la primera confusión: Facebook podría ser la fuerza dominante en la industria de las noticias. Pero «no se pensó con cuidado en las consecuencias».

En 2012, cuando Twitter era la red social campeona en la distribución de las noticias en línea, Zuckerberg la percibió como una rivalidad amenazadora. Aplicó «una estrategia que ha desplegado con frecuencia contra los competidores a los que no puede comprar: copió y aplastó». Luego de ajustar el feed para incorporar material de los medios y hacer una campaña entre los editores sobre los beneficios de llegar al público mediante la plataforma, a finales de 2013 había acorralado a Twitter y ,»a mediados de 2015, había sobrepasado a Google como líder en la derivación de lectores».

Pero mientras el periodismo seguía dando importancia a aspectos del negocio como la calidad y la exactitud, o la eliminación de la pornografía y el spam, Facebook parecía escudarse en que era «solo una empresa tecnológica, una que ha construido una ‘plataforma para todas las ideas'».

Al presentar del mismo modo la publicación de una persona sobre su perro y una noticia, Facebook decía que democratizaba la información, recordaron Thompson y Vogelstein. «Uno veía lo que los amigos querían que uno viera, no lo que decidía un editor en una oficina de Times Square. Pero es difícil argumentar que eso no fue una decisión editorial. Puede haber sido una de las más importantes de la historia».

Gracias a esa decisión, «Facebook fue el lugar donde las publicaciones podían conectarse con su público, y también donde unos adolescentes de los Balcanes podían conectarse con los votantes en los Estados Unidos, y unos agentes de San Petersburgo podían conectarse con las audiencias que eligieran».

A comienzos de 2016 Roger McNamee —»un inversor de Facebook desde los orígenes, quien había aconsejado a Zuckerberg en dos decisiones cruciales: rechazar la oferta de Yahoo en 2006 y contratar a una ejecutiva de Google llamada Sheryl Sandberg en 2008″— notó que en la plataforma aparecían unos memes de Bernie Sanders que se presentaban como parte de la campaña, pero que, ostensiblemente, no lo eran.

Al mismo tiempo, la seguridad de la empresa descubrió que unos agentes rusos habían intentado robar en la plataforma las acreditaciones de periodistas y figuras públicas; se avisó al FBI y, como nunca hubo respuesta, el asunto pasó al olvido.

Y Gizmodo publicó —lo que causó el despido de Fearnow y otro— que el módulo de Trending Topics de la empresa parecía favorecer al Partido Demócrata. El senador republicano John Thune exigió respuestas a las acusaciones de parcialidad.

Entonces hubo una segunda confusión, que llevó a un error de consecuencias monumentales.

Facebook practicó control de daños con Thune y «decidió, también, que debía extender una rama de olivo a toda la derecha de los Estados Unidos, que estaba embravecida por la supuesta perfidia de la empresa».

Rupert Murdoch, quien tiene antiguas rivalidades con la red social, fue uno de los críticos más escuchados y con argumentos más sólidos durante los últimos dos años de crisis de Facebook.

Rupert Murdoch, quien tiene antiguas rivalidades con la red social, fue uno de los críticos más escuchados y con argumentos más sólidos durante los últimos dos años de crisis de Facebook.

Mientras la temperatura de la campaña subía en el verano boreal y Facebook hacía de cuenta que el asunto no la afectaba, el multimillonario de los medios Rupert Murdoch entró en escena para señalar que el problema no era favorecer las noticias de un sector u otro, sino robar el mercado de anuncios que generan las noticias.

Murdoch y Robert Thompson, el CEO de News Corp, «acusaron a Facebook de hacer cambios profundos a su algoritmo central sin haber consultado adecuadamente a sus socios en los medios», recrearon Thompson y Vogelstein. Facebook podía esperar más escrutinio y más lobby, o ser más razonable.

Temeroso de «las habilidades de Murdoch en las artes oscuras», Zuckerberg ordenó cambios. Era inocultable que los empresarios de medios consideraban muchos recursos que Facebook les ofrecía como ventajosos, por ejemplo, Instant Articles (una función que permite acceder a contenidos periodísticos, compartidos en la red social, sin tener que salir de sus muros, es decir, sin visitar los sitios de los medios), como un Caballo de Troya.

No solo «los medios gastaban millones para producir noticias de las que Facebook se beneficiaba, y Facebook, creían, les daba muy poco a cambio»: Zuckerberg pensaba que había otro modelo de producción. En agosto, cerró la unidad periodística de los Trending Topics, que quedaron en manos de un conjunto de operaciones matemáticas.

Fue el tercer error.

«La autoridad sobre el algoritmo se trasladó a un equipo de ingenieros con sede en Seattle. Muy rápidamente el módulo comenzó a mostrar mentiras y ficciones», recordó Wired.

Porque la red social quería creer que podía dominar los medios sin ser una empresa de noticias, pero la realidad se reveló en la campaña presidencial estadounidense. Para el equipo de Trump «el uso de Facebook era obvio», según el artículo. «Twitter era una herramienta para comunicarse directamente con los simpatizantes y gritarles a los medios. Facebook era el modo de desarrollar la operación de marketing político directo más efectiva de la historia».

Que, a su vez, tuvo una vuelta de tuerca: la interferencia rusa. Hoy hay tantas evidencias que el fiscal especial Robert Mueller imputó a 13 ciudadanos y a tres entidades por interferir en los comicios de 2016, pero en el momento Facebook no quiso verlas.

«La gerencia estaba nerviosa por el fiasco de los Trending Topics; tomar medidas contra la desinformación partidaria podría haber sido considerado otro acto de favoritismo político», argumentó Wired. «Además Facebook vendía avisos alrededor de esas publicaciones, y la basura sensacionalista era eficaz para atraer gente a la plataforma».

McNamee escribió una carta a Sandberg y a Zuckerberg: «Me involucré en la empresa hace más de una década y he tenido orgullo y alegría por su éxito, hasta los últimos meses. Ahora estoy decepcionado. Estoy avergonzado. Estoy abochornado».

Luego del triunfo de Trump, cuando se señaló que Facebook posiblemente había cumplido un papel en la campaña, Zuckerberg descalificó las acusaciones como algo «bastante loco».

El comentario no sonó bien. Ni siquiera en Menlo Park: «Lo que dijo fue increíblemente dañino. Debimos hacer que lo cambiara». O la empresa rodaría cuesta abajo «en el camino del paria en que estaba Uber», comentó a Wired un ex ejecutivo. Una semana más tarde Zuckerberg publicó que la red social se tomaba la desinformación en serio.

Se formó un Grupo de Trabajo para la Integridad del Feed. Se anunció que se restringirían los avisos en las páginas de noticias falsas y que los usuarios podrían denunciarlas. Se anunció que se incluiría la verificación de datos, por primera vez en los 12 años de historia que Facebook llevaba hasta entonces.

En febrero de 2017, el CEO publicó un largo manifiesto luego de haber «meditado sobre si había creado algo que hizo más daño que bien», según Wired. «¿Estamos construyendo el mundo que todos queremos?», preguntó al comenzar el texto. Tras implicar que no, habló de la importancia de la industria de las noticias, algo «fundamental para construir una comunidad informada».

Nada de eso hizo que la empresa aceptara, sin embargo, su responsabilidad «por los problemas de las burbujas de los filtros o su notable propensión a servir como herramienta para amplificar la ira». Ni siquiera internamente: Zuckerberg y Sandberg enviaron una respuesta tan suave a McNamee que lo irritó.

Poco después, cuando se cruzó con Tristan Harris, un ex empleado de Google experto en cómo el diseño de ciertas tecnologías las hace adictivas, el inversor se ofreció a ser su copiloto discursivo. A ellos se sumó la investigadora de seguridad Renée DiResta, estudiosa del modo en que la desinformación se reproduce. «Las redes sociales permiten que los agentes maliciosos operen en la escala de la plataforma porque fueron diseñadas para el flujo rápido de la información y la viralización», escribió, y llamó la atención de Harris.

La prédica del trío sobre «los efectos venenosos de Facebook sobre la democracia en los Estados Unidos» encontró pronto «público receptivo en los medios y en el Congreso».

Porque a esa altura pocos ignoraban —aunque «Zuckerberg parecía no captarlo cuando escribió su manifiesto»— que la plataforma «había dado poder a un enemigo mucho más sofisticado que los adolescentes de los Balcanes y a los diversos amorales distribuidores de mentiras», escribieron Thompson y Vogelstein. «A medida que pasó 2017, la empresa comenzó a comprender que había sido atacada por una operación extranjera».

Un ejecutivo que habló con la revista dijo que hubo un momento en que todos en Menlo Park vieron la diferencia con las noticias falsas: «¡A la mierda, esto es una situación de seguridad nacional!», se recordó a sí mismo. Habían pasado ya seis meses desde las elecciones.

Alex Stamos, titular de seguridad de Facebook y una figura legendaria en Silicon Valley, preparó «un informe sobre cómo se había usado la plataforma para operaciones de inteligencia rusa y de otros países». Wired citó a dos personas «con conocimiento directo del documento»: Stamos estaba «ansioso por publicar un análisis detallado y específico de lo que la empresa había hallado», dijeron.

Pero los equipos de política y comunicaciones «recortaron y suavizaron» el informe, que se conoció el 27 de abril de 2017 —un día después de que el Senado anunciara que llamaba al entonces director del FBI, James Comey, a declarar en la investigación rusa— sin detalles ni ejemplos.

La experta DiResta lo leyó con pena: «¿Esto es todo lo que pudieron hacer en seis meses?». La inteligencia estadounidense, por ejemplo, podía bastante más: por esos días, gente del Congreso le filtró a Facebook que eran objeto de investigación por los avisos rusos.

No era difícil: muchos de los avisos habían sido comprados en rublos y desde navegadores con el alfabeto cirílico. A partir de esos datos, la propia red social halló «un conjunto de cuentas, sostenidas por un oscuro grupo ruso llamado Internet Research Agency [IRA], que habían sido diseñadas para manipular la opinión política en los Estados Unidos».

Grupos que buscaban la secesión de Texas, por caso; o que radicalizaban, al punto de quitarles seriedad, las ideas de Black Lives Matter.

«Algunos ejecutivos de la empresa dicen que estaban avergonzados de cuánto les llevó encontrar las cuentas falsas, pero señalan que las agencias de inteligencia estadounidenses nunca los ayudaron», observó Wired. Una fuente del Comité de Inteligencia del Senado desestimó el argumento: «Era obvio que era una táctica que los rusos iban a explotar».

Entonces Facebook volvió a equivocarse, al calcular mal «cuánto revelar y a quién».

En septiembre, una publicación de Stamos trató de restarle importancia a los avisos rusos (eran pocos, unos 3.000; por poco dinero, unos USD 100.000). DiResta sospechó: «Hacía rato que creía que Facebook era poco comunicativo, y ahora parecía lisa y llanamente obstruccionista».

Un día recibió una llamada de Jonathan Albright, un investigador del Centro Tow sobre Periodismo Digital, quien le confirmó sus sospechas. Había encontrado, congeladas en una especie de ciberanimación suspendida, seis de las cuentas que Facebook había cerrado y había bajado sus 500 publicaciones más recientes. En total, habían sido compartidas más de 340 millones de veces, le informó. Solo las últimas 500: la magnitud del asunto era enorme.

A partir de eso, McNamee explicó que no era una sorpresa, ni siquiera una anomalía, que los rusos hubieran usado la red social: «Encuentran 100 o 1.000 personas enojadas y temerosas y usan las herramientas de Facebook para hacer publicidad y juntarlas en grupos. Ese es exactamente el uso para el cual se diseñó Facebook».

McNamee, Harris y DiResta comenzaron a asesorar a los comités de Inteligencia del Senado y la Cámara de Representantes. Hubo audiencias con figuras de la empresa, como Colin Stretch. Y casi inmediatamente una ola de ex ejecutivos hizo públicas sus críticas. Sean Parker, el primer presidente de Facebook, entre ellos: «Explotamos una vulnerabilidad de la psicología humana».

Hubo más anuncios de Facebook, ninguno de los cuales superó el conjunto de confusión ni frenó las críticas.

Más seguridad, prometió Zuckerberg. Habló de apuntar no tanto a que los usuarios dejasen horas de sus vidas en la red social —que es el negocio de la red social— sino a que viviesen la experiencia de un «tiempo bien empleado» en Facebook. (Time Well Spent, «tiempo bien empleado», es el nombre de la fundación de Harris contra el diseño adictivo de las plataformas.) Los medios podrían pedir a los lectores de Instant Articles que se suscribieran, con la esperanza de que el pago distinguiera los contenidos de calidad de los falsos y los anzuelos de clicks.

Pero pronto «Facebook fue acusado de convertirse en un vector central para difundir propaganda mortal contra el pueblo rohingya en Myanmar y apoyar el liderazgo brutal de Rodrigo Duterte en Filipinas». Y otro ex ejecutivo, Chamath Palihapitiya, ex vicepresidente para el crecimiento de usuarios, criticó a la red social, dijo que sentía «una enorme culpa» por haber contribuido a desarrollar «herramientas que rompen el tejido social». McNamee realizó un tour por medios de la importancia de The Washington Post y The Guardian «vapuleando a la empresa».

Cuando a comienzos de 2018, como todos los eneros, Zuckerberg hizo sus anuncios para el año, los inversores parecieron desaprobar que la confusión fuera dominante: las acciones de la empresa cayeron.

Pocos consideraron positivo el cambio del muro para que los usuarios tuvieran «más interacciones significativas», lo cual se pensaba lograr al priorizar los contenidos que comparten los amigos y los familiares en detrimento de las noticias de los medios y la información de las marcas. A nadie le pareció útil la categorización de los sitios de noticias según la confianza que les asignan los usuarios, porque era una herramienta fácil de manipular.

Murdoch volvió a intervenir: las medidas eran «inadecuadas comercial, social y periodísticamente». Si Facebook quería contenidos, debería pagarlos al igual que el cable pagaba a la televisión por retransmitir, dijo.

La narración de Wired llegó así al presente: la preocupación de Facebook por su destino. «Fue construida sobre el poder de los efectos de red: uno se sumaba porque todos los demás se sumaban. Pero los efectos de red pueden ser igual de poderosos para alejar a la gente de una plataforma». Zuckerberg lo sabe: «ayudó a crear esos problemas para MySpace hace una década y se puede decir que hace lo mismo con Snap hoy».

La gente que lo conoce, concluyó Wired, dice que la prueba de estos últimos meses lo ha cambiado. Perdió el tecno-optimismo. «Lo ha vuelto mucho más paranoico sobre las formas en que se podría abusar lo que él construyó», dijo una de esas personas. Su futuro, y el del mundo (que no se puede hacer «más abierto y conectado al mismo tiempo que se lo rompe»), depende de cómo se resuelva la dicotomía entre medio y plataforma que, aunque Facebook nunca quiso reconocer, siempre constituyó su naturaleza.