Ni siquiera los algoritmos pueden salvar a Facebook de la parcialidad al reportar las noticias. El equipo de tendencias en noticias de Facebook estuvo en el centro de la crítica e —incluso después de un año de los sucesos que dispararon esta historia— el dilema sigue y es uno en el que vale la pena detenernos. En 2016 el departamento de noticias de Facebook generó polémica después de que la revista Gizmodo informara que habían ocultado noticias conservadoras en las pasadas elecciones de Estados Unidos. Esto causó revuelo y con justa razón. Facebook es utilizado por personas de distinta demografía, con todo tipo de creencias e inclinaciones políticas; por tanto, esta aparente parcialidad molestó a muchos grupos.

Farhad Manjoo —escritor del New York Times— describió a Facebook como “la fuente de noticias más influyente del mundo según cada medida disponible”. Y sería desalentador saber que su fuente de noticias oculta temas importantes para ti. También generaría consternación porque Facebook realmente puede influir en la opinión pública. Muchas personas usan Facebook, y esta red social es muy buena para dirigir la experiencia del usuario. Esto quiere decir que es capaz, como cualquier otra fuente de noticias, de influir en la percepción pública y por supuesto en el voto.
Hagamos una línea de tiempo. A principios de mayo de 2016, Gizmodo hizo pública su denuncia y Facebook negó la presencia de parcialidad. El Comité de Comercio del Senado entonces exigió una revisión del sistema editorial de Facebook y solicitó un listado de las fuentes de noticias eliminadas o bloqueadas de las tendencias de Facebook. El 26 de agosto de 2016, Facebook anunció que su equipo de noticias de tendencias sería despedido y que el algoritmo sufriría modificaciones.

El 29 de agosto de 2016 un artículo afirma incorrectamente que la colaboradora de Fox News, Megyn Kelly, fue despedida por apoyar secretamente a Hillary Clinton. Las noticias en tendencia continúan siendo ineficientes. El 30 de agosto de 2016, Digiday publicó una entrevista con un editor anónimo de Facebook Trending News que confirma que su equipo —al igual que gran parte de Silicon Valley— era de izquierda; y que había muy poca supervisión editorial hasta que Facebook fue acusado. En sus palabras: “nunca pareció que alguien en la compañía alguna vez entendió realmente lo que hacíamos o entendía cómo los temas fueron curados”.
A la luz de todo esto, hay dos preguntas que nos debemos hacer. La primera es ¿por qué hay una expectativa de que Facebook tenga parcialidad cero?; y en segundo lugar, ¿qué hace Facebook a la luz de esa expectativa? De inmediato, debemos poner sobre la mesa que la expectativa de que cualquier fuente de noticias esté libre de parcialidad es injusta. Glenn Greenwald, escritor y periodista, ha dicho que no hay tal cosa como la neutralidad, sólo la transparencia. El periodista y profesor Jay Rosen habla de cómo la visión desde la nada, la capacidad de informar sobre eventos sin inclinación personal, es mitológica.

La neutralidad y la visión desde la nada son vestigios de un enfoque tradicionalmente positivista del periodismo que resulta ser un ideal demasiado alto. Y esto es tan cierto para ellos como lo que Facebook hace: curaduría, edición y publicación preferente. La primera razón por las que se espera que Facebook sea imparcial es probablemente porque nuestros newsfeed está poblado por amigos. Y Facebook entiende esto y está diseñado para ver las cosas que a cada quien le gustan, las cosas con las que estás de acuerdo y las cosas que te divierten. La idea aquí es que Facebook en su mayoría muestra cosas que se alinean con tu visión del mundo, porque tú eres el director editorial de tus amistades. Y Facebook es el director editorial que se basa en los likes de lo que publican tus amistades; así que uno puede empezar a pensar en Facebook como imparcial, porque trabaja en dos niveles: para informarte y para mostrar las cosas que considera apropiadas para tu propia parcialidad.

Sin embargo, el panel Tendencias de Noticias es un poco diferente. Pretende mostrar los temas que un gran número de personas están compartiendo y de los que se habla en el momento. Si eres conservador y descubres que eso no es exactamente el caso, entonces hay un problema para la teoría de que los medios convencionales están en consonancia con el silencio de lo que te interesa. Pero también es algo que se comprendería ampliamente si se tratara de los editores de las organizaciones de noticias, quienes tienen inclinaciones políticas evidentes. Entonces el hecho de que Facebook tenga inclinaciones no es distinto a que cualquier otro medio las tenga.

Nos parece lógico que los grandes noticiarios sean parciales, ya que están dirigidos por personas con puntos de vista y decisiones subjetivas. ¿Pero puede Facebook —un sistema digital— ser tan parcial como un grupo de personas? Facebook es un producto tecnológico dirigido por algoritmos, y la mayoría confía ciegamente en los algoritmos. ¿Pero qué es un algoritmo? Bueno, no es una persona, eso es seguro. Es el resultado de la programación y el desarrollo de inteligencia artificial; pero también es humano en la medida en que los datos que se recopilan se extraen de un universo repleto de parcialidad. La práctica de pensar que debido a que una operación tecnológica basada en datos significa que es imparcial es algo que el ex vicepresidente de Datos de Kickstarter Fred Benenson ha descrito como “el lavado de matemáticas” o mathwashing: “usar términos de matemáticas —algoritmo, modelo, etcétera— teniendo un papel sobre una realidad más subjetiva”.

Facebook está en un dilema. A pesar de convertirse en un gigante mediático, editor y generador de contenido, noticias e historias, simplemente no parece estar interesado en normas y prácticas editoriales fuertes. Quizá debido a la necedad de que los algoritmos se encargarán de todo. ¿Pero cuál debería ser la estrategia de Facebook aquí? Podrían desarrollar un algoritmo ecuménico, políticamente diverso; o salas de redacción. Abandonar el cuento de hadas de la objetividad algorítmica y sólo centrarse en la cobertura. ¿Pero pueden? ¿Lo harán?
Trending News probablemente se cerrará por completo, quizá no porque no funcione, sino porque no funciona como el público quiere que funcione. Quizás este tropiezo entre tecnología es en el que comenzaremos a ver que, de hecho, el hombre sigue siendo más confiable que la máquina; aunque sea por el puro hecho de tener la certeza de que un hombre no es confiable en su totalidad.
**
¿Alguna vez has notado que el sitio creado por Zuckerberg te sugiere personas con las que apenas conviviste durante un rato y que nada tienen en común contigo? Descubre qué hay detrás de las sugerencias de amigos de Facebook.
