Los riesgos de que Facebook y Twitter pongan límites
Por: The New York Times Martes, Julio 31, 2018-Hrs.
Infobae

Desde sus primeros días, Silicon Valley ha sido apuntalado por una manera casi absolutista de pensar en la libertad de expresión. Fuera de excepciones por fraude, pornografía o amenazas específicas, la opinión prevaleciente entre muchas plataformas tecnológicas ha sido permitir que prácticamente cualquiera publique casi cualquier cosa. Estas sensibilidades incluso están consagradas en algunas leyes; la estadounidense les da a esas empresas una amplia inmunidad a que se les someta a un proceso judicial con base en lo publicado por sus usuarios.

Sin embargo, y con buena razón, los valores absolutistas han terminado.

En los √ļltimos dos a√Īos, las plataformas tecnol√≥gicas -ante presi√≥n de legisladores y los medios debido al da√Īo ocasionado por la desinformaci√≥n, la propaganda patrocinada por Estados y el acoso- han comenzado una revisi√≥n profunda de sus opiniones acerca de lo que la gente puede decir en l√≠nea y c√≥mo puede decirlo.

A mediados de julio, Facebook anunci√≥ un nuevo plan para eliminar la desinformaci√≥n que podr√≠a causar un da√Īo inminente. WhatsApp, la subsidiaria de mensajer√≠a de Facebook, mencion√≥ que limitar√° cu√°n ampliamente se pueden reenviar los mensajes en el servicio a fin de disminuir los rumores virales, algunos de los cuales han originado situaciones violentas en pa√≠ses como India.

Las nuevas pol√≠ticas forman parte de un cambio m√°s grande. Los servicios en l√≠nea -no solo Facebook, sino tambi√©n Google, Twitter, Reddit e incluso aquellos que est√°n lejos de las noticias y la pol√≠tica, como Spotify- est√°n replanteando su relaci√≥n con el mundo f√≠sico al hacerse una pregunta b√°sica: ¬Ņd√≥nde comienza y termina nuestra responsabilidad?

Esto es muy importante y las empresas tecnológicas ya se habían tardado en tomar una postura más firme contra las mentiras y el acoso. Aun así, mientras forcejean con la cuestión de la responsabilidad y dónde establecer sus límites respecto a ciertos tipos de contenido, todos deberíamos prepararnos para que el camino sea bastante accidentado.

Esta es la raz√≥n: una estrategia en la que la intervenci√≥n es casi nula ha sido central para el crecimiento de las plataformas tecnol√≥gicas, ya que les permite tener una escala mundial sin asumir los costos sociales de su ascenso. No obstante, como su influencia es tan grande -Facebook por s√≠ solo tiene m√°s de dos mil millones de usuarios- y han penetrado tan profundamente en nuestras vidas, una estrategia de mayor involucramiento para vigilar el contenido podr√≠a propagarse en todo el mundo y con ello alterar las pol√≠ticas p√ļblicas, a los medios y a casi todo en la sociedad.

Es decir, podría tener el efecto opuesto a lo que los críticos de estas empresas buscan: con una mejor supervisión de su propio contenido podría, de hecho, aumentar el poder que tienen las plataformas tecnológicas para moldear nuestras vidas.

Resulta bastante bueno que los gigantes tecnológicos por fin se estén percatando de sus efectos en el mundo real, pero hay un enorme margen de error en su enfoque para revisar el contenido. Es muy probable que muchas cosas salgan mal -ya sea por vigilar demasiado o muy poco- y tal vez no puedan explicar de manera satisfactoria por qué tomaron ciertas decisiones, lo cual levantará sospechas en todos los bandos.

Recientemente llamé la atención a Facebook por la complejidad de sus políticas de contenido más nuevas, que enaltecen las virtudes de la libre expresión a la vez que le dan mucho margen a la empresa para eliminar o reducir la distribución de ciertas publicaciones por una gran variedad de motivos.

Las pol√≠ticas de Facebook no son las √ļnicas dif√≠ciles de entender; las reglas de Twitter tambi√©n provocan el mismo mareo.

Tras hablar con estas y otras empresas, entendí por qué nos cuesta trabajo entender los esfuerzos que hacen para resolver sus problemas. Las plataformas tecnológicas dicen que no quieren ser imprudentes: todas buscan la contribución de muchas partes involucradas sobre cómo desarrollar políticas de contenido. También les preocupa enormemente la libre expresión y todavía se inclinan a darle a la gente la libertad de publicar lo que quiera.

En lugar de prohibir el discurso, suelen tratar de mitigar sus efectos negativos con metodologías técnicas, como contener la divulgación de ciertos mensajes al alterar los algoritmos de recomendación o al imponer límites a su diseminación viral.

"Por algo hay pol√≠ticas matizadas", coment√≥ Monika Bickert, directora de pol√≠ticas de Facebook. "Parte de esto es muy complicado y, cuando estas pol√≠ticas se dise√Īan, no hay un grupo de gente sentada en Menlo Park, California, diciendo d√≥nde pensamos que deber√≠a estar el l√≠mite".

Bickert comentó que ha organizado reuniones frecuentes con diversos expertos para debatir cómo es que Facebook debería establecer los límites en un sinfín de discursos. En general, la empresa elimina contenido que es ilegal, peligroso, fraudulento o que es falso o basura. No obstante, en el caso de áreas que son más difusas, como la desinformación, adopta un enfoque distinto.

"Reducimos la distribución de información que es inexacta e informamos a la gente con más contexto y perspectiva", comentó Tessa Lyons, gerente de producto que encabeza el esfuerzo de Facebook para frenar la desinformación en el muro de Noticias (News Feed).

Para ello, Facebook se ha asociado con decenas de organizaciones de todo el mundo que verifican información. Así limita la diseminación de noticias que sean consideradas falsas, al mostrar esas publicaciones con menor frecuencia en los muros de Noticias de los usuarios y también muestra artículos más veraces como alternativa a los que no son exactos.

Andrew McLaughlin, exdirector de políticas en Google y quien ahora dirige una incubadora cuya finalidad es construir tecnología para movimientos políticos progresistas, comentó que le impresionaban los esfuerzos de Facebook.

"Creo que hablo por un grupo de personas que alguna vez se enorgullecieron bastante de la solidez de nuestro compromiso con la libertad de expresión en las plataformas de internet", dijo. "No obstante, mis posturas ciertamente han cambiado tras un crisol de experiencias: ahora me siento feliz de que las plataformas como Facebook concentren sus recursos y energía en [combatir] propaganda maliciosa y manipuladora". (McLaughlin también fue previamente consultor de Facebook, pero ya no trabaja para esa empresa).

Sin embargo, yo soy menos optimista, porque todav√≠a no sabemos muchas cosas sobre estas pol√≠ticas y sus efectos. Facebook es una corporaci√≥n con fines de lucro que, tanto por motivos regulatorios como de imagen de marca, quiere parecer pol√≠ticamente imparcial. No obstante, si determina que algunos actores pol√≠ticos -digamos la extrema derecha en Estados Unidos o los dictadores autoritarios en otras partes- han impulsado m√°s noticias falsas que sus opositores, ¬Ņc√≥mo podemos confiar en que har√° algo al respecto?

La misma sospecha aplica a otras plataformas: aunque el presidente estadounidense, Donald Trump, probablemente viole las políticas de contenido de Twitter, se le ha permitido seguir publicando en la plataforma. Aunque imaginen la indignación si lo bloquearan.

Esto nos lleva al tema más amplio de la transparencia. Aunque las políticas escritas de Facebook son claras, la manera en que las aplica no lo es tanto. Poco se sabe, por ejemplo, sobre el ejército de trabajadores bajo contrato que la empresa emplea para revisar contenido peligroso; es decir, la gente que realmente toma las decisiones (Facebook dice que se les capacita extensamente y que sus acciones son auditadas). Además, dado que casi todo en Facebook es personalizado y que muchas de sus reglas se aplican a través de ajustes leves en su algoritmo de clasificación, el efecto general de sus políticas de contenido puede ser muy difícil de determinar para los externos.

Este problema tambi√©n se da en otras plataformas. Twitter, por ejemplo, tiene un filtro de contenido que regula qu√© tuits se muestran en tu l√≠nea de tiempo y en resultados de b√ļsquedas. No obstante, las prioridades del filtro son necesariamente secretas, porque si Twitter hace p√ļblico qu√© indicadores busca para clasificar los tuits, la gente buscar√≠a la forma de burlarlos.

"La gente trata de burlar todos los sistemas que hay", me dijo David Gasca, gerente de producto de Twitter.

Todos estos problemas tienen soluci√≥n. Las compa√Ī√≠as tecnol√≥gicas est√°n gastando enormes cantidades de dinero para mejorar y con el tiempo bien podr√≠an tener ideas innovadoras para vigilar el contenido. Por ejemplo, la decisi√≥n reciente de Facebook de liberar sus datos a un grupo de investigadores acad√©micos podr√≠a permitirnos determinar alg√ļn d√≠a, de manera emp√≠rica, qu√© efectos est√°n teniendo sus pol√≠ticas de contenido en el mundo.

A pesar de todo eso, estamos ante una encrucijada. Incluso si están trabajando con externos para crear estas políticas, cuanto más hagan estas empresas para moderar qué sucede en sus páginas, más importante se vuelven sus políticas para el discurso mundial.

A mucha gente le preocupa que Mark Zuckerberg ya sea demasiado poderoso. El peligro es que todavía no hemos visto nada.