Mises Wire

Por qué los medios sociales adoptan un enfoque de «bloquear primero, preguntar después»

Mientras que algunas personas están cada vez más preocupadas (y otras se alegran) por las implicaciones políticas de la censura en plataformas de medios sociales como Facebook y Twitter, pocas se han dedicado a analizar cómo se ha llegado a este punto y por qué las empresas de medios sociales parecen tener la misma opinión en el diseño de sus políticas. En última instancia, sin embargo, se debe a la naturaleza del actual modelo de negocio de las redes sociales.

Las empresas de redes sociales, desde Facebook y Twitter hasta Reddit y Tumblr, obtienen sus ingresos casi exclusivamente del espacio publicitario vendido para poner anuncios delante de los usuarios. Normalmente, estos aparecen como «posts patrocinados» o se denominan más directamente como anuncios en las líneas de tiempo de desplazamiento y en los «feeds de noticias». Sin embargo, los mecanismos precisos son menos importantes que el propio modelo de ingresos. Lo que se vende es el acceso al usuario, especialmente su atención, medida en forma de visitas y clics.

Estos anuncios son, naturalmente, más valiosos cuanto más gente los vea. Esto se reduce esencialmente a dos condiciones: (1) más usuarios se desplazan por más líneas de tiempo y/o (2) cada usuario pasa más tiempo en la plataforma. En lo que respecta al negocio de las redes sociales, estas son las principales métricas en las que hay que basarse, y por eso se utilizan estadísticas como «usuarios activos diarios» (DAU) o «usuarios concurrentes máximos» (PCU) para demostrar el grado de «compromiso» disponible para los anunciantes. (Twitter incluso va un paso más allá y registra estadísticas como «visualizaciones del timeline por usuario activo mensual») Estas dos condiciones, y sólo éstas, se desarrollan esencialmente en una especie de ciclo de vida de las redes sociales.

En los primeros y embriagadores días de una nueva plataforma de medios sociales, la métrica más importante de crecimiento está en condiciones (1). Necesitan que te registres. Necesitan que consigas que tus amigos se registren. Necesitan que esos amigos consigan que sus amigos se registren, y así sucesivamente. Ampliar el número de usuarios, sobre todo los que utilizan la plataforma con regularidad para ver a sus amigos, es el principal medio de expansión para una joven empresa de medios sociales, y por tanto no les conviene preocuparse por censurar a los usuarios o eliminar los «elementos desagradables» de la plataforma. Las «normas de la comunidad» suelen centrarse en comportamientos especialmente atroces y se aplican con un toque ligero.

Sin embargo, a medida que la red de la plataforma crece, su ritmo de expansión se ralentiza necesariamente. Añadir diez mil nuevos usuarios no es tan significativo cuando se tienen 1.500 millones de DAUs como cuando sólo se tienen unos pocos millones. Por tanto, la forma de aumentar los ingresos se orienta a maximizar la condición (2): conseguir que los usuarios que tienes pasen más tiempo desplazándose por la plataforma.

Esta es la etapa en la que los algoritmos que determinan lo que aparece en el feed de noticias o en el timeline adquieren una gran importancia. Se convierten, de hecho, en EL Algoritmo, ya que las cosas se ajustan para alcanzar este único propósito de conseguir que la gente pase más tiempo en la plataforma de medios sociales en cuestión. En última instancia, todo esto se reduce a apelar a sus prejuicios de confirmación, a sus aficiones y a sus principales intereses. El algoritmo divide a la gente cada vez más en grupos, de modo que cuando uno se desplaza por su feed verá un artículo tras otro que se ajusta a sus prejuicios ideológicos, a sus franquicias mediáticas favoritas, etc. Las redes sociales empiezan a ser gradualmente menos sobre la conexión con los amigos y la familia y más sobre «identidades» segmentadas y regimentadas.

La mayoría de las veces esto funciona durante un tiempo: la gente pasa más tiempo en la plataforma de medios sociales cuando ésta les muestra cosas que quieren ver. Ni siquiera hay un argumento sólido en contra de esto en este momento: aunque la gente tendía a quejarse cuando estos cambios les alejaban de las relaciones con el «mundo real», seguían utilizando las plataformas de medios sociales cada vez más. Parece que los artículos de noticias que confirman el sesgo del lector y la gente que dice cosas con las que estás de acuerdo es, en cierto nivel, lo que la gente quiere de los medios sociales.

Sin embargo, no pasa mucho tiempo antes de que el uso de las redes sociales llegue a otra etapa, en la que las imperfecciones de los algoritmos hacen que empiece a romperse. Los comentarios que cuestionan tus puntos de vista se cuelan en tu feed de noticias. Un amigo de un amigo con una opinión discrepante publica comentarios que pueden resultar molestos en respuesta a tus publicaciones. El grupo en el que estás sobre las últimas películas de Marvel empieza a convertirse en un grupo con tintes políticos, ya que los fans no están de acuerdo con la última elección del reparto o la calidad de la última película y si la política está involucrada. Las cámaras de eco no están completas, y como resultado algunas personas empiezan a buscar plataformas alternativas.

Las «normas de la comunidad» se convierten en una forma estupenda de abordar esta ruptura. Las publicaciones y los comentarios que podrían inducir a la gente a «abandonar el barco» están cada vez más prohibidos. A escala, los algoritmos están hechos para hacer cumplir estas normas, e inevitablemente están diseñados para errar en la eliminación del contenido en lugar de admitirlo. En última instancia, la eliminación puede molestar a la persona que ha publicado ese contenido, incluso hasta el punto de que abandone el servicio, pero la asimetría de los múltiples espectadores de cualquier publicación o comentario hace que la aplicación se incline naturalmente hacia un estilo de «bloquear primero, preguntar después».

Estas «normas de la comunidad» son, inevitablemente, creadas y aplicadas por individuos con prejuicios (o algoritmos creados por dichos individuos con prejuicios) y, por lo tanto, adoptan naturalmente estos prejuicios y los consolidan en las políticas. Aquellos que comparten los prejuicios rápidamente llegan a ver estas políticas como una eliminación razonable y justa de contenidos altamente ofensivos, mientras que los que no las ven como plagadas de dobles estándares y aplicación selectiva. En última instancia, dependiendo de lo «activistas» que sean estos individuos, pueden incluso imponer intencionadamente una visión del mundo deseada a través del diseño y la aplicación de las normas.

Al final, este poder sobre las redes sociales empieza a resquebrajarse inevitablemente a medida que más personas son censuradas o eliminadas de la plataforma, las voces más destacadas buscan alternativas que se encuentran en una fase más temprana y no censuran tanto, y la fragmentación empieza a hacer que el servicio sea menos útil e interesante en lugar de ser una fuente de afirmación y buenos sentimientos. La respuesta natural de un gigante de las redes sociales en esta fase es empezar a tomar medidas anticompetitivas: impulsar una regulación que las pequeñas empresas no podrían permitirse cumplir, pintar la censura como algo deseable y necesario mientras se trabaja para «desplantar» a los competidores que «no hacen lo suficiente» (el ejemplo más fuerte son las respuestas de los gigantes tecnológicos a Parler a principios de 2021), etc. Que esto funcione, y por cuánto tiempo, depende de las respuestas de los consumidores y de los gobiernos, que todavía estamos viendo cómo se desarrollan en el momento de escribir este artículo.

Dentro del paradigma de las empresas de medios sociales centralizadas que se basan en la publicidad, no hay una salida real de este ciclo de vida. La buena noticia es que estas empresas no son la única vía hacia lo que proporcionan los medios sociales. Existen alternativas descentralizadas que permiten redes «autoalojadas» que pueden superponerse y comunicarse entre sí. Aplicaciones de mensajería como Signal permiten la creación de grupos, que dan lugar a salas de chat continuas que permiten la creación de redes y comunidades a pequeña escala. Surgen empresas como MeWe que consideran que los usuarios son los clientes, obteniendo sus ingresos no de la publicidad sino de las suscripciones de los clientes, los complementos, etc. Estas alternativas no son una panacea, pero presentan una alternativa significativa que no está obligada a caer en la trampa del «crecimiento continuo» que los gigantes de las redes sociales con ingresos por publicidad deben necesariamente para mantener los precios de las acciones y los ingresos. Esto (y, sobre todo, el hecho de que no haya regulaciones gubernamentales que los gigantes de las redes sociales desean realmente) supone un rayo de esperanza para el futuro de las redes sociales.

Publicado originalmente en Disinthrallment.com.

image/svg+xml
Note: The views expressed on Mises.org are not necessarily those of the Mises Institute.
What is the Mises Institute?

The Mises Institute is a non-profit organization that exists to promote teaching and research in the Austrian School of economics, individual freedom, honest history, and international peace, in the tradition of Ludwig von Mises and Murray N. Rothbard. 

Non-political, non-partisan, and non-PC, we advocate a radical shift in the intellectual climate, away from statism and toward a private property order. We believe that our foundational ideas are of permanent value, and oppose all efforts at compromise, sellout, and amalgamation of these ideas with fashionable political, cultural, and social doctrines inimical to their spirit.

Become a Member
Mises Institute