Jornada 25 Aniversario Asociacion de Internautas


La dudosa ética de hacer experimentos psicológicos con tus usuarios


A través de una publicación en un journal científico, titulada “Experimental evidence of massive-scale emotional contagion through social networks“, hemos sabido que al menos un investigador del Core Data Scientist Team de Facebook, Adam D. I. Kramer, ha participado en un experimento que muchos considerarán aterrador: la manipulación del estado de ánimo de los usuarios de Facebook mediante el filtrado intencionado de las actualizaciones en su muro.





La situación es la siguiente: durante una semana en enero de 2012, un total de casi setecientos mil usuarios de Facebook fueron, sin mediar consentimiento alguno de su parte, sometidos a un experimento psicológico: las actualizaciones de sus amigos que aparecían en sus muros fueron intencionadamente filtradas para mostrar de manera mayoritaria estados en los que predominaban palabras o connotaciones positivas, mientras otro grupo lo fue con palabras o connotaciones fundamentalmente negativas. Al cabo de la semana, se evaluó hasta qué punto esos usuarios tenían una probabilidad más elevada de compartir actualizaciones con tonos respectivamente positivos o negativos.

El experimento es sencillo: comprobar el nivel de influencia que la información compartida en su entorno social virtual ejerce sobre el estado de ánimo. Tan sencillo como esto:

Emotional states can be transferred to others via emotional contagion, leading them to experience the same emotions as those around them (…) This research demonstrated that (i) emotional contagion occurs via text-based computer-mediated communication; (ii) contagion of psychological and physiological qualities has been suggested based on correlational data for social networks generally; and (iii) people’s emotional expressions on Facebook predict friends’ emotional expressions, even days later.

Pero indudablemente, y dicho por la propia editora de la revista que aprobó su publicación, resulta también profundamente inquietante. Jugar a programador de estados de ánimo, con personas. Setecientas mil personas manipuladas durante una semana para lograr que su estado de ánimo tuviese un componente más negativo o positivo. Algunos de los afectados podrían, posiblemente, ayudados por un calendario y por su propia timeline en Facebook, tratar de recordar aquella semana de enero de 2012, tratar de asociarla con otros eventos que tuvieron lugar en su vida personal, y pensar que, en efecto, estaban siendo condicionados por Facebook, que la red estaba tratando de influir en su estado de ánimo.

Algo que, por otro lado, nos permite imaginar infinitas posibilidades más: ¿por qué no generar artificialmente estados de ánimo de determinados tipos entre los usuarios para, por ejemplo, hacer que tengan una mayor propensión a adquirir productos o servicios, a contratar un seguro de vida, a irse de viaje? ¿Para cuándo un estudio que demuestre que si saturamos el muro de un usuario con actualizaciones sobre viajes de todos sus amigos, conseguimos que se vaya corriendo a contratar un viaje él mismo? Y ya que estamos, ¿le ponemos precio y lo comercializamos a las aerolíneas y cadenas de hoteles? ¿Por qué no generar estados de ánimo par tratar de influir en los resultados de unas elecciones? ¿Cómo puede afectar un estado de ánimo predominantemente positivo o negativo en los ciudadanos que se acercan a votar a un colegio electoral?

Con este experimento, Facebook cruza una línea roja que muchos, sin duda, van a considerar completamente inaceptable: la de la experimentación con sus propios usuarios. Todas las empresas que reciben datos de sus usuarios analizan esos datos, y habitualmente, además, dan difusión a muchos de sus hallazgos. Analizar datos producidos de manera espontánea o generados por un factor externo independiente es algo que a muy pocos va a molestar: que se pueda ver hasta qué punto ha influenciado lo compartido por los usuarios en una red una noticia buena o mala, o incluso cuestiones directas y personales. Si este experimento hubiese tenido lugar seleccionando usuarios que de manera natural estuviesen sometidos a una mayoría de actualizaciones positivas o negativas en su muro, no tendría personalmente ningún problema con él. Es el componente de manipulación, de filtrado voluntario, el que me incomoda profundamente, el que me lleva a ver a Facebook como un enorme manipulador, como la empresa que tiene una puerta de entrada a nuestro cerebro, que puede llegar a ser capaz de programarnos, de producir un efecto en nuestro estado de ánimo… y lo que es mucho peor, que no solo tiene esa facultad, sino que además va y la utiliza.

Tras una constatación así, Facebook merecería que todos sus usuarios le diesen la espalda. No es de recibo que por el simple hecho de utilizar una plataforma para compartir voluntariamente determinados aspectos de tu vida con tus amigos, te encuentres de repente y sin tu conocimiento sometido a un experimento manipulador de tu estado de ánimo. Es completamente inaceptable, y debería determinar no solo que toda la cadena de mando que aprobó este experimento fuese inmediatamente despedida, sino que se llevase a cabo una rigurosísima auditoría que tratase de determinar qué otros experimentos han sido realizados por la compañía, como quién audita a una especie de Dr. Mengele. Y si eso lo pienso yo, que en principio soy un científico inclinado a justificar la investigación y una persona que tiende a tener una opinión generalmente positiva sobre Facebook y sobre otras empresas que intentan plantear herramientas innovadoras, no quiero ni pensar cómo se sentirán todos aquellos que de manera natural tienden a tener una visión pesimista o escéptica.

El experimento de Facebook incide en esas percepciones: ahora, cualquier usuario de la red social tiene todo el derecho del mundo a imaginarse manipulado, a pensar que está participando en otro experimento, a verse como un conejillo de indias con su cerebro en manos de otro científico loco. Completamente inaceptable y gravísimo, independientemente de lo que diga la legalidad y los términos de servicio de la compañía. Quien haya autorizado o participado en esto, tiene un serio problema de valores. Y de ética.

 

ACTUALIZACIÓN: ya hay reacciones, desde una disculpa/justificación del autor del estudio en Facebook, hasta apoyos al concepto de A/B testing. Ninguna de ellas me convence por el momento. Sigo pensando que estuvo mal, y que no es en modo alguno justificable.

 

(This article is also available in English in my Medium page, “Facebook crosses the line into mind control territory“) Reproducido del blog de Enrique Dans


pdfprintpmail