Asociación de Internautas

Logo 1

La dudosa ética de hacer experimentos psicológicos con tus usuarios


A trav√©s de una publicaci√≥n en un journal cient√≠fico, titulada ¬ďExperimental evidence of massive-scale emotional contagion through social networks¬ď, hemos sabido que al menos un investigador del Core Data Scientist Team de Facebook, Adam D. I. Kramer, ha participado en un experimento que muchos considerar√°n aterrador: la manipulaci√≥n del estado de √°nimo de los usuarios de Facebook mediante el filtrado intencionado de las actualizaciones en su muro.


La situación es la siguiente: durante una semana en enero de 2012, un total de casi setecientos mil usuarios de Facebook fueron, sin mediar consentimiento alguno de su parte, sometidos a un experimento psicológico: las actualizaciones de sus amigos que aparecían en sus muros fueron intencionadamente filtradas para mostrar de manera mayoritaria estados en los que predominaban palabras o connotaciones positivas, mientras otro grupo lo fue con palabras o connotaciones fundamentalmente negativas. Al cabo de la semana, se evaluó hasta qué punto esos usuarios tenían una probabilidad más elevada de compartir actualizaciones con tonos respectivamente positivos o negativos.

El experimento es sencillo: comprobar el nivel de influencia que la información compartida en su entorno social virtual ejerce sobre el estado de ánimo. Tan sencillo como esto:

Emotional states can be transferred to others via emotional contagion, leading them to experience the same emotions as those around them (¬Ö) This research demonstrated that (i) emotional contagion occurs via text-based computer-mediated communication; (ii) contagion of psychological and physiological qualities has been suggested based on correlational data for social networks generally; and (iii) people¬ís emotional expressions on Facebook predict friends¬í emotional expressions, even days later.

Pero indudablemente, y dicho por la propia editora de la revista que aprobó su publicación, resulta también profundamente inquietante. Jugar a programador de estados de ánimo, con personas. Setecientas mil personas manipuladas durante una semana para lograr que su estado de ánimo tuviese un componente más negativo o positivo. Algunos de los afectados podrían, posiblemente, ayudados por un calendario y por su propia timeline en Facebook, tratar de recordar aquella semana de enero de 2012, tratar de asociarla con otros eventos que tuvieron lugar en su vida personal, y pensar que, en efecto, estaban siendo condicionados por Facebook, que la red estaba tratando de influir en su estado de ánimo.

Algo que, por otro lado, nos permite imaginar infinitas posibilidades m√°s: ¬Ņpor qu√© no generar artificialmente estados de √°nimo de determinados tipos entre los usuarios para, por ejemplo, hacer que tengan una mayor propensi√≥n a adquirir productos o servicios, a contratar un seguro de vida, a irse de viaje? ¬ŅPara cu√°ndo un estudio que demuestre que si saturamos el muro de un usuario con actualizaciones sobre viajes de todos sus amigos, conseguimos que se vaya corriendo a contratar un viaje √©l mismo? Y ya que estamos, ¬Ņle ponemos precio y lo comercializamos a las aerol√≠neas y cadenas de hoteles? ¬ŅPor qu√© no generar estados de √°nimo par tratar de influir en los resultados de unas elecciones? ¬ŅC√≥mo puede afectar un estado de √°nimo predominantemente positivo o negativo en los ciudadanos que se acercan a votar a un colegio electoral?

Con este experimento, Facebook cruza una l√≠nea roja que muchos, sin duda, van a considerar completamente inaceptable: la de la experimentaci√≥n con sus propios usuarios. Todas las empresas que reciben datos de sus usuarios analizan esos datos, y habitualmente, adem√°s, dan difusi√≥n a muchos de sus hallazgos. Analizar datos producidos de manera espont√°nea o generados por un factor externo independiente es algo que a muy pocos va a molestar: que se pueda ver hasta qu√© punto ha influenciado lo compartido por los usuarios en una red una noticia buena o mala, o incluso cuestiones directas y personales. Si este experimento hubiese tenido lugar seleccionando usuarios que de manera natural estuviesen sometidos a una mayor√≠a de actualizaciones positivas o negativas en su muro, no tendr√≠a personalmente ning√ļn problema con √©l. Es el componente de manipulaci√≥n, de filtrado voluntario, el que me incomoda profundamente, el que me lleva a ver a Facebook como un enorme manipulador, como la empresa que tiene una puerta de entrada a nuestro cerebro, que puede llegar a ser capaz de programarnos, de producir un efecto en nuestro estado de √°nimo¬Ö y lo que es mucho peor, que no solo tiene esa facultad, sino que adem√°s va y la utiliza.

Tras una constataci√≥n as√≠, Facebook merecer√≠a que todos sus usuarios le diesen la espalda. No es de recibo que por el simple hecho de utilizar una plataforma para compartir voluntariamente determinados aspectos de tu vida con tus amigos, te encuentres de repente y sin tu conocimiento sometido a un experimento manipulador de tu estado de √°nimo. Es completamente inaceptable, y deber√≠a determinar no solo que toda la cadena de mando que aprob√≥ este experimento fuese inmediatamente despedida, sino que se llevase a cabo una riguros√≠sima auditor√≠a que tratase de determinar qu√© otros experimentos han sido realizados por la compa√Ī√≠a, como qui√©n audita a una especie de Dr. Mengele. Y si eso lo pienso yo, que en principio soy un cient√≠fico inclinado a justificar la investigaci√≥n y una persona que tiende a tener una opini√≥n generalmente positiva sobre Facebook y sobre otras empresas que intentan plantear herramientas innovadoras, no quiero ni pensar c√≥mo se sentir√°n todos aquellos que de manera natural tienden a tener una visi√≥n pesimista o esc√©ptica.

El experimento de Facebook incide en esas percepciones: ahora, cualquier usuario de la red social tiene todo el derecho del mundo a imaginarse manipulado, a pensar que est√° participando en otro experimento, a verse como un conejillo de indias con su cerebro en manos de otro cient√≠fico loco. Completamente inaceptable y grav√≠simo, independientemente de lo que diga la legalidad y los t√©rminos de servicio de la compa√Ī√≠a. Quien haya autorizado o participado en esto, tiene un serio problema de valores. Y de √©tica.

 

ACTUALIZACI√ďN: ya hay reacciones, desde una disculpa/justificaci√≥n del autor del estudio en Facebook, hasta apoyos al concepto de A/B testing. Ninguna de ellas me convence por el momento. Sigo pensando que estuvo mal, y que no es en modo alguno justificable.

 

(This article is also available in English in my Medium page, ¬ďFacebook crosses the line into mind control territory¬ď) Reproducido del blog de Enrique Dans