|
Social unrest … 'Emotional contagion is
what we used to call "empathy".' Photograph: Dado Ruvic/Reuters
|
Time for the emperors-in-waiting who run Facebook to
just admit they're evil
Facebook's emotion
study reveals it is hopelessly disconnected from emotional reality: that people
get upset when people they care about are unhappy
Charlie Brooker
This weekend we learned that Facebook had
deliberately manipulated the emotional content of 689,003 users' news feeds as
part of an experiment to see what kind of psychological impact it would have.
For one week in January 2012, some users saw chiefly positive stories (kitten
videos, brownie recipes and assorted LOLs), while others were force-fed despair
(breakups, health woes and seal-clubbing holiday snaps). And guess what
happened?
"The results show emotional
contagion," decided the scientists.
Emotional contagion is what we used to call
"empathy".
"When positive expressions were
reduced, people produced fewer positive posts and more negative posts; when
negative expressions were reduced, the opposite pattern occurred. These results
indicate that emotions expressed by others on Facebook influence our own
emotions."
In other words, the fine folk at Facebook
are so hopelessly disconnected from ground-level emotional reality they have to
employ a team of scientists to run clandestine experiments on hundreds of
thousands of their "customers" to discover that human beings get
upset when other human beings they care about are unhappy.
But wait! It doesn't end there. They also
coolly note that their fun test provides "experimental evidence for
massive-scale contagion via social networks". At least we can draw comfort
from the fact that this terrifying power to sway the emotional state of
millions is in the right hands: an anonymous cabal of secret experimenters who
don't know what "empathy" is.
Other experiments Facebook has been
conducting in secret almost certainly include the following:
1) Dishonestly convincing a randomly
targeted user that one of their siblings has just died, in order to see what
their face does. Conclusion: it leaks fluid from the nasolacrimal ducts and
emits an ape-like cry believed to denote personal anguish.
2) Secretly activating random users'
webcams in the runup to bedtime to determine what a human being looks like when
it sheds its external fabric layer.
3) Dispatching an intern to kidnap and
blindfold a random user, drag them to a forest, force them at gunpoint to dig
their own grave, shoot them in the back of the head, cover the body with soil,
drive away at speed and lie low in a motel for a few weeks to discover if
they're really cut out for this shit.
4) Igniting a global race war using
animated gifs.
Facebook's sinister mass manipulation may
be chilling but it's hardly surprising. We don't use the internet; it uses us,
and the more personalised any online service appears to be, the less it thinks
of you as a person. The experiment is evidence that you and your hopes and
dreams are nothing but a miniscule, malleable blip as far as Facebook is
concerned: a pocket-sized data mine with functioning nostrils.
They're all at it. Google tracks your every
move, knows where you live, and is probably about to send a driverless van
round to take you to work in its silicon mine. Amazon plans to launch drones
that'll fly over your garden dropping packages containing
algorithmically-selected items you haven't even ordered yet onto the heads of
your children. Netflix knows damn well you rewound the film to look at that
actor's bum, and it'll email your parents right now to tell them unless you
agree to a 40% price hike.
I jest. Just. But such a world is clearly
inbound, even if it's not always clear whether the mass manipulation is
deliberate or not. Take Twitter. Twitter recently updated its iPhone app, so
now it automatically notifies you when certain events occur, whether you're
using it at the time or not. So if lots of people retweet something you've
said, or a celebrity mentions you, it'll interrupt whatever you're doing with
the equivalent of a text message. You're trending in Bristol! Kevin Spacey favourited your tweet!
It's a pat on the head; a reinforcement. You did good. Have a marshmallow.
It's a positive reinforcement system: one
that, over time, seems doomed to subtly mould the personality the user projects
online, like a stream gradually sculpting a pebble. And it's not just about
social approval. Aside from humour, the best way to guarantee a reaction is to
provoke others – either in agreement or disagreement. Rather than bringing us
together, it seems almost perfectly designed to encourage polarisation. The end
result: diametrically opposed networks of nudged and prodded pebble people
gently rattling together in agreement, clashing loudly when they encounter
dissent.
That's depressing. So you go on Facebook to
complain about it. To warn humankind. But it seems humankind doesn't want to
know. All you see is a steady stream of your friends leaping about on bouncy
castles, "liking" things and posting the sunniest Carpenters' lyrics
they can think of. The positive imagery enters your bloodstream and you start
to feel better. You put your feet up and forget about it. You update your
status to "lovin' life!!!!!" and munch a chocolate biscuit. And somewhere
in Facebook boss Mark Zuckerberg's underground control centre, one more tiny
pixel in the immense constellation of human data points that sprawls like a
wondrous cloud galaxy across a wall of screens the size of the Hoover dam winks
from red to green, taking him one further microscopic step toward what he
secretly likes to think of as "phase two".
O Facebook manipula o nosso feed.
E se fizer o mesmo connosco?
HUGO TORRES
30/06/2014 - PÚBLICO
Quase 700 mil utilizadores da rede social foram submetidos a um teste
comportamental sem o seu conhecimento. Uma prática eticamente questionável.
Há anos que a
influência das redes sociais no comportamento humano, dentro e fora da
Internet, tem sido estudada por todo o mundo. Os resultados têm mostrado, até
agora, que existe uma relação entre as acções dos utilizadores dessas redes e o
contexto a que nelas são expostos. Agora, a maior de todas elas, o Facebook,
decidiu contribuir para o debate académico. Mas não se limitou a observar:
decidiu manipular os seus utilizadores. E à revelia.
O Facebook dividiu
689.003 utilizadores em dois grupos e filtrou o tipo de conteúdo que cada um
deles recebeu no seu “feed de notícias” durante uma semana: uns receberam menos
conteúdo “positivo” do que o habitual; os outros, menos publicações
“negativas”. O objectivo era perceber se a exposição a conteúdos ligeiramente
diferentes afectava o comportamento dos sujeitos da experiência na mesma rede
social. Alterou, ainda que de forma pouco significativa.
Os autores do
estudo – Adam Kramer, do departamento de investigação do Facebook; Jamie
Guillory, da Universidade da Califórnia; e Jeffrey Hancock, da Universidade de
Cornell – argumentam que “os estados emocionais podem ser transferidos para
outras pessoas através do contágio emocional”. E dizem que o estudo o prova.
Contudo, o que a experiência mostra é apenas que o comportamento dos
utilizadores foi alterado pelas modificações introduzidas.
O que se
verificou foi um decréscimo de 0,1% no número de “palavras positivas”, no grupo
dos utilizadores que viram reduzidas as publicações com o mesmo tipo de
vocábulos no seu feed, e uma diminuição de 0,07% no total de “palavras
negativas” entre os que foram menos expostos a esse tipo de conteúdos. Ao todo,
foram analisadas mais de três milhões de publicações (posts), contendo mais de
122 milhões de palavras – 3,6% das quais negativas e 1,6% positivas.
O artigo foi
publicado, de forma discreta, na revista Proceedings of the National Academy of
Sciences (PNAS) de 17 de Junho. A imprensa norte-americana só lhe deu destaque
neste fim-de-semana, mas assim que o fez irromperam as críticas severas.
Internautas e académicos mostraram-se estupefactos por o Facebook submeter
pessoas a testes de manipulação psicológica sem o seu “consentimento
informado”, como exige a lei nos EUA desde 1981.
O Facebook
respondeu às acusações de falta de ética através de um porta-voz, que disse à
Forbes: “Reflectimos cuidadosamente sobre as pesquisas que fazemos e temos um
forte processo de análise interna. Não há recolha desnecessária de informação
das pessoas com estas iniciativas de investigação e toda a informação é
conservada em segurança.” Os participantes foram seleccionados aleatoriamente
de entre os que então usavam a rede em inglês.
No entanto, o que
está em causa não é a privacidade. É o facto de se terem manipulado seres
humanos sem pelo menos os informar no final, como a lei norte-americana impõe
que se faça quando estudos de evidente interesse público só são exequíveis sem
o conhecimento dos sujeitos. A esse propósito, a empresa entende que todos os seus
utilizadores deram o seu consentimento no momento em que aceitaram as condições
de utilização para criar um perfil no site.
James
Grimmelmann, professor de Direito da Universidade de Maryland, defende que esse
“consentimento” é uma “ficção legal, concebida para facilitar as interacções
online”. A política de utilização de dados do Facebook – bem mais extensa do
que o artigo publicado na PNAS – não inclui uma descrição com os procedimentos
deste ou de outros estudos, nada diz sobre possíveis riscos e não permite que
se opte por não participar.
“O Facebook
escolheu caminhar num campo de minas legal e ético; devemos sentir pouca
compaixão quando ocasionalmente explode”, acrescentou Grimmelmann, no seu
blogue. O próprio Adam Kramer, co-autor do estudo, acabou por reconhecer que
“os benefícios da investigação talvez não tenham justificado toda a ansiedade”
gerada à volta do artigo.
O feed de
notícias, onde lemos actualizações de amigos e páginas, é gerado
individualmente a partir de um algoritmo. Não é a rede tal como a veríamos sem
filtros. Se já existiam críticas ao afunilamento da realidade que provoca,
agora os receios agravam-se. Não só por poderem vir a ser introduzidas
variantes ao algoritmo que nos atirem para uma ficção distópica huxleyana, mas
por a reacção a este estudo poder inibir o Facebook de publicitar os testes que
levar a cabo no futuro. Como é uma empresa privada, não necessita de aprovação
de uma comissão de ética.