segunda-feira, 30 de junho de 2014

Time for the emperors-in-waiting who run Facebook to just admit they're evil/ Guardian. O Facebook manipula o nosso feed. E se fizer o mesmo connosco? / PÚBLICO

Social unrest … 'Emotional contagion is what we used to call "empathy".' Photograph: Dado Ruvic/Reuters
Time for the emperors-in-waiting who run Facebook to just admit they're evil
Facebook's emotion study reveals it is hopelessly disconnected from emotional reality: that people get upset when people they care about are unhappy
Charlie Brooker

This weekend we learned that Facebook had deliberately manipulated the emotional content of 689,003 users' news feeds as part of an experiment to see what kind of psychological impact it would have. For one week in January 2012, some users saw chiefly positive stories (kitten videos, brownie recipes and assorted LOLs), while others were force-fed despair (breakups, health woes and seal-clubbing holiday snaps). And guess what happened?

"The results show emotional contagion," decided the scientists.

Emotional contagion is what we used to call "empathy".

"When positive expressions were reduced, people produced fewer positive posts and more negative posts; when negative expressions were reduced, the opposite pattern occurred. These results indicate that emotions expressed by others on Facebook influence our own emotions."

In other words, the fine folk at Facebook are so hopelessly disconnected from ground-level emotional reality they have to employ a team of scientists to run clandestine experiments on hundreds of thousands of their "customers" to discover that human beings get upset when other human beings they care about are unhappy.

But wait! It doesn't end there. They also coolly note that their fun test provides "experimental evidence for massive-scale contagion via social networks". At least we can draw comfort from the fact that this terrifying power to sway the emotional state of millions is in the right hands: an anonymous cabal of secret experimenters who don't know what "empathy" is.

Other experiments Facebook has been conducting in secret almost certainly include the following:

1) Dishonestly convincing a randomly targeted user that one of their siblings has just died, in order to see what their face does. Conclusion: it leaks fluid from the nasolacrimal ducts and emits an ape-like cry believed to denote personal anguish.

2) Secretly activating random users' webcams in the runup to bedtime to determine what a human being looks like when it sheds its external fabric layer.

3) Dispatching an intern to kidnap and blindfold a random user, drag them to a forest, force them at gunpoint to dig their own grave, shoot them in the back of the head, cover the body with soil, drive away at speed and lie low in a motel for a few weeks to discover if they're really cut out for this shit.

4) Igniting a global race war using animated gifs.

Facebook's sinister mass manipulation may be chilling but it's hardly surprising. We don't use the internet; it uses us, and the more personalised any online service appears to be, the less it thinks of you as a person. The experiment is evidence that you and your hopes and dreams are nothing but a miniscule, malleable blip as far as Facebook is concerned: a pocket-sized data mine with functioning nostrils.

They're all at it. Google tracks your every move, knows where you live, and is probably about to send a driverless van round to take you to work in its silicon mine. Amazon plans to launch drones that'll fly over your garden dropping packages containing algorithmically-selected items you haven't even ordered yet onto the heads of your children. Netflix knows damn well you rewound the film to look at that actor's bum, and it'll email your parents right now to tell them unless you agree to a 40% price hike.

I jest. Just. But such a world is clearly inbound, even if it's not always clear whether the mass manipulation is deliberate or not. Take Twitter. Twitter recently updated its iPhone app, so now it automatically notifies you when certain events occur, whether you're using it at the time or not. So if lots of people retweet something you've said, or a celebrity mentions you, it'll interrupt whatever you're doing with the equivalent of a text message. You're trending in Bristol! Kevin Spacey favourited your tweet! It's a pat on the head; a reinforcement. You did good. Have a marshmallow.

It's a positive reinforcement system: one that, over time, seems doomed to subtly mould the personality the user projects online, like a stream gradually sculpting a pebble. And it's not just about social approval. Aside from humour, the best way to guarantee a reaction is to provoke others – either in agreement or disagreement. Rather than bringing us together, it seems almost perfectly designed to encourage polarisation. The end result: diametrically opposed networks of nudged and prodded pebble people gently rattling together in agreement, clashing loudly when they encounter dissent.


That's depressing. So you go on Facebook to complain about it. To warn humankind. But it seems humankind doesn't want to know. All you see is a steady stream of your friends leaping about on bouncy castles, "liking" things and posting the sunniest Carpenters' lyrics they can think of. The positive imagery enters your bloodstream and you start to feel better. You put your feet up and forget about it. You update your status to "lovin' life!!!!!" and munch a chocolate biscuit. And somewhere in Facebook boss Mark Zuckerberg's underground control centre, one more tiny pixel in the immense constellation of human data points that sprawls like a wondrous cloud galaxy across a wall of screens the size of the Hoover dam winks from red to green, taking him one further microscopic step toward what he secretly likes to think of as "phase two".



O Facebook manipula o nosso feed. E se fizer o mesmo connosco?
HUGO TORRES 30/06/2014 - PÚBLICO
Quase 700 mil utilizadores da rede social foram submetidos a um teste comportamental sem o seu conhecimento. Uma prática eticamente questionável.

Há anos que a influência das redes sociais no comportamento humano, dentro e fora da Internet, tem sido estudada por todo o mundo. Os resultados têm mostrado, até agora, que existe uma relação entre as acções dos utilizadores dessas redes e o contexto a que nelas são expostos. Agora, a maior de todas elas, o Facebook, decidiu contribuir para o debate académico. Mas não se limitou a observar: decidiu manipular os seus utilizadores. E à revelia.

O Facebook dividiu 689.003 utilizadores em dois grupos e filtrou o tipo de conteúdo que cada um deles recebeu no seu “feed de notícias” durante uma semana: uns receberam menos conteúdo “positivo” do que o habitual; os outros, menos publicações “negativas”. O objectivo era perceber se a exposição a conteúdos ligeiramente diferentes afectava o comportamento dos sujeitos da experiência na mesma rede social. Alterou, ainda que de forma pouco significativa.

Os autores do estudo – Adam Kramer, do departamento de investigação do Facebook; Jamie Guillory, da Universidade da Califórnia; e Jeffrey Hancock, da Universidade de Cornell – argumentam que “os estados emocionais podem ser transferidos para outras pessoas através do contágio emocional”. E dizem que o estudo o prova. Contudo, o que a experiência mostra é apenas que o comportamento dos utilizadores foi alterado pelas modificações introduzidas.

O que se verificou foi um decréscimo de 0,1% no número de “palavras positivas”, no grupo dos utilizadores que viram reduzidas as publicações com o mesmo tipo de vocábulos no seu feed, e uma diminuição de 0,07% no total de “palavras negativas” entre os que foram menos expostos a esse tipo de conteúdos. Ao todo, foram analisadas mais de três milhões de publicações (posts), contendo mais de 122 milhões de palavras – 3,6% das quais negativas e 1,6% positivas.

O artigo foi publicado, de forma discreta, na revista Proceedings of the National Academy of Sciences (PNAS) de 17 de Junho. A imprensa norte-americana só lhe deu destaque neste fim-de-semana, mas assim que o fez irromperam as críticas severas. Internautas e académicos mostraram-se estupefactos por o Facebook submeter pessoas a testes de manipulação psicológica sem o seu “consentimento informado”, como exige a lei nos EUA desde 1981.

O Facebook respondeu às acusações de falta de ética através de um porta-voz, que disse à Forbes: “Reflectimos cuidadosamente sobre as pesquisas que fazemos e temos um forte processo de análise interna. Não há recolha desnecessária de informação das pessoas com estas iniciativas de investigação e toda a informação é conservada em segurança.” Os participantes foram seleccionados aleatoriamente de entre os que então usavam a rede em inglês.

No entanto, o que está em causa não é a privacidade. É o facto de se terem manipulado seres humanos sem pelo menos os informar no final, como a lei norte-americana impõe que se faça quando estudos de evidente interesse público só são exequíveis sem o conhecimento dos sujeitos. A esse propósito, a empresa entende que todos os seus utilizadores deram o seu consentimento no momento em que aceitaram as condições de utilização para criar um perfil no site.

James Grimmelmann, professor de Direito da Universidade de Maryland, defende que esse “consentimento” é uma “ficção legal, concebida para facilitar as interacções online”. A política de utilização de dados do Facebook – bem mais extensa do que o artigo publicado na PNAS – não inclui uma descrição com os procedimentos deste ou de outros estudos, nada diz sobre possíveis riscos e não permite que se opte por não participar.

“O Facebook escolheu caminhar num campo de minas legal e ético; devemos sentir pouca compaixão quando ocasionalmente explode”, acrescentou Grimmelmann, no seu blogue. O próprio Adam Kramer, co-autor do estudo, acabou por reconhecer que “os benefícios da investigação talvez não tenham justificado toda a ansiedade” gerada à volta do artigo.


O feed de notícias, onde lemos actualizações de amigos e páginas, é gerado individualmente a partir de um algoritmo. Não é a rede tal como a veríamos sem filtros. Se já existiam críticas ao afunilamento da realidade que provoca, agora os receios agravam-se. Não só por poderem vir a ser introduzidas variantes ao algoritmo que nos atirem para uma ficção distópica huxleyana, mas por a reacção a este estudo poder inibir o Facebook de publicitar os testes que levar a cabo no futuro. Como é uma empresa privada, não necessita de aprovação de uma comissão de ética.

Sem comentários: