Zeldzame goede zetjes
Samenvatting
Hoe zetten bedrijven informatietechnologie in om het denken en gedrag van werknemers of consumenten te beïnvloeden? Aan de voorwaarden voor nudges for good wordt al te vaak niet voldaan. Om een menswaardige inzet van verleidende, gedragsbeïnvloedende technologie te waarborgen zijn twee nieuwe mensenrechten nodig: het recht om niet gemeten, geanalyseerd en gecoacht te worden, en het recht op betekenisvol menselijk contact.
Natuur vergroot de productiviteit en het welzijn van medewerkers.1 Slimme bedrijven rusten daarom hun kantoren uit met planten, laten bureaus op parkjes uitkijken en creëren buiten groene plekken. Deze nudges – een kleine verandering in de context die kan leiden tot gedragsverandering – betreffen een verandering van de materiële omgeving. Het fysieke karakter zorgt ervoor dat ze voor iedereen zichtbaar en hetzelfde zijn. De econoom Richard H. Thaler noemt dergelijke ingrepen nudges for good:2 ze zijn transparant en misleiden dus niemand, zijn gemakkelijk te vermijden en hebben een positief effect op het welzijn van mensen. Het gebruik van digitale beïnvloedingstechnieken door bedrijven voldoet te vaak niet aan deze voorwaarden. De technieken zijn vaak ondoorzichtig, moeilijk vermijdbaar en niet gericht op het welzijn van de gebruiker.
Online beïnvloedingsdomeinen en -technieken
Het afgelopen decennium is het internet voor bedrijven geworden tot een walhalla voor het massaal volgen van het gedrag van mensen, het massaal analyseren van menselijk gedrag, en het massaal testen en toepassen van zogenoemde persuasieve technieken om het gedrag van mensen te beïnvloeden.3 In de digitale wereld is het vaak makkelijk om kleine aanpassingen door te voeren. Op het internet zijn bedrijven in staat om het effect daarvan op gebruikers te meten, dat te analyseren en op basis daarvan de app of website wederom aan te passen. Met deze feedbacklussen – het continu herhalen van de voornoemde opeenvolging van meten, analyseren en beïnvloeden – kunnen bedrijven het succes van beïnvloeding meten en optimaliseren. Inmiddels is er een miljardenindustrie rondom beïnvloeding ontstaan. Veel bedrijven maken bijvoorbeeld gebruik van A/B-experimenten, waarbij men test welke van twee versies van een webpagina het effectiefst is. Een klein kleuraccent vergroot mogelijk een beetje de kans dat een consument het product daadwerkelijk koopt. Bij duizenden klanten kan een dergelijk klein verschil toch veel profijt opleveren. Bedrijven gebruiken verschillende digitale beïnvloedingstechnieken, zoals reductie, tunnelen, personaliseren, suggesties doen, zelfmonitoring, surveillance en conditioneren (zie kader).
Fogg4 identificeert zeven manieren om via computers gebruikers te beïnvloeden. Bedrijven kunnen meerdere technieken op hetzelfde platform toepassen:
Reductie: het reduceren van een complexe activiteit tot simpele stappen.
Tunnelen: het leiden van gebruikers langs een vooraf bepaalde reeks van acties of gebeurtenissen.
Op maat maken: het aanpassen van informatie om het relevanter voor de gebruiker te maken.
Suggesties doen: op het juiste moment interveniëren of suggereren dat dit het juiste moment is.
Zelfmonitoring: het volgen van het eigen gedrag om zichzelf te meten en te verbeteren.
Surveillance: het meten en vergelijken van het gedrag van anderen om ze het te laten veranderen.
Conditioneren: het leveren van reeksen van prikkels en antwoorden om zo mensen gewenst gedrag aan te leren.
Bedrijven zetten technologieën in om het gedrag van hun werknemers en klanten (ongevraagd of gevraagd) te beïnvloeden. Uber, een platform waarop chauffeurs vervoersdiensten aanbieden, gebruikt bijvoorbeeld reviews om hun systeem voor klanten betrouwbaarder te maken. Op basis van deze reviews geeft het taxichauffeurs suggesties om hun service te verbeteren. Uber behoudt zich het recht voor om een profiel te deactiveren als de gemiddelde beoordelingsscore gemiddeld lager uitvalt dan 4.6 uit 5 sterren.5 Via op maat gesneden berichten of reclames kunnen klanten ongevraagd beïnvloed worden. Gratis diensten verdienen hun geld veelal door hun platform open te stellen aan adverteerders of door data door te verkopen. Het Britse bedrijf Cambridge Analytica veroorzaakte een controverse door de profielen van 75 miljoen Facebookgebruikers in te zetten om het stemgedrag van Amerikaanse kiezers tijdens de presidentsverkiezingen in 2016 te beïnvloeden.6 Het bedrijf maakte gebruik van psychometrie en microtargetting: via de data van Facebook kreeg Cambridge Analytica zicht op groepen gebruikers met bepaalde psychologische kenmerken, en op basis van die profielen probeerde men het stemgedrag van Facebookgebruikers gericht te beïnvloeden.
Mensen willen soms ook doelbewust persuasieve technologie inzetten om zich op een bepaald gebied elektronisch te laten coachen. Denk bijvoorbeeld aan de fiets- of hardloopapp Strava. Via sensoren in smartphones kunnen gebruikers hun eigen gedrag monitoren, op basis waarvan via algoritmen feedback gegeven kan worden zonder dat er een menselijke coach aan te pas hoeft te komen.7 Sensoren bieden gedetailleerde informatie over lichaamsfuncties, emoties en gedrag. Via algoritmes stellen deze apps gepersonaliseerde trainingsprogramma’s op. Dergelijke elektronische coaches kunnen gebruikers helpen bij het behalen van persoonlijke doelen, zoals afvallen, zuiniger omgaan met geld of milieubewuster leven.
In de praktijk kunnen bij de inzet van persuasieve technologie diverse doelen een rol spelen. Zorgverzekeraar Menzis biedt leden spaarpunten en andere voordelen aan als ze apps, zoals Strava, aan hun digitale platform koppelen. Daarmee moedigt Menzis bij zijn klanten een gezondere levensstijl aan. De zorgverzekeraar hoopt daarmee op den duur financieel te profiteren van gezondere verzekerden. Het platform kan tevens bijdragen aan een sterkere klantenbinding.
Digitale nudges for good?
In hoeverre gaat het bij de inzet door bedrijven van persuasieve technologie om nudges for good? Thaler formuleerde drie voorwaarden om daarvan te spreken, namelijk: ze zijn transparant en misleiden niemand, ze zijn gemakkelijk te vermijden, en ze hebben een positief effect op het welzijn van mensen. Hierna bespreken we kort de inzet van digitale beïnvloeding door bedrijven vanuit deze drie voorwaarden.
Ondoorzichtige beïnvloeding
Bedrijven informeren gebruikers vaak niet over het gebruik van beïnvloedingstechnologieën. Zo probeerde Facebook via berichten de stemopkomst tijdens verkiezingen te verhogen zonder gebruikers daarover te informeren, laat staan toestemming te vragen.8 Bedrijven zetten bovendien massaal A/B-testen in zonder consumenten hiervan op de hoogte te stellen. Ook kan in het systeem een gebrek aan transparantie zijn ingebouwd. Facebook gebruikt nu verkiezingsberichten over de gehele wereld.9 Het bedrijf stelt dat ze vanwege het samenspel tussen algoritmes en individuele gebruikersinstellingen onmogelijk kunnen vaststellen wie zo’n bericht ontvangt. Bovendien functioneren netwerken als Facebook en Google als megaplatforms waarop andere bedrijven hun diensten en producten aanbieden. Deze megaplatforms hebben niet altijd goed zicht op de doelen waarmee andere partijen hun platform inzetten. Zo was Facebook niet op de hoogte van de doelen waarvoor Cambridge Analytica het platform inzette. Daarnaast kan uit data steeds meer zinvolle informatie worden gedestilleerd. Wetenschappers hebben bijvoorbeeld algoritmes ontwikkeld die op basis van foto’s tot 91 procent nauwkeurig de seksuele geaardheid van de gefotografeerde kunnen vaststellen.10 Psycholoog en datawetenschapper Michal Kosinski verwacht zelfs dat op den duur ook politieke voorkeur, neiging tot crimineel gedrag en IQ via gezichtsherkenning zijn vast te stellen.11
Moeilijk te vermijden beïnvloeding
Digitale platforms integreren beïnvloedingstechnieken in producten die inmiddels integraal deel zijn gaan uitmaken van ons dagelijks leven en zodoende moeilijk te vermijden zijn. Soms verplichten bedrijven het gebruik van technologieën. Uber wijst werk alleen toe via de app: de taxichauffeur is voor zijn inkomen dus afhankelijk van de app die zijn gedrag meet en stuurt. Dit toont ook een andere complicatie: wanneer mensen gemeten worden, is het steeds moeilijker informatie te verbergen. In het Verenigd Koninkrijk en China analyseren enkele bedrijven de hersenactiviteit van werknemers. Met deze data brengen ze veranderingen van emoties in kaart die verband houden met productiviteit en veiligheid.12 In China beschouwen ze het identificeren van sociale onrust daarbij als een bijkomend voordeel. Naast het mislopen van inkomsten, zijn er ook immateriële kosten verbonden aan het mijden van technologie. Een steeds belangrijker deel van het sociale en professionele leven speelt zich digitaal af: mensen spreken af via WhatsApp; versturen en ontvangen uitnodigingen via Facebook; en netwerken via LinkedIn. Dat komt onder andere door netwerkeffecten, waardoor een dienst waardevoller wordt naarmate meer mensen gebruikmaken van een bepaald platform. Bovendien proberen ontwikkelaars, en sommige met groot succes, om de aandacht van gebruikers zo lang mogelijk aan zich te binden. Daarvoor gebruiken ze technieken die gelijkenissen vertonen met technieken uit een andere miljardenindustrie, namelijk de gokwereld. Volgens Schüll, oorspronkelijk onderzoekster naar online gokspellen, maken zowel de gokindustrie als sociale media gebruik (of misbruik) van het psychologische mechanisme dat de continue opeenvolging van actie en onzekere beloning kan leiden tot compulsief gebruik.13 Deze herhaling van prikkels en acties kan er zelfs voor zorgen dat mensen volledig in de technologie opgaan. In deze toestand, ook wel flow genoemd, vervagen de dagelijkse zorgen, het lichamelijk bewustzijn en het zelfbewustzijn. De inzet van dergelijke krachtige nudges zet de autonomie van de gebruiker enorm onder druk.
Welzijn gebruiker staat niet centraal
Uit de voorgaande voorbeelden blijkt dat de ingrepen van bedrijven zeker niet altijd het welzijn van de gebruiker dienen. Maar zelfs ingrepen die bedoeld zijn om het welzijn van mensen te vergroten, kunnen onwenselijk zijn. Facebooks verkiezingsberichtje om de stemopkomst te vergroten heeft daadwerkelijk een klein, maar significant effect op de opkomst.14 Hoewel het stimuleren van burgers om actief deel te nemen aan het democratisch proces in principe een goede zaak is, was Facebooks ingreep toch niet wenselijk. Het is namelijk een vorm van paternalisme: Facebook bepaalt in dit geval wat goed is voor de gebruiker. Nog steeds plaatst Facebook dit soort berichten zonder gebruikers of overheden hierover van tevoren in te lichten. De uitleg stond op een weinig gelezen plek op het platform en er werd niet vermeld dat gebruikers ook proefpersonen waren.15 Daarbij was het, zoals eerder vermeld, ondoorzichtig wie deze berichten krijgt. Een ander problematisch punt is dat Facebook op deze manier veel invloed kan uitoefenen in verkiezingen met kleine marges en dus macht heeft. Daarmee kan het verkiezingen manipuleren door bijvoorbeeld op issues en partijen te sturen. Steeds meer macht verschuift zo naar bedrijven, die daarmee kunnen bepalen wat wel of niet in het belang van de burger is. Burgers kunnen deze bedrijven niet op dezelfde wijze als democratisch gekozen overheden controleren en ter verantwoording roepen. Zelfs elektronische coaches waarvoor mensen zelf uit vrije wil kiezen, kunnen het welzijn van de gebruiker schaden. Zo zijn fitnesstrackers die helpen met het onderhouden van een gezondere levensstijl vaak onbetrouwbaar, waardoor ze ongegronde informatie of adviezen geven. Daarnaast kunnen ze leiden tot een ongezonde fixatie op het lichaam of tot belangenconflicten tussen zorgverleners en patiënten. Ook initiatieven met goede bedoelingen kunnen zo ongewenst blijken.
Bescherming van burgers en consumenten schiet tekort
De digitale wereld biedt bedrijven een gigantisch arsenaal aan persoonlijke informatie en beïnvloedingstechnieken die ze voor diverse doelen kunnen inzetten. Deze korte exercitie laat zien dat de manier waarop bedrijven persuasieve technologie inzetten veelal niet overeenkomt met de voorwaarden die volgens Thaler gelden voor nudges for good. Juist het tegenovergestelde lijkt de regel: beïnvloeding vindt vaak ondoorzichtig plaats, is moeilijk te vermijden voor werknemers en consumenten, en het welzijn van de gebruiker staat niet vanzelfsprekend centraal. Er bestaat vaak onduidelijkheid over wiens belangen bedrijven dienen en hoe, en welke ideologieën en ideeën over welzijn ze promoten. Er kan zelfs sprake zijn van manipulatie, misinformatie en verslaving. De menselijke autonomie staat zodoende bij de inzet van persuasieve technologie op het spel.
De Algemene verordening gegevensbescherming (AVG) vereist rechtmatigheid, transparantie en rechtvaardigheid met betrekking tot de verwerking van persoonlijke data. Daarmee lost ze echter niet alle problemen rond beïnvloeding op. Ten eerste baseren bedrijven beïnvloeding niet altijd op persoonsgegevens, waarmee een dergelijke beïnvloeding buiten het bereik van de AVG valt. Daarnaast mogen bedrijven, ondanks de strengere voorwaarden, nog steeds persoonlijke profielen opstellen. En ten derde blijven sociale netwerken of arbeidstechnologie, waarvan beïnvloedingstechnologieën integraal onderdeel zijn, onderdeel van ons dagelijks leven en dus lastig te vermijden. Meer fundamenteel zegt deze nieuwe Europese wetgeving niets over de wijze waarop organisaties gebruikers op basis van de verzamelde en geanalyseerde big data mogen beïnvloeden. De AVG heeft alleen betrekking op de verwerking van persoonsgegevens en niet op de rechtvaardigheid en eerlijkheid van de beïnvloedingstechnieken die op basis van deze gegevens ingezet worden.16 De AVG maakt dus niet helder wat eerlijke manieren van het beïnvloeden van gedrag zijn, en eist dus ook niet van bedrijven en overheden dat ze alleen maar gebruikmaken van nudges for good. De Europese toezichthouder voor gegevensbescherming EDPS geeft aan dat om de rechten van burgers in de digitale wereld te beschermen ook andere wetgevende kaders in stelling gebracht dienen te worden, zoals kieswetgeving, de mediawet en consumentenwetgeving.17
Het denken over hoe de autonomie van de mens in een steeds verder digitaliserende wereld kan worden gewaarborgd is dus nog zeker niet afgerond. Om het debat daarover te stimuleren heeft het Rathenau Instituut de Parlementaire Vergadering van de Raad van Europa geadviseerd om het nut en de noodzaak van twee nieuwe mensenrechten verder te bespreken.18 Het eerste is het recht om niet gemeten, geanalyseerd of gecoacht te worden. Dit recht biedt de mens tegenwicht aan bedrijven die continu monitoren en sturen. De insteek is dat meten, analyseren en beïnvloeden van de mens op een menswaardige manier dient te gebeuren. De criteria die Thaler noemt voor nudges for good kunnen daarvoor als vertrekpunt dienen. Het tweede recht is het recht op betekenisvol menselijk contact. Het eerder beschreven continue proces van meten, analyseren en beïnvloeden maakt menselijk ingrijpen voor het bedrijfsproces steeds minder noodzakelijk. Uber hoeft bijvoorbeeld de chauffeur niet te spreken om hem ritjes aan te bieden of instructies te geven. Een recht op betekenisvol menselijk contact betekent in deze casus onder meer dat de chauffeur het gesprek met Uber moet kunnen aangaan en dat het beoordelingssysteem de chauffeur niet op een mensonwaardige manier klemzet. Vanuit dit oogpunt betitelen we de praktijk van Uber om chauffeurs van zijn platform af te halen als hun score te laag is als onmenselijk.
Noten
- 1.J.A. Hiemstra, S. de Vries en J.H. Spijker, Greenery and work. A summary of the positive effects of greenery on well-being in working environments. Wageningen: Wageningen University & Research, 2017.
- 2.Richard H. Thaler, ‘The power of nudges, for good and bad’, The New York Times, 31 oktober 2015.
- 3.Linda Kool, Jelte Timmer, Lambèr Royakkers en Rinie van Est, Opwaarderen. Borgen van publieke waarden in de digitale samenleving. Den Haag: Rathenau Instituut, 2017; Rinie van Est en Joost Gerritsen, met medewerking van Linda Kool, Human rights in the robot age. Challenges arising from the use of robotics, artificial intelligence, and virtual and augmented reality. Den Haag: Rathenau Instituut, 2017.
- 4.B.J. Fogg, Persuasive technology. Using computers to change what we think and do. San Francisco: Morgan Kaufmann Publishers, 2013.
- 5.John Dzieza, ‘The rating game. How Uber and its peers turned us into horrible bosses’, The Verge, 28 oktober 2015. Zie https://www.theverge.com/2015/10/28/9625968/rating-system-on-demand-economy-uber-olive-garden
- 6.Carole Cadwalladr en Emma Graham-Harrison, ‘How Cambridge Analytica turned Facebook “likes” into a lucrative political tool’, The Guardian, 17 maart 2018.
- 7.Linda Kool, Jelte Timmer en Rinie van Est (red.), Eerlijk advies. De opkomst van de e-coach. Den Haag: Rathenau Instituut, 2014.
- 8.Robert M. Bond, Christopher J. Fariss, Jason J. Jones, Adam D.I. Kramer, Cameron Marlow, Jaime E. Settle en James H. Fowler, ‘A 61-million-person experiment in social influence and political mobilization’, Nature (2012), nr. 489, pp. 295-298.
- 9.Hannes Grassegger, ‘Facebook says its “voter button” is good for turnout. But should the tech giant be nudging us at all?’, The Guardian, 15 april 2018.
- 10.Michal Kosinski en Yilun Wang, ‘Deep neural networks are more accurate than humans at detecting sexual orientation from facial images’, Journal of Personality and Social Psychology 114 (2018), nr. 2, pp. 246-257.
- 11.Sam Levin, ‘Face-reading AI will be able to detect your politics and IQ, professor says’, The Guardian, 12 september 2017.
- 12.Eric Wilson, ‘Workforce fatigue risk management using wearable technology’, Crossrail Learning Legacy, 13 maart 2018; Stephen Chen, ‘“Forget the Facebook leak”. China is mining data directly from workers’ brains on an industrial scale’, South China Morning Post, 29 april 2018.
- 13.Natasha Dow Schüll, geïnterviewd voor VPRO’S Tegenlicht: ‘What makes you click?’, uitgezonden op 25 september 2016. Zie https://www.vpro.nl/programmas/tegenlicht/kijk/afleveringen/2016-2017/what-makes-you-click.html
- 14.Bond e.a. 2012.
- 15.Facebook, ‘Facebook focused on helping voter participation’, Facebook, 2 november 2010. Zie https://www.facebook.com/notes/government-and-politics-on-facebook/facebook-focused-on-helping-voter-participation/448310010881/
- 16.European Data Protection Supervisor, EDPS Opinion on online manipulation and personal data. Brussel: EDPS, 19 maart 2018.
- 17.EDPS 2018.
- 18.Van Est en Gerritsen 2017.
© 2009-2024 Uitgeverij Boom Amsterdam
ISSN 0167-9155
De artikelen uit de (online)tijdschriften van Uitgeverij Boom zijn auteursrechtelijk beschermd. U kunt er natuurlijk uit citeren (voorzien van een bronvermelding) maar voor reproductie in welke vorm dan ook moet toestemming aan de uitgever worden gevraagd:
Behoudens de in of krachtens de Auteurswet van 1912 gestelde uitzonderingen mag niets uit deze uitgave worden verveelvoudigd, opgeslagen in een geautomatiseerd gegevensbestand, of openbaar gemaakt, in enige vorm of op enige wijze, hetzij elektronisch, mechanisch door fotokopieën, opnamen of enig andere manier, zonder voorafgaande schriftelijke toestemming van de uitgever.
Voor zover het maken van kopieën uit deze uitgave is toegestaan op grond van artikelen 16h t/m 16m Auteurswet 1912 jo. Besluit van 27 november 2002, Stb 575, dient men de daarvoor wettelijk verschuldigde vergoeding te voldoen aan de Stichting Reprorecht te Hoofddorp (postbus 3060, 2130 KB, www.reprorecht.nl) of contact op te nemen met de uitgever voor het treffen van een rechtstreekse regeling in de zin van art. 16l, vijfde lid, Auteurswet 1912.
Voor het overnemen van gedeelte(n) uit deze uitgave in bloemlezingen, readers en andere compilatiewerken (artikel 16, Auteurswet 1912) kan men zich wenden tot de Stichting PRO (Stichting Publicatie- en Reproductierechten, postbus 3060, 2130 KB Hoofddorp, www.cedar.nl/pro).
No part of this book may be reproduced in any way whatsoever without the written permission of the publisher.