Big Data en de probabilistische overheid vragen om een nieuwe balans
Samenvatting
Er zal in het Big Data-debat naar een nieuwe balans gezocht moeten worden om te voorkomen dat door een op waarschijnlijkheden sturende overheid de vrijheid ondersneeuwt en de verantwoordelijkheid verwatert. Maar op deze manier wordt de discussie helaas zelden gevoerd. We kunnen wel zeggen dat de risicosamenleving allang is gearriveerd en dat zij in Big Data een ideale technologische metgezel heeft gevonden, maar dan vergeten we dat er tal van uitgangspunten gelden die gelukkig verhinderen dat deze manier van denken en opereren ‘totaal’ kan worden. Uit rechtsstatelijk oogpunt, maar zeker ook vanuit het gezond verstand.
Het zou best kunnen dat de term ‘Big Data’ over een jaar of tien amper meer gebruikt zal worden. Niet alleen omdat de technologische mogelijkheden die onder deze noemer schuilgaan tegen die tijd allang vertrouwd en normaal zullen zijn, maar ook omdat de letterlijke betekenis van de woorden eigenlijk de lading niet dekt. Het gaat veel meer om big analytics, en het is juist eerder te zien als een antwoord op (of uitweg uit) de onnavolgbare bigness van de datazee. Het verschijnsel Big Data – om de gangbare term toch nog even trouw te blijven – wordt terecht gezien als iets wat het samenleven diepgaand kan veranderen, of misschien al wel veranderd heeft.1 Rekent men zoekmachines tot deze fuzzy technologie – en waarom ook niet – dan is direct duidelijk dat de impact van Big Data zich al enige tijd laat herkennen. Maar daar moet gelijk aan worden toegevoegd dat er nog een lange weg te gaan is om die impact ook te onderkennen en te accommoderen, niet zozeer aan de ‘pluskant’ van de vele kansen die voor het grijpen liggen voor bedrijven en ook overheden, maar wel aan de kant van de risico’s en kwetsbaarheden – en hoe daarmee om te gaan.
Het veelbesproken recente Googlearrest van het Hof van Justitie van de EU,2 spreekt in dit opzicht boekdelen. Het Hof bepaalde dat individuen het recht hebben om zoektreffers te doen verwijderen als hun belangen door die opname in het overzicht onevenredig worden geschaad. Het arrest is een dappere poging om (namens de burger) vat te krijgen op de spreekwoordelijk complexe processen die zich achter de schijnbare eenvoud van een zoekmachine-interface afspelen. Maar het arrest heeft direct tot veel kritische vragen geleid – niet in de laatste plaats geïnitieerd door Google zelf – in de trant dat een ‘recht om te worden vergeten’ als een loden bal aan internetportalen zou hangen. Kortom, dat een dergelijke bescherming van de belangen van het individu onwerkbaar is in de context van de informatiesamenleving. De grand bargain in die perceptie is dat gebruikers ook iets moeten opgeven bij het gemak dat hun door allerhande informatietechnologieën in de schoot wordt geworpen, en dat ook daadwerkelijk vol enthousiasme doen.
‘Voor het gemak moet je ook iets inleveren’; het zou prima kunnen dienen als motto van de digitale overheid, althans zoals die overheid zelf de geleidelijke incorporatie van ICT in het functioneren van de ‘publieke zaak’ heeft geframed. Onder de noemer ‘eOverheid’ (elektronische overheid) is jarenlang de nadruk gelegd op de grote voordelen die ICT voor de dienstverlenende kant van de overheid heeft gehad. Burgers hoeven maar één keer hun gegevens door te geven, en de rest gaat vanzelf. De WRR heeft in zijn rapport iOverheid aandacht gevraagd voor de tekortkomingen van dit zelfbeeld, die met het voortschrijden van de digitalisering alleen maar pregnanter worden.3 Het volstaat niet om voortschrijdende ICT-mogelijkheden enkel te duiden als kansen om de bestaande taken (het ‘primaire proces’, in managementtaal) beter uit te voeren. ICT is niet extrinsiek aan de taken van de overheid; veeleer is de overheid zelf fundamenteel veranderd door de veranderingen in de informatiehuishouding. Zij is kortom, zo luidt het betoog, een ‘iOverheid’ (informatieoverheid4) geworden zonder dat te beseffen of daar voldoende rekenschap van te geven. De status quo wordt gekenmerkt door een soort besluitvorming (en debat) over technologie dat zich eenzijdig op applicaties richt – bijvoorbeeld het elektronisch patiëntendossier – zonder de bredere verknoping van informatiestromen, en de kwetsbaarheden die die met zich meebrengt, in ogenschouw te nemen. Voor zover het debat over de digitale overheid al normatief wordt getoonzet, en niet slechts gaat over technische mankementen en kostenoverschrijdingen (zoals ook het parlementaire onderzoek dat sinds het verschijnen van het rapport is geïnitieerd), helt het gauw naar één kant. De ‘stuwende beginselen’ van digitalisering, zoals de belofte van effectiviteits- en efficiencywinst, krijgen door een soort intrinsiek technovertrouwen veel vanzelfsprekender een stem dan de ‘verankerende beginselen’ die zien op de vrijheidssfeer van het individu, of de ‘procesmatige beginselen’ die behelzen dat verantwoordelijkheden helder en toetsbaar dienen te zijn.
Deze bijdrage is bedoeld om enkele betooglijnen van het rapport iOverheid door te trekken naar het fenomeen Big Data. In het rapport signaleerden we al dat een drietal digitale processen van de overheid om extra oplettendheid vragen, omdat zij kwetsbaarheden herbergen die onvoldoende worden onderkend. Dat zijn: het vernetwerken van informatie, het samenstellen en verrijken van informatie, en ten slotte het voeren van preventief en proactief beleid op basis van informatie. Die opsomming leest bijna als een omschrijving van Big Data-processen.
Big Data-analyse en openbaar bestuur
Wat met name aan Big Data-analyse intrigeert is dat het een nieuw epistemologisch model tot prominentie lijkt te brengen, waarin een streven naar extrapolaties uit zekere verklaringen (bijvoorbeeld causaliteit) het aflegt tegen prognoses op basis van waarschijnlijkheid, omdat die laatste ‘goed genoeg’ zijn voor de meeste beslissingen waar bedrijven, overheden en individuen voor staan. Waarschijnlijkheidsoordelen zijn natuurlijk niets nieuws, maar de opkomst van Big Data-analyse heeft het in zich om deze volledig te domesticeren. Deze oordelen worden losgeweekt uit de setting van de (sociaalwetenschappelijke) onderzoeksinstellingen van deze wereld, om ze ter beschikking te stellen aan iedereen die wat geld kan missen voor goede datasets en voldoende rekenkracht. Bovendien, de analyses zijn niet alleen laagdrempeliger maar ook in sommige opzichten verfijnder dan strikt en gericht (gedrags)onderzoek. Drie factoren zorgen voor deze kwalitatieve sprong. In de eerste plaats – en dit is ook echt het beginpunt – het gegeven dat wij met z’n allen zelf, maar ook via onze auto’s, telefoons, elektriciteitsmeters en noem maar op, onnoemelijk veel data genereren die op veelal onnavolgbare wijze tot waardevolle input kan promoveren. Op de tweede plaats komen de overbekende analysetechnologieën zelf, te weten de algoritmes enzovoort die ons in staat stellen om ook in een relatief chaotische en oneindig omvangrijke bulk data patronen te herkennen. Een derde aspect laat zich echter gemakkelijk over het hoofd zien, en dat is dat onder de paraplu van Big Data een getrapte praktijk schuilgaat waarvan de laatste fase essentieel is om uit de informatiesoep iets hanteerbaars te kunnen halen. Globaal uitgedrukt gaat het hier om het terugvertalen van de patronen die in de data zijn aangetroffen naar een real world situation, bijvoorbeeld naar de vraag of die zwetende en nerveus ogende reiziger daar bij het bagagedepot een potentiële terrorist is. Dit gebeurt door het op enigerlei wijze (meestal volautomatisch) ‘invoeren’ van zijn individuele kenmerken, om die te relateren aan de gevonden massale datapatronen.5
Dat er met al dit moois ook tal van principiële vragen opdoemen over een verantwoorde omgang met de technologische mogelijkheden, laat zich illustreren aan de hand van een dilemma dat Mayer-Schönberger en Cukier opwerpen.6 Zij melden dat er Big Data-instrumenten zijn ontwikkeld die door incorporatie van een wijd scala aan factoren vrij nauwkeurig kunnen voorspellen of een specifieke gedetineerde na zijn vrijlating opnieuw in de fout gaat. Hier herkennen we ook het eerder genoemde terugvertalen van massale data naar een individueel geval. Het dilemma laat zich eigenlijk al raden: zou een rechterlijk college dat moet beslissen over vervroegde vrijlating van zo’n persoon zich mogen baseren op een dergelijke analyse? Het antwoord is in principe ‘nee’, omdat dat zou ingaan tegen diepgewortelde (rechts)overtuigingen over verantwoordelijkheid. Men kan niet verantwoordelijk worden gehouden voor gedrag dat zich nog niet heeft gemanifesteerd. Maar toch: het is eenvoudiger om aan zo’n principieel uitgangspunt vast te houden in een situatie dat prognose-instrumenten het predicaat ‘boterzacht’ niet overstijgen, en dat stadium is intussen allang gepasseerd. Is het volledig uit te sluiten dat een rechter wel zo’n analyse uitvoert, maar daar in zijn (navenante) uitspraak eenvoudigweg niet van rept?
Dat laatste behelst natuurlijk een ietwat onbeleefde suggestie, maar het punt is ook algemener: het is heel moeilijk om Big Data-processen accountable te maken, en toch zal het moeten. Porter merkte ten aanzien van sociologische processen van kwantificatie – die met Big Data nog vele malen intenser en dominanter aan de orde zijn – al eens treffend op dat zij functioneren als ‘a way of making decisions without seeming to decide’.7 Het verschijnsel Big Data is eenvoudigweg te potent en te revolutionair om in regulerende zin ongemoeid te laten. Wetgevers laten echter nog weinig van zich horen – de overweldigende complexiteit en de grote economische belofte van de materie roepen hier terughoudendheid op –, dus het is vooralsnog vooral aan rechters om de impact van Big Data op waarde te schatten. De Googleuitspraak onderkent alvast de ‘kwalitatieve sprong’ in de technologie, door een aparte bescherming voor het niveau van de algoritmes te eisen, los van de (al dan niet correctheid van de) content waarnaar verwezen wordt.8 De bredere uitdaging is echter om de kwalitatieve sprong van de relatief statische eOverheid naar de op probabilistische gronden interveniërende iOverheid te duiden en normatief te ontleden.
Verantwoorde inzet van Big Data
Normatieve kaders
Normatieve uitgangspunten die zijn toegesneden op de kwetsbaarheden van Big Data zijn nog dun gezaaid. We moeten het vooralsnog met de algemene (gegevensbeschermings)noties doen. Voor de normatieve duiding van wat er in een Big Data-analyse plaatsvindt is daarom het onderscheid tussen anonieme gegevens en persoonsgegevens nog van groot belang, maar tegelijkertijd hoogst problematisch. Juist doordat Big Data een kompas verschaft in een onmetelijke zee van gegevens, kan data die anoniem oogt vrij vaak met de nodige inzet worden terugvertaald naar persoonlijke informatie. Zo gaf de internetprovider AOL eens een dataset met zoektermen vrij, om de onderzoeksgemeenschap een kijkje te geven in de rijke en nietsverhullende wereld van ons zoekgedrag. Die set mocht dan wel van individualiserende kenmerken zijn ontdaan, maar journalisten kwamen er al vrij gauw achter dat juist de inhoud van wat iemand zoekt (zeg ‘Gouden Koets’ en ‘theelicht’) met het nodige combineerwerk gemakkelijk tot een persoon leidt. Voor de meeste Big Data-analyses is de Wet bescherming persoonsgegevens dus toepasselijk, of zou dat moeten zijn voor zover het naar de letter anonieme data betreft die met ‘reverse engineering’ weer bij personen uitkomt.9 Het heeft er echter alle schijn van dat de realiteit van Big Data voor genoemde wet te overweldigend is. Komen we nog uit met keurige uitgangspunten zoals ‘doelbinding’? Hoe lovenswaardig het streven ook is om het gebruik van informatie te binden aan de intenties van degene die deze oorspronkelijk heeft vrijgegeven, bij Big Data-processen gaat het vaak al niet meer om secundair maar eerder tertiair (of hoger) gebruik. Dat data voor zeer afgeleide zo niet totaal onvoorzienbare functies wordt gebruikt is kortom een realiteit geworden. In het rapport iOverheid wordt dan ook geen specifiek recept voor een normatief kader gegeven, maar een verhandeling over hoe de broodnodige discussie over dergelijke kaders op de zinvolste manier gevoerd kan worden. In dat debat en de (hopelijk) daarop volgende regulerende handelingen, dient een goede balans bereikt te worden tussen heel ongelijksoortige beginselen, zoals veiligheid (een stuwende kracht), autonomie (een verankering) en accountability (een procesmatig kader). Op die manier wordt het debat over verantwoorde inzet van Big Data nog nauwelijks gevoerd. Eenmaal aan dergelijke reflectie en discussie onderworpen zou de conclusie kunnen zijn dat het weinig zinvol is om ‘het’ fenomeen Big Data overkoepelend te willen regelen,10 omdat er een te grote verscheidenheid achter schuilgaat. Maar dan nog ligt er de taak om die verscheidenheid te rubriceren aan de hand van een normatief gezichtspunt, bijvoorbeeld – in aanvulling op het onscherp geworden begrip persoonsgegevens – de mate van ingrijpendheid voor burgers van verschillende typen van Big Data-analyse.
Niveaus van verantwoordelijkheid en aangrijpingspunten voor verantwoording
Op welk niveau en op welke manier kunnen zij die deze tools van overheidswege inzetten ter verantwoording worden geroepen? In de literatuur is een neiging bespeurbaar om in dit kader de betrokkenheid van het individu (de burger) die het aangaat op te geven. Het zou hem allemaal boven de pet gaan, dus verantwoording zou op een abstracter niveau moeten plaatsvinden. Zo pleiten Mayer-Schönberger en Cukier voor het ontwikkelen van een discipline van controle op algoritmici die iets weg heeft van de rol van accountants in relatie tot boekhouders.11 En vanuit een meer juridische optiek bepleit Van der Sloot dat de toetsing van privacyvraagstukken die door Big Data worden opgeworpen, zou moeten abstraheren van het individuele belang van de burger, omdat dat gezichtspunt niet meer goed hanteerbaar is.12
Het moet gezegd dat het voor burgers inderdaad lastig is (en tot op zekere hoogte zal blijven) om de doorwerking van Big Data-computaties in hun eigen levenssfeer te doorgronden of zelfs maar te bespeuren. Maar dat kan wellicht beter worden gezien als een fundamenteel probleem dan als een status quo waarop structuren van verantwoording kunnen worden gegrondvest. Een aangrijpingspunt (‘Waar kan ik terecht als…?’) blijft essentieel; countervailing powers kunnen niet bestaan zonder erkende belanghebbenden. In het rapport iOverheid is betoogd dat er verschillende verantwoordingsniveaus nodig zijn die niet met elkaar concurreren maar veeleer uiteenlopende dimensies van de problematiek dekken. Voor het niveau van de individuele belanghebbende heeft de WRR gepleit voor een iPlatform dat voor de burger inzichtelijk kan maken hoe ‘zijn’ informatie zich beweegt (en soms muteert) in de informatiemaalstroom die de tegenwoordige overheid is, alsmede een iAutoriteit die (op bindende wijze) voor de burger kan intervenïeren om onjuiste informatie uit de netwerken te vissen. Ten behoeve van verantwoording op het meer abstracte niveau pleitte de WRR voor een permanente commissie voor de iOverheid, die zou rapporteren aan de Staten-Generaal. In reactie heeft het kabinet de oprichting van nieuwe instituties van de hand gewezen, maar de (nood aan de) inhoudelijke functies daarvan omarmd, en ondergebracht bij haar ambities voor de site MijnOverheid (mijn.overheid.nl) als een eenduidig (digitaal) loket/platform voor de burger.
Ten aanzien van Big Data lijken deze institutionele lacunes nog in versterkte mate aanwezig. Dat kan worden gesteld zonder te vervallen in onderschatting van hoe complex het zal zijn om Big Data-analyses inzichtelijk en toetsbaar te krijgen.
Het ‘opwerken’ van Big Data-praktijken
De concrete implicaties van Big Data-praktijken van de overheid laten zich – wellicht naar de aard der zaak – moeilijk traceren. Er zal een specifieke inzet nodig zijn om die praktijken dichter bij de oppervlakte te krijgen, voor zover de aard van de overheidsactiviteit in kwestie dat überhaupt toelaat (vergelijk veiligheidsdiensten enzovoort). Het gebouw van de traditionele rechtsstaat kent eigenlijk maar twee hoofdvertrekken: één waarin de abstracte regels worden geformuleerd die het domein van de politiek markeren, en één waar op basis van die regels concrete beslissingen worden genomen door identificeerbare autoriteiten waartegen de burger op kan komen. Big Data-praktijken spelen zich niet in deze twee ruimtes af, áls ze al in hetzelfde pand plaatsvinden. Bovens en Zouridis wezen er al op dat de opkomst van ICT in het hart van de besluitvorming zich onttrekt aan de verantwoordingsschema’s die we gewend zijn. Zij schetsen het domein van de system-level bureaucrat die onwillekeurig – door programmatuur te schrijven – verantwoordelijkheid draagt voor inhoudelijke keuzes, zonder dat er echter een voor de hand liggende manier is om die verantwoording ook van buitenaf te eisen.13 Met andere woorden: er ontstaat een mesoniveau tussen het politieke en het juridische dat vanuit beide ‘kampen’ lastig is aan te sturen. Dit gaat voor Big Data wellicht nog sterker op dan voor het relatief lineaire programmeerwerk waar Bovens en Zouridis het over hebben.
We kunnen er dus geenszins van uitgaan dat de uitwerking en de impact van Big Data-gebruik door de overheid door enkel tijdsverloop inzichtelijker zullen worden. Iets of iemand zal er zijn gewicht achter moeten zetten. Maar het houdt nog niet op bij regulering (afgedwongen transparantie). Zonder een besef van het belang van zorgvuldigheid bij alle autoriteiten die van Big Data gebruikmaken, is er bij regulering nog weinig gewonnen, aangezien het vrij eenvoudig is om deze processen (ook met de beste intenties) aan het oog te onttrekken. Neem bijvoorbeeld de opsporing van strafbare feiten. Big Data-technieken zijn buitengewoon geschikt als triggermechanisme ten behoeve van de efficiënte allocatie van justitiële onderzoekscapaciteit. Deze technieken zijn uitstekend in staat om mensen aan te wijzen ‘met wie iets zou kunnen zijn’ en bij wie nader onderzoek dus aangewezen is. Maar er is een goede kans dat die eerste trigger buiten het bereik blijft van de rechtsstatelijke controle door de rechter. Van de mensen met wie inderdaad ‘iets was’ zijn in het navolgende onderzoek immers feiten bekend geworden die de verdenking en vervolging kunnen dragen. De trigger ontbreekt dan simpelweg in het dossier dat de rechter onder ogen krijgt.
Over het rommelige leven en gezond verstand
Er zijn al met al nog de nodige knopen te ontwarren voordat we (als samenleving) kunnen zeggen dat de kwetsbaarheden van Big Data even goed in beeld zijn als de kansen. Het rapport iOverheid concludeerde dat al ten aanzien van de digitale overheid in het algemeen. Misschien kan het voorgaande wel worden samengevat als de noodzaak om alle mogelijke manieren te verkennen om de hybris die gevolgtrekkingen uit Big Data kan kenmerken, zo veel mogelijk te temperen. We weten meer dan ooit over hoe individuele mensen zich zouden kunnen gaan gedragen, en we kunnen van die kennis ook onmiskenbaar de vruchten plukken, ook voor het openbaar bestuur.14 Maar echt weten hoe mensen zich zullen gaan gedragen en hen daarop afrekenen, is principieel iets anders. Big Datatechnologie viert op haar manier ook juist die messiness van het gewone leven, omdat de data die daaruit voortkomt rijp en groen als input kan dienen. Maar als aan de output een grotere onaantastbaarheid wordt verleend dan verstandig is, lijkt het advies van Hirschman op zijn plek – gegeven lang voor de term Big Data werd gemunt. Hij riep op tot ‘a little more “reverence for life”, a little less straitjacketing of the future, a little more allowance for the unexpected – and a little less wishful thinking’.15
Het is toch weer allemaal een kwestie van maatvoering. Maar die zal niet vanzelf tot stand komen: het vinden van een acceptabele balans vergt van een ‘slimme’ en probabilistische overheid een expliciet commitment, omdat de interventietoolkit zoveel aanlokkelijker is geworden. We kunnen wel zeggen dat de risicosamenleving allang is gearriveerd en dat zij in Big Data een ideale technologische metgezel heeft gevonden, maar dan vergeten we dat er tal van uitgangspunten gelden die gelukkig verhinderen dat deze manier van denken en opereren ‘totaal’ kan worden. Uit rechtsstatelijk oogpunt, maar zeker ook op basis van het gezond verstand.
Noten
- 1.Zie bijvoorbeeld het toonaangevende boek Big Data van V. Mayer-Schönberger en K. Cukier: Big Data. A Revolution That Will Transform How We Live, Work and Think. Londen: John Murray, 2013.
- 2.HvJEU 13 mei 2014, Google Spain, zaak C-131/12, te raadplegen op www.curia.eu.
- 3.Wetenschappelijke Raad voor het Regeringsbeleid, iOverheid. Amsterdam: Amsterdam University Press, 2011.
- 4.M. Hildebrandt maakt hier informatiegestuurde overheid van, hetgeen voor de thematiek van deze bijdrage in ieder geval doeltreffend is, omdat het de dimensie belicht van een op basis van prognoses intervenïerende overheid; M. Hildebrandt, ‘ICT en rechtsstaat’, in: S. van der Hof, A.R. Lodder en G.J. Zwenne (red.), Recht en computer. Deventer: Kluwer, 2014, pp. 25-43, aldaar p. 34.
- 5.Een andere methode is ‘bestandsvergelijking’ , waarbij een kleinere dataset wordt gerelateerd aan een grotere. Dit is bijvoorbeeld aan de orde bij automatische kentekenherkenning (Automatic NumberPlate Recognition of ANPR), een surveillance-instrument dat een opmerkelijk stille opmars heeft gemaakt. Zie uitvoerig H.M. Griffioen, Privacy en vormen van ‘intelligente’ mobiliteit. De impact van ICT-applicaties voor de weg en het spoor. Amsterdam: Amsterdam University Press, 2011.
- 6.Mayer-Schönberger & Cukier 2013, pp. 161-162.
- 7.T.M. Porter, Trust in Numbers. The Pursuit of Objectivity in Science and Public Life. Princeton: Princeton University Press, 1995, p. 8.
- 8.In de specifieke casus ging het om een krantenbericht over de gedwongen verkoop van de bezittingen van betrokkene. Dat bericht hoeft geenszins als gevolg van het arrest verwijderd te worden.
- 9.De wet strekt zich ook uit tot ‘indirect te herleiden’ gegevens, maar het is de vraag of dat – gegeven de poreus geworden grens tussen anoniem en persoonlijk – niet gewoon alles is.
- 10.We zijn in Nederland sowieso niet gewend om het gebruik van afzonderlijke technologieën van een specifieke wettelijke grondslag te voorzien; vgl. Griffioen 2011.
- 11.Mayer-Schönberger & Cukier 2013, p. 180.
- 12.B. van der Sloot, ‘Privacy in het post NSA-tijdperk. Tijd voor een fundamentele herziening?’, Nederlands Juristenblad 89 (2014), nr. 17, pp. 1172-1179. Zie ook de bijdrage van Van der Sloot in deze CDV-bundel.
- 13.M. Bovens en S. Zouridis, ‘From streetlevel to system-level bureaucracies’, Public Administration Review 62 (2002), nr. 2, pp. 174-184.
- 14.Vgl. WRR, Met kennis van gedrag beleid maken. Amsterdam/Den Haag: Amsterdam University Press/wrr, 2014.
- 15.A.O. Hirschman, ‘The Search for Paradigms as a Hindrance to Understanding’, World Politics (1970), p. 236; zoals geciteerd door J.C. Scott, Seeing Like a State. How Certain Schemes to Improve the Human Condition Have Failed. New Haven: Yale University Press, 1998, p. 345.
© 2009-2025 Uitgeverij Boom Amsterdam
ISSN 0167-9155
De artikelen uit de (online)tijdschriften van Uitgeverij Boom zijn auteursrechtelijk beschermd. U kunt er natuurlijk uit citeren (voorzien van een bronvermelding) maar voor reproductie in welke vorm dan ook moet toestemming aan de uitgever worden gevraagd:
Behoudens de in of krachtens de Auteurswet van 1912 gestelde uitzonderingen mag niets uit deze uitgave worden verveelvoudigd, opgeslagen in een geautomatiseerd gegevensbestand, of openbaar gemaakt, in enige vorm of op enige wijze, hetzij elektronisch, mechanisch door fotokopieën, opnamen of enig andere manier, zonder voorafgaande schriftelijke toestemming van de uitgever.
Voor zover het maken van kopieën uit deze uitgave is toegestaan op grond van artikelen 16h t/m 16m Auteurswet 1912 jo. Besluit van 27 november 2002, Stb 575, dient men de daarvoor wettelijk verschuldigde vergoeding te voldoen aan de Stichting Reprorecht te Hoofddorp (postbus 3060, 2130 KB, www.reprorecht.nl) of contact op te nemen met de uitgever voor het treffen van een rechtstreekse regeling in de zin van art. 16l, vijfde lid, Auteurswet 1912.
Voor het overnemen van gedeelte(n) uit deze uitgave in bloemlezingen, readers en andere compilatiewerken (artikel 16, Auteurswet 1912) kan men zich wenden tot de Stichting PRO (Stichting Publicatie- en Reproductierechten, postbus 3060, 2130 KB Hoofddorp, www.cedar.nl/pro).
No part of this book may be reproduced in any way whatsoever without the written permission of the publisher.