Hebben we nieuwe ethische theorieën nodig nu regels en principes niet langer op schrift staan, maar in het script van de omgeving zijn verwerkt? Die vraag probeerde filosoof, schrijver en ethicus Maxim Februari te beantwoorden tijdens zijn lezing op het Smart Humanity event van de Koninklijke Nederlandse Vereniging van Informatieprofessionals (KNVI).
Privacy is helemaal hot, stelt Maxim Februari. Tien jaar geleden interesseerde het niemand, maar inmiddels gaat het nergens anders meer over. Februari geeft uitleg aan de hand van een anekdote: de organisatie van het Bloemendaalse event Bubbles & Bites had aangegeven dat je tijdens het event een rode stip op je voorhoofd moest dragen als je niet herkenbaar op foto’s en videobeelden wilde. Dit omdat het met de nieuwe wetgeving bijna onmogelijk is geworden om met toestemming van de geportretteerden foto’s van een event te plaatsen. De fameuze rode stip kon men halen bij de organisatie of zelf fabriceren met lippenstift. Van de 70.000 mensen die het event bezochten droegen er maar liefst drie een rode stip, vertelt Februari. “Naar die drie mensen is nu waarschijnlijk overheidsonderzoek gaande”, voegt hij er lachend aan toe.
Ethiek als gaspedaal
Februari blikt samen met de door informatieprofessionals gevulde zaal vooruit op wat er over tien jaar hot zal zijn. Hierbij heeft hij het nadrukkelijk niet over hackers en datadiefstal. Liever heeft hij het over de lastigere ethische vraagstukken. Aandacht voor ethiek komt tegenwoordig vaak aan bod in de vorm van ethische dilemma’s: wat mag wel en wat mag niet? Het hedendaagse beeld is dat ethiek de maatschappij remt, maar Februari ziet ethiek ook als een gaspedaal dat ons verder de toekomst in brengt. Ethiek gaat niet alleen over menselijk gedrag, maar ook om het gedrag van onze technologie. Software wordt door ons opgevoed en tech zit vol met moraal, die de mens er dus in stopt, waardoor het ethisch te beoordelen is. Allereerst maakt Februari een statement: data bestaan niet. Data worden immers gemaakt en gedefinieerd, en zouden daarom misschien beter ‘producten’ kunnen heten.
Het besturen van een samenleving is te complex om te automatiseren, vindt Februari. “Een filosoof schreef laatst in het NRC dat Alexa, de virtuele assistente van Amazon, emoties kan destilleren uit een stem, om vervolgens bijpassende producten aan te bevelen. Dat is nogal een bewering”, zegt hij. Het is volgens hem onmogelijk om de wereld zo te analyseren en categoriseren, maar toch wordt het onder andere door bedrijven ingezet om de samenleving te sturen. “Data analyseren is een politieke bezigheid waarmee je stukje bij beetje ook de menselijkheid laat veranderen. Zonder dat we het doorhebben worden we overal beïnvloed.” Februari vertelt hoe men zich anders gaat gedragen als er zichtbare camera’s hangen om te voorkomen dat het systeem negatieve conclusies over je trekt. “Het zogeheten chilling effect. In Europa zijn we net zulke rare dingen aan het doen als in China. Uiteindelijk kan zelfs het gedrag dat men overweegt of intypt of zelfs alleen iemands blikrichting gevolgen gaan hebben. Die vorm van sociale controle verandert dus ook hoe we denken”, legt Februari uit.
Dwingende keuzearchitectuur
“Er is een richting die we mensen in willen sturen, maar waar komt die opvoedingsrichting vandaan? Data gooit men in een grote bak en daar gaan we patronen in zoeken. Vervolgens hebben we iets in handen waarvan we denken ‘dit is wat normaal is’, en dat wordt als dwingende norm aan de samenleving opgelegd”, vertelt Februari. Hij vreest dan ook dat excentriciteit op den duur zal verdwijnen. Het probleem met die opgelegde norm is volgens de filosoof dat de norm niet meer te overtreden valt. Iets dat nu nog niet van toepassing is, maar over een jaar of twintig tot problemen kan leiden. Februari schetst een situatie waarin de beslissingen tegen die tijd automatisch uit de smartomgeving rollen: “Weten wat je wil stemmen is niet meer nodig, politiek is passé en Google knows best. De keuzearchitectuur wordt dwingender en we verliezen de mogelijkheid om het met elkaar oneens te zijn. Wetten kunnen onrechtvaardig worden zonder dat er wat aan te doen is.”
Wat gaat er verloren als je je statistieken in je omgeving stopt en rechten geautomatiseerd worden? Wat als moraal niet meer op papier staat, maar in software, die daar zelf mee aan de haal kan gaan zonder dat we daar iets tegenin te brengen hebben? Februari vraagt zich ook af of we dan nieuwe vormen van ethiek en reflectie op de moraal nodig hebben. En waar brengen we die nieuwe ethische theorieën dan onder? Bij de informatieprofessionals, concludeert hij. Een ietwat verplichtende conclusie noemt hij het zelf. “Het goede nieuws is: het ligt er allemaal al. De beschaafde samenleving is er, maar niets is waardeneutraal geworden en helemaal de data niet. Kortom: de omgang van de oude wereld is niet dezelfde als die met de nieuwe wereld.”