Hoe ethisch is Big Brother?
UA confronteert studenten met ethische vragen rond BIG DATA en ARTIFICIAL INTELLIGENCE
Vanaf volgend academiejaar biedt de Universiteit Antwerpen haar studenten TEW en handelsingenieur een keuzevakkentraject aan omtrent data science. Een van de vakken daarin focust op ethische vraagstukken. “We willen onze studenten laten nadenken over hoe ze moeten omgaan met de kennis en macht die digitale data opleveren. En hoe ze de neveneffecten en bijwerkingen van digitale data en processen kunnen beperken,” legt professor David Martens uit.
Sinds alles digitaal wordt opgeslagen en bijgehouden, is er een berg data ontstaan. Data miners zoeken daarin patronen om op basis daarvan voorspellingen te kunnen doen. Banken onderzoeken zo de waarschijnlijke kredietwaardigheid van wie voor een lening komt aankloppen. Verzekeraars gaan na hoe groot de kans is dat een verzekerd risico zich zal voordoen. Supermarkten zoeken via het aankoopgedrag van hun klanten naar patronen die toekomstige interesses of aankopen voorspellen. En in een minder commerciële context is ook de overheid bezig met data mining. De Belgische fiscus zoekt patronen in de fiscale aangiftes om gericht te speuren naar fraude. Douanediensten proberen te voorspellen welke containers het meeste kans hebben om illegale producten of smokkelwaar te bevatten. Politiediensten gaan op basis van data na in welke regio’s meer politiecontrole nodig is.”
Kader: Je zit met dat soort onderzoek al snel op een hellend vlak van wat geoorloofd is.
Martens: Precies. De juridische mogelijkheden en beperkingen zijn vaak redelijk duidelijk. Maar het is niet omdat iets juridisch geen probleem is, dat het ook ethisch of maatschappelijk wenselijk is. Zo was er een Amerikaanse supermarkt die op basis van het aankoopgedrag van een jong meisje vaststelde dat ze wellicht zwanger was. De marketeers stuurden haar dus allerlei reclame voor babygerelateerde spullen, waarop de vader van het meisje wat geagiteerd reageerde naar de supermarktketen. Zijn dochter kon toch niet zwanger zijn? Kort nadien excuseerde hij zich omdat ze dus wel zwanger bleek. Alleen wist hij nog van niets. Juridisch is daar weinig mis mee, gezien er toestemming gegeven werd voor dergelijke analyses. Maar of het ethisch in orde is, is een andere zaak.
Kader: Het is ongetwijfeld wat vervelend voor het meisje in het voorbeeld, maar niet meteen een halszaak…
Martens: Soms is er wel meer aan de hand. Google Foto’s rubriceert je foto’s op basis van wat er opstaat. Al je vakantiefoto’s van New York bij elkaar, alle foto’s van je vrienden bij elkaar, … Maar een tijdje geleden bleek dat de software soms fouten maakte bij het onderscheiden van zwarte mensen en gorilla’s.
Bijzonder pijnlijk. Niet in het minst voor de betrokkenen, maar ook voor Google, dat zich uitgebreid moest excuseren. En over Amazon werd gerapporteerd dat ingezonden cv’s via data mining geanalyseerd werden om de beste kandidaten te selecteren. Helaas bleek dat vrouwen door die schifting vaker onderaan belandden omwille van de historische aanwerfpolicy die blijkbaar een voorkeur voor mannelijke profielen inhield. Toen dat bekend raakte, trok Amazon dit AI systeem weer in. Die twee voorbeelden geven aan dat je er als bedrijf alle belang bij hebt om doordacht te werk te gaan om dat soort fouten te vermijden.
Kader: En dat willen jullie de toekomstige ondernemers dus bijbrengen.
Martens: Inderdaad. We willen hen duidelijk maken dat er wel wat ethische issues zijn omtrent data mining. En dat er heel wat technieken bestaan om misbruik te vermijden, of te voorkomen dat je ethische grenzen overschrijdt.
Kader: Vertel…
Martens: Vooreerst kan je de vraag stellen of je echt al die informatie nodig hebt. Welke gegevens van mensen heb je nodig om je job goed te kunnen doen? Wat is relevant om op te slaan en wat niet? Whatsapp slaat bijvoorbeeld zelf geen berichten van gebruikers op. Ze staan enkel op de telefoon van zender en ontvanger, en worden geëncrypteerd verzonden. Zo voorkomt het bedrijf dat gevoelige informatie door hun toedoen op straat terecht komt. Verder dien je duidelijke afspraken te maken over het lezen en gebruik van de data. Zo kwam Uber in een lastig parket toen bleek dat enkele werknemers konden tracken waar Ubergebruikers, zoals politici, celebrities of persoonlijke kennissen, zich bevonden. Uiteraard een stevige inbreuk op de privacy. Een duidelijke interne policy en loggen welke werknemer wat opzoekt, vermijdt al veel problemen.
Kader: Dat brengt ons bij de vraag wie verantwoordelijk is voor fouten of misbruik van data en processen.
Martens: Dat is inderdaad een belangrijke vraag. Is in het geval van Uber de medewerker die gebruikers opzoekt in fout? Of de persoon die de software ontwikkelde? Of de manager? Waar begint en eindigt de verantwoordelijkheid van de verschillende betrokkenen? Die vraag manifesteert zich ook zeer sterk in robotica: wie is er verantwoordelijk voor ongevallen met een zelfrijdende auto? Of zelfs fundamenteler: als Amazon een zware terugval veroorzaakt in het aantal jobs in winkels, heeft het bedrijf dan ook een verantwoordelijkheid om mensen om te scholen via bijvoorbeeld een Amazon University?
Kader: Hoe staan bedrijven tegenover dit soort ethische kwesties?
Martens: We zien de gevoeligheid toenemen. Maatschappelijk verantwoord ondernemen is al langer in opmars. Niemand doet graag iets dat niet ok aanvoelt. En bovendien is er altijd de vrees voor reputatieschade als iets misloopt. De toenemende digitalisering en technologische ontwikkelingen dwingen tot ethische keuzes. Hoe ver kan je gaan met data mining, automatisering en digitale processen? En wat doe je met regionale verschillen? In Azië gelden andere normen en waarden dan in Europa. Ga je dan je eigen normen opleggen in andere regio’s? Of hanteer je, tegen je eigen waardenpatroon in, de lokale normen?
Kader: Moeilijke vraag. Zegt u het maar…
Martens: Het antwoord is niet eenduidig. Maar ik vind het wel belangrijk dat onze toekomstige ondernemers en beleidsvoerders minstens weten dat dit soort ethische kwesties volop aan de orde zijn. En dat er gelukkig ook manieren bestaan om daarmee om te gaan.
Kader: Hoe aanwezig is data mining in onze leefwereld?
Martens: Heel aanwezig. Zoals ik al zei maakt de Belgische overheid er uitgebreid gebruik van. En ook in de bedrijfswereld is het alomtegenwoordig. We gaan er hier wel anders mee om dan in China. Daar staat ethiek minder hoog op de agenda. De Chinese overheid wil tegen 2020 elke burger een social credit score geven. Wie zich als een goede burger gedraagt, krijgt een hoge score. Maar een misstap betekent dan een verlaging van die score. Als je door het rood oversteekt wordt dat via gezichtsherkenning meteen gezien en word je publiek te kijk gezet. Name and shame. Die score heeft dan een invloed op de toegang tot werk, opleiding en zelfs transport. Zo ver gaat het bij ons niet, natuurlijk. Wij hanteren andere ethische normen. Maar hoe ver het dan wél kan gaan, is niet uitgemaakt. Daar willen wij toekomstige generaties alvast even bij doen stilstaan.