KAN ARTIFICIËLE INTELLIGENTIE HR VERSTERKEN?
“Het is alsof je zonder veiligheidsgordel over de snelweg raast”
Steeds vaker vindt artificiële intelligentie (AI) de weg naar de werkvloer. Ook in HR wordt steeds meer gebruik gemaakt van slimme systemen om het personeelsbeleid te stroomlijnen. Maar zijn die systemen altijd wel zo slim? Mieke De Ketelaere, directeur AI bij onderzoekscentrum imec (IDLab), plaatst alleszins vraagtekens bij een aantal volledig geautomatiseerde toepassingen.
“De technologie is niet het probleem,” legt De Ketelaere uit. “Maar AI is niet ontwikkeld voor alle taken. AI is ontwikkeld voor DDDD-taken: dangerous, dull, dirty and difficult. Daarin kan het een enorm verschil maken. In die context kan AI uit data leren en zelfstandig beslissen en handelen. Maar personeelsbeleid vergt ook interpersoonlijke skills. Voor HR-beslissingen is er nood aan ‘a human in the loop’, een mens die de beslissing neemt.”
Dirty, dull, dangerous and difficult
Wanneer die menselijke factor wel in beeld blijft, ziet De Ketelaere wel mogelijkheden. “AI kan perfect DDDD-taken overnemen van werknemers. Timesheets invullen, een agenda beheren… Dat kan perfect. Je kan het ook inzetten voor het retentiebeleid. AI kan een completer beeld opleveren van je werknemers, wat ze nodig hebben en waar er knelpunten zitten. Het kan de stress of vermoeidheid van je medewerkers meten, vaak beter dan zij zelf. Via kleine radartjes kan AI haarfijn het stressniveau en de vermoeidheid meten van werknemers. Ze geven eerlijke en waardevolle info, die je niet altijd krijgt van je medewerkers zelf.” Zit je daar niet op een hellend vlak, willen we weten. Is het niet gevaarlijk dat je werkgever die info heeft? “Het is alleszins beter dan dat je ziek wordt van de stress,” vindt De Ketelaere. “Door stress te monitoren, kan er ook iets aan gedaan worden.”
“Voor HR-beslissingen is er nood aan ‘a human in the loop’, een mens die de beslissing neemt.”
AI inzetten om cv’s te screenen en de waardevolle kandidaten uit de toegestroomde sollicitaties te filteren, vindt De Ketelaere geen evidente toepassing. “Een data scientist in het buitenland bouwde voor een Belgisch bedrijf een toepassing die onwetend, op basis van het IP-adres, sollicitanten uit Brasschaat voorrang gaf op die uit Schaarbeek. Want in het verleden bleken die vaker geselecteerd, en dat had het systeem geleerd. AI bouwt verder op de data en beslissingen uit het verleden. En houdt dus ‘bias’ of vooroordelen in stand. Zelfs als je probeert om AI te gebruiken om net een objectiever of diverser beleid te voeren, is het toch niet eenvoudig om bias er helemaal uit te halen.”
“Data anonimiseren of bepaalde informatie zoals leeftijd en geslacht niet meenemen tijdens de opleiding van het systeem is niet voldoende. Het zit vaak heel subtiel in onschuldige velden zoals in het emailadres, een veld dat onbewust iets zegt over leeftijd bijvoorbeeld. Zeker systemen die in het buitenland worden opgeleid met Belgische data – wat vaak gebeurt omdat data scientists hier moeilijk te vinden zijn – zijn problematisch. Daar kennen ze onze lokale context en gevoeligheden niet.”
AI kan voor HR-toepassingen gebruik maken van massa’s data uit cv’s en evaluaties, maar HR-afdelingen gaan vaak ook nog elders op zoek naar data. ”Ik ken AI-systemen die ook data uit de Facebook en Linkedin-accounts van sollicitanten meenemen op zoek naar extra aanvullingen om het beeld te vervolledigen. Verder zag ik ook systemen emoties interpreteren uit sollicitatievideo’s. Sollicitanten met rode vlekken in hun gezicht tijdens het gesprek werden dan hierin bijvoorbeeld minder geschikt beoordeeld. Vreemd, want een menselijke recruiter zou de ruimere context zien en begrijpen. Mensen gebruiken empathische skills in hun beoordelingen. Maar AI kan dat niet, waardoor het niet noodzakelijk de juiste keuze maakt,” legt De Ketelaere uit. “Voor wie een beetje mee is met AI, is het overigens ook relatief makkelijk om in een cv de juiste woorden te gebruiken om geselecteerd te worden. Maar neemt het bedrijf dan ‘mij’ aan? Of een versie van mezelf die zich als iemand anders voordoet?”
“Wat precies wordt opgeslagen en bijgehouden is meestal erg onduidelijk. Op vlak van GDPR en privacy zijn daar zeker vragen bij te stellen.”
Digitale assistenten
In een aantal bedrijven wordt ook al geëxperimenteerd met digitale assistenten voor het personeel. Die coachen medewerkers om betere resultaten neer te zetten. “Dat neigt naar Big Brother,” zegt De Ketelaere bezorgd. “Het robotiseert mensen. Het haalt alle creativiteit en strategie uit een job. Bovendien gaat die assistent met gegevens uit jouw gedrag aan de slag om je af te toetsen tegen anderen. Wat er precies wordt opgeslagen en bijgehouden is meestal erg onduidelijk. Op vlak van gdpr en privacy zijn daar zeker vragen bij te stellen.”
Transparantie over het gebruik van AI is volgens De Ketelaere essentieel. “AI is nog te veel verborgen technologie. Er is nauwelijks een wettelijk kader. En ook een ethisch kader ontbreekt vaak. Ik vergelijk het graag met autorijden in de jaren ’70, toe de veiligheidsgordel en een rijbewijs nog niet verplicht waren. En dan is AI alsof je zonder veiligheidsgordel op de passagiersstoel zit van een auto die over de snelweg raast. Je kan alleen maar hopen dat de chauffeur alles goed doet en dat er niks fout loopt.”
Maar er is beterschap op komst. De EU werkt aan een wettelijk kader. Wat De Ketelaere daar al van te zien kreeg, is volgens haar voorlopig nog te veel gebaseerd op toepassingen uit het verleden en te weinig actueel of toekomstgericht. Dat wil ze nog graag helpen bijsturen. En in bedrijven wordt stilaan ook gesleuteld aan ethische kaders. “In Duitsland lopen ze wat voorop,” weet ze. “Daar worden ook externen bij die besprekingen betrokken, en wordt dus niet enkel rekening gehouden met winstbejag. Dat is een goede evolutie.”
Steeds vaker worden werknemers geconfronteerd met AI-toepassingen. Vanuit de vakbond volgt Vic Van Kerrebroeck de evoluties in de verzekeringssector op. “We mogen dit dossier niet aan ons voorbij laten gaan. AI komt op ons af. We ontkennen zeker niet het een meerwaarde kan betekenen, ook voor werknemers. Maar we willen wel transparantie over wat er gebeurt. Een cao uit 1983 zegt dat werknemers en hun vertegenwoordigers moeten geïnformeerd worden over nieuwe technologische toepassingen. En ook de gdpr-voorschriften zeggen duidelijk dat werknemers moeten weten welke data worden geregistreerd en opgeslagen. We hebben daar dus zeker een rol te spelen.”
“We willen samen met de werkgevers verder werken aan duidelijke ethische kaders. Die moeten we niet altijd zelf uitvinden, want in sommige landen staan ze op dat vlak al een stukje verder. In de financiële sector zijn er in Singapore bijvoorbeeld al concrete afspraken over een ethisch aanvaardbare toepassing van AI. Maar ook hier in Europa hebben we met de sociale partners uit de verzekeringssector een paar maand terug al enkele eerste algemene afspraken gemaakt over toepassingen van AI op HR-vlak. Laten we hierin verder gaan en ook in de bedrijven en andere sectoren werknemers hierin ondersteunen.”