Ik spreek regelmatig managers die enthousiast zijn over de mogelijkheden van kunstmatige intelligentie. Nu we ons op de top van de hype bevinden, is het tijd om een volwassen houding te ontwikkelen ten opzichte van AI.
Nog te vaak verwarren we AI met een doel an sich, geloven we dat data neutraal zijn of staan onvoldoende stil bij het belang van ethiek. Daarom deel ik graag deze zes inzichten die managers hopelijk helpen om een volwassen AI-houding te ontwikkelen.
#1 AI is een tool en geen doel
Regelmatig klinkt de ambitie om ‘iets’ met AI doen. Dat noemt men tech-solutionisme, het idee dat technologie de ideale oplossing is. Maar dat is eigenlijk de omgekeerde wereld. Idealiter zoek je naar de beste oplossing voor een probleem. Dat kan AI zijn, maar dat ook iets compleet anders zijn zoals inzetten op gedragsverandering.
Het is raar om je blind te staren op een tool. Een loodgieter gaat ook niet naar zijn werk, omdat hij die dag zijn favoriete nijptang wil gebruiken. Het is pas zinnig om AI in te zetten als het beter presteert dan andere oplossingen. Onthoud: AI is een tool, geen doel.
#2 Laat verantwoordelijkheid voor de AI-stagiair niet over aan stagiairs
Wat gaat de impact zijn van tools als ChatGPT en Copilot? Deze AI-tools geven ons de beschikking over ‘oneindig veel stagiairs’. Ze maken het mogelijk om in razend tempo werk uit handen te nemen dat professionals liever niet zelf doen. Daardoor blijft er tijd over voor werk waar mensen beter in zijn: strategisch denkwerk, creatief werk of menselijk contact. Net zoals het werk van stagiairs niet foutloos is, is het ook belangrijk om de output van AI-tools kritisch te controleren.
Opvallend vaak wordt de verantwoordelijkheid voor AI-projecten neergelegd bij stagiairs, omdat de overtuiging bestaat dat jonge mensen verstand hebben van nieuwe technologie. Maar dat is onhandig. AI verdient aandacht van meer senior collega’s – of beter nog: de leiding van een organisatie. Er is ervaring voor nodig om de voorwaarden te bepalen waarin een AI-experiment als succesvol beschouwd kan worden. Ook AI kan niet zonder businesscase, bewijst dit farmaceutisch bedrijf dat besloot niet meer met Microsoft Copilot te werken.
Lees ook: ChatGPT op het werk verbieden heeft geen zin, opvoeden is noodzaak
#3 Data zijn niet neutraal
Sommige organisaties gebruiken AI in het sollicitatieproces, omdat ze hopen dat AI racisme en discriminatie voorkomt. Dat idee berust helaas op het misverstand dat data neutraal zijn. Vaak maken organisaties gebruik van historische data om een AI-model te trainen. Zijn er in het verleden veel mannen of jongeren aangenomen voor een bepaalde baan, dan acht het AI-model ouderen of vrouwen ongeschikt.
Dat gebeurt ook als je geslacht of leeftijd niet expliciet als selectiecriterium gebruikt. Door andere datapunten, zoals iemands werkervaring, komt dat vooroordeel toch in het AI-systeem terecht. Laten we snel afscheid nemen van het idee dat AI of data neutraal zijn.
#4 Nu inzetten op ethiek geeft later een voorsprong
Wetgeving en ethiek worden nog vaak gezien als een struikelblok voor innovatie. Op zich is die gedachte interessant: we laten auto’s pas op de weg als ze veilig zijn, maar AI moet ongehinderd doordenderen, want anders missen we belangrijke kansen. Het is een doorzichtig frame van de techindustrie dat helaas gemeengoed lijkt geworden.
AI is verantwoordelijk voor veel CO2-uitstoot en de arbeidsomstandigheden waarin AI-modellen getraind worden doet denken aan sweatshops. Bedrijven die iets geven om duurzaamheid of MVO zijn kritisch op AI-bedrijven. Dat levert later een voorsprong op. Door vooraf voldoende tijd en energie te investeren in ethiek en te voldoen aan wetgeving, kan later sneller opgeschaald worden.
#5 AI kan bijeffecten hebben
Waar onvoldoende bij wordt stilgestaan, is dat de inzet van AI-tools bijeffecten kan hebben. Organisaties kunnen vergaderingen automatisch laten opnemen door middel van AI, zodat ze later doorzoekbaar zijn. Maar dat betekent misschien dat sommige collega’s niet meer vrijuit durven te spreken.
AI wordt ook steeds vaker ingezet om het werk van collega’s te controleren, zodat hun prestaties verbeterd kunnen worden. Dat kan ervoor zorgen dat collega’s onnodig lang over hun werk doen of bepaald werk niet meer durven te doen, uit angst om fouten te maken. Wees je dus bewust van de onbedoelde effecten van de inzet van AI.
Lees ook: AI richt nu al schade aan, zegt techfilosoof Aaron Mirck
#6 Management blijft mensenwerk
Sommige taken van managers kunnen worden overgenomen door AI-chatbots. Voer het personeelshandboek aan een AI-chatbot en je collega’s weten dankzij de chatbot in razend tempo hoe het precies zit met vakantiedagen, thuiswerken of bijscholing.
Dat bekent niet dat je als manager achterover kan leunen. Mens-tot-mens-contact valt immers niet te automatiseren. De aandacht die een chatbot geeft, is niet hetzelfde als die van een mens. Zorg er dus voor dat collega’s altijd bij je terecht kunnen met vragen. Net zoals je in een supermarkt naar de zelfscankassa kan en naar een kassière van vlees en bloed. Aandacht valt nou eenmaal niet te automatiseren.