Nelson Phillips en Fares Ahmad van de Universiteit van Californië, Santa Barbara onderzoeken hoe AI op de werkplek als ondersteuning voor werknemers een reeks problemen met zich meebrengt.
Nu hulpmiddelen voor kunstmatige intelligentie zoals ChatGPT een steeds populairder wordende weg worden voor mensen die op zoek zijn naar persoonlijke therapie en emotionele steun, kunnen de gevaren die dit met zich meebrengt – vooral voor jongeren – hebben veel krantenkoppen gehaald. Wat niet zoveel aandacht heeft gekregen, is dat werkgevers generatieve AI gebruiken om het psychologische welzijn van werknemers te beoordelen en emotionele steun op de werkplek te bieden.
Sinds de door de pandemie veroorzaakte mondiale verschuiving naar werken op afstand zijn er sectoren variërend van gezondheidszorg naar menselijke hulpbronnen En klantenservice Ik heb een piek gezien bij werkgevers met behulp van AI-aangedreven systemen ontworpen om de emotionele toestand van werknemers te analyseren, emotioneel noodlijdende personen te identificerenen hen emotionele steun te bieden.
Deze nieuwe grens gaat een grote stap verder dan het gebruik van algemene chathulpmiddelen of individuele therapie-apps voor psychologische ondersteuning. Als onderzoekers studeren hoe AI emoties beïnvloedt en relaties op de werkvloer houden we ons bezig met kritische vragen die deze verschuiving oproept: wat gebeurt er als uw werkgever toegang heeft tot uw emotionele gegevens? Kan AI echt het soort emotionele steun bieden dat werknemers nodig hebben? Wat gebeurt er als de AI niet goed functioneert? En als er iets misgaat, wie is dan verantwoordelijk?
Het verschil op de werkvloer
Veel bedrijven zijn begonnen met het aanbieden van geautomatiseerde counselingprogramma’s die veel parallellen vertonen met apps voor persoonlijke therapie, een praktijk die enkele voordelen heeft opgeleverd. In voorlopige onderzoeken ontdekten onderzoekers dat in een virtuele gespreksomgeving in de stijl van een arts en patiënt daadwerkelijk door AI reacties werden gegenereerd zorgen ervoor dat mensen zich meer gehoord voelen dan menselijke. Uit een onderzoek waarin AI-chatbots werden vergeleken met menselijke psychotherapeuten, bleek dat de bots “minstens zo empathisch als de reacties van de therapeut, en soms nog empathischer.”
Dit lijkt op het eerste gezicht misschien verrassend, maar AI biedt niet-aflatende aandacht en consequent ondersteunende reacties. Het onderbreekt niet, oordeelt niet en raakt niet gefrustreerd als je dezelfde zorgen herhaalt. Voor sommige werknemers, vooral degenen die te maken hebben met gestigmatiseerde problemen zoals geestelijke gezondheid of conflicten op de werkplek, is deze consistentie voelt veiliger dan menselijke interactie.
Maar voor anderen roept het nieuwe zorgen op. Uit een onderzoek uit 2023 bleek dat werknemers waren terughoudend om deel te nemen in door het bedrijf geïnitieerde programma's voor geestelijke gezondheidszorg vanwege zorgen over vertrouwelijkheid en stigma. Velen vreesden dat hun onthullingen een negatieve invloed zouden kunnen hebben op hun carrière.
Andere AI-systemen op de werkplek gaan veel dieper en analyseren de communicatie van werknemers terwijl deze plaatsvindt – denk aan e-mails, Slack-gesprekken en Zoom-oproepen. Deze analyse creëert gedetailleerde registraties van de emotionele toestanden van werknemers, stresspatronen en psychologische kwetsbaarheden. Al deze gegevens bevinden zich in bedrijfssystemen waar de privacybescherming doorgaans onduidelijk is en vaak in het voordeel is van de belangen van de werkgever.
Workplace Options, een wereldwijde aanbieder van werknemersondersteuning, is een partnerschap aangegaan met Wellbeing.ai een platform inzetten dat gezichtsanalyses gebruikt om emotionele toestanden in 62 emotiecategorieën bij te houden. Het genereert welzijnsscores die organisaties kunnen gebruiken om stress- of moreelproblemen op te sporen. Deze aanpak integreert AI effectief in emotioneel gevoelige aspecten van het werk, waardoor er een ongemakkelijk dunne grens blijft tussen ondersteuning en toezicht.
In dit scenario genereert dezelfde AI die ervoor zorgt dat werknemers zich gehoord en gesteund voelen, ook ongekend inzicht in de emotionele dynamiek van werknemers. Organisaties kunnen nu bijhouden welke afdelingen tekenen van burn-out vertonen, werknemers identificeren die het risico lopen te stoppen en emotionele reacties op veranderingen in de organisatie monitoren.
Maar dit soort tools zet emotionele gegevens ook om in managementinformatie, waardoor veel bedrijven voor een echt dilemma komen te staan. Terwijl vooruitstrevende organisaties een strikt databeheer invoeren – het beperken van de toegang tot geanonimiseerde patronen in plaats van individuele gesprekken – waar anderen moeite mee hebben de verleiding om emotionele inzichten te gebruiken voor prestatie-evaluatie en personeelsbeslissingen.
Continue surveillance door sommige van deze systemen kan ervoor zorgen dat bedrijven een groep of individu in nood niet verwaarlozen, maar het kan er ook toe leiden dat mensen hun eigen acties in de gaten houden om te voorkomen dat ze de aandacht op zichzelf vestigen. Onderzoek naar AI-monitoring op de werkplek heeft aangetoond hoe Medewerkers ervaren meer stress en passen hun gedrag aan wanneer ze weten dat het management hun interacties kan beoordelen. Het toezicht ondermijnt het gevoel van veiligheid dat nodig is om mensen op een comfortabele manier hulp te laten zoeken. Uit een ander onderzoek bleek dat deze systemen meer stress voor werknemers vanwege het verlies van privacy en de bezorgdheid dat er gevolgen zouden optreden als het systeem zou identificeren dat ze gestrest of opgebrand waren.
Wanneer kunstmatige empathie echte gevolgen heeft
Deze bevindingen zijn belangrijk omdat de inzet aantoonbaar zelfs hoger is op de werkplek dan op persoonlijk vlak. AI-systemen missen het genuanceerde oordeel dat nodig is om onderscheid te maken tussen het accepteren van iemand als persoon en het goedkeuren van schadelijk gedrag. In organisatorische contexten betekent dit dat een AI onbedoeld onethische praktijken op de werkplek kan valideren of niet kan onderkennen wanneer menselijk ingrijpen van cruciaal belang is.
En dat is niet de enige manier waarop AI-systemen dingen fout kunnen doen. Uit een onderzoek is gebleken dat AI-tools voor het volgen van emoties een onevenredige gevolgen over werknemers van gekleurde, trans- en gender non-binaire mensen, en mensen met een psychische aandoening. Geïnterviewden sprak zijn diepe bezorgdheid uit over hoe deze tools de stemming, toon of verbale wachtrijen van een werknemer verkeerd kunnen interpreteren vanwege etniciteit, geslacht en andere soorten vooroordelen die AI-systemen met zich meebrengen.
Er is ook een authenticiteitsprobleem. Uit onderzoek blijkt dat als mensen het weten ze praten tegen een AI-systeembeoordelen ze identieke empathische reacties als minder authentiek dan wanneer ze deze aan mensen toeschrijven. Toch geven sommige werknemers de voorkeur aan AI, juist omdat ze weten dat het niet menselijk is. Het gevoel dat deze tools je anonimiteit en vrijheid tegen sociale gevolgen beschermen, is voor sommigen aantrekkelijk – ook al is het misschien maar een gevoel.
De technologie roept ook vragen op over wat er met menselijke managers gebeurt. Als werknemers consequent de voorkeur geven aan AI voor emotionele steun, wat zegt dat dan over het leiderschap van de organisatie? Sommige bedrijven zijn dat wel AI-inzichten gebruiken om managers te trainen op het gebied van emotionele intelligentie, waardoor de technologie een spiegel wordt die weergeeft waar menselijke vaardigheden tekortschieten.
Het pad vooruit
Het gesprek over emotionele ondersteuning door AI op de werkplek gaat niet alleen over technologie – het gaat ook over voor wat voor soort bedrijven mensen willen werken. Nu deze systemen steeds vaker voorkomen, vinden wij het belangrijk om fundamentele vragen te beantwoorden: moeten werkgevers voorrang geven aan authentieke menselijke connecties boven consistente beschikbaarheid? Hoe kan individuele privacy in evenwicht worden gebracht met organisatorische inzichten? Kunnen organisaties de empathische capaciteiten van AI benutten en tegelijkertijd het vertrouwen behouden dat nodig is voor zinvolle relaties op de werkplek?
De meest doordachte implementaties erkennen dat AI de menselijke empathie niet mag vervangen, maar eerder omstandigheden moet creëren waarin deze kan floreren. Wanneer AI routinematig emotioneel werk afhandelt – de angstaanvallen om 3 uur 's ochtends, stresscontroles voorafgaand aan een vergadering, het verwerken van moeilijke feedback – krijgen managers bandbreedte voor diepere, authentiekere verbindingen met hun teams.
Maar dit vereist een zorgvuldige implementatie. Bedrijven die duidelijke ethische grenzen, sterke privacybescherming en expliciet beleid stellen over hoe emotionele gegevens worden gebruikt, zullen eerder de valkuilen van deze systemen vermijden – net als bedrijven die erkennen wanneer menselijk oordeel en authentieke aanwezigheid onvervangbaar blijven.
Door Nelson Philips En Tarieven Ahmad
Nelson Phillips is hoogleraar technologiemanagement aan de Universiteit van New York Universiteit van Californië, Santa Barbara. De onderzoeksinteresses van Phillips bestrijken organisatietheorie, innovatie en technologie. Momenteel onderzoekt hij hoe de hype rond opkomende technologieën technologieondernemers ‘vasthoudt’, hoe technologieondernemers de beslissing nemen om in organisaties na de oprichtingsfase een spil te worden en hoe ondernemersframing leidt tot morele legitimiteit bij belangrijke groepen belanghebbenden.
Fares Ahmad is een PhD-onderzoeker in technologiemanagement aan de Universiteit van New York Universiteit van Californië, Santa Barbara. Hij heeft meer dan tien jaar internationale ervaring met het opschalen van technologieën voor organisaties als Procter & Gamble, Apple, Boeing en GE Aviation. Zijn onderzoeksinteresses bestrijken technologie, organiseren en emoties en momenteel bestudeert hij het snijvlak van compassie en technologie, met een focus op hoe AI ons vermogen beïnvloedt om lijden in het organisatieleven op te merken, te voelen en te verlichten.