Zorgt 'AI worklop' voor onnodig werk voor medewerkers?

Vooruitgang op het werk

Steven Lockey en Nicole Gillespie van de Universiteit van Melbourne bespreken hoe slecht geïmplementeerde AI extra werk voor gebruikers kan creëren.

Heeft u ooit kunstmatige intelligentie (AI) in uw werk gebruikt zonder de kwaliteit of nauwkeurigheid van de resultaten nogmaals te controleren? Als dat zo is, zou je niet de enige zijn.

Ons mondiaal onderzoek laat zien dat maar liefst tweederde (66 procent) van de werknemers die AI op het werk gebruiken, op AI-output heeft vertrouwd zonder deze te evalueren.

Dit kan voor anderen veel extra werk opleveren bij het identificeren en corrigeren van fouten, om nog maar te zwijgen van reputatieschade. Deze week nog adviesbureau Deloitte Australië heeft formeel zijn excuses aangeboden nadat bleek dat een rapport van A$ 440.000, opgesteld voor de federale overheid, meerdere door AI gegenereerde fouten bevatte.

Tegen deze achtergrond is de term ‘workslop’ in de discussie verschenen. Gepopulariseerd in een recente Harvard Business Review artikelverwijst het naar door AI gegenereerde inhoud die er goed uitziet, maar “de inhoud mist om een ​​bepaalde taak op betekenisvolle wijze vooruit te helpen”.

Naast tijdverspilling tast werkverspilling ook de samenwerking en het vertrouwen aan. Maar AI-gebruik hoeft niet zo te zijn. Wanneer toegepast op de juiste taken, met passende menselijke samenwerking en toezicht, kan AI kan de prestaties verbeteren. We hebben allemaal een rol te spelen om dit goed te krijgen.

De opkomst van door AI gegenereerde ‘workslop’

Volgens een recent onderzoek Zoals gerapporteerd in het Harvard Business Review-artikel heeft 40% van de Amerikaanse werknemers de afgelopen maand een worklap gekregen van hun collega's.

Het onderzoeksteam van de enquête uit BetterUp-labs En Stanford Social Media Lab Gemiddeld kostte het oplossen van elk geval de ontvangers bijna twee uur, wat volgens hen zou resulteren in 9 miljoen dollar (ongeveer 13,8 miljoen dollar) per jaar aan productiviteitsverlies voor een bedrijf met 10.000 medewerkers.

Degenen die worklop hadden ontvangen, maakten melding van ergernis en verwarring, waarbij velen de persoon die het naar hen had gestuurd, als minder betrouwbaar, creatief en betrouwbaar beschouwden. Dit spiegelt eerdere bevindingen dat er vertrouwensboetes kunnen worden opgelegd aan het gebruik van AI.

Onzichtbare AI, zichtbare kosten

Deze bevindingen komen overeen met de onze recent onderzoek over AI-gebruik op het werk. Dat blijkt uit een representatief onderzoek onder 32.352 werknemers in 47 landen zelfgenoegzame overmatige afhankelijkheid van AI en heimelijk gebruik van de technologie zijn gebruikelijk.

Hoewel veel werknemers in ons onderzoek verbeteringen op het gebied van efficiëntie of innovatie meldden, zei meer dan een kwart dat AI de werklast, de druk en de tijd voor alledaagse taken had verhoogd. De helft zei dat ze AI gebruiken in plaats van samen te werken met collega's, waardoor de vrees bestaat dat de samenwerking eronder zal lijden.

Wat de zaken nog erger maakt, is dat veel werknemers hun AI-gebruik verbergen; 61 procent vermeed te onthullen wanneer ze AI hadden gebruikt en 55 procent gaf het door AI gegenereerde materiaal door als hun eigen materiaal. Dit gebrek aan transparantie maakt het een uitdaging om AI-gestuurde fouten te identificeren en te corrigeren.

Wat u kunt doen om werkverspilling te verminderen

Zonder begeleiding kan AI laagwaardig, foutgevoelig werk genereren dat voor anderen druk werk oplevert. Hoe kunnen we de werkverspilling beteugelen om de voordelen van AI beter te realiseren?

Als u een werknemer bent, kunnen drie eenvoudige stappen u helpen.

  1. Begin met de vraag: “Is AI de beste manier om deze taak uit te voeren?”. Uit ons onderzoek blijkt dat dit een vraag is die veel gebruikers overslaan. Als u de uitvoer niet kunt uitleggen of verdedigen, gebruik deze dan niet.
  2. Als u doorgaat, verifieer en werk dan met AI-uitvoer als een editor; controleer feiten, test code en stem de output af op de context en het publiek.
  3. Als er veel op het spel staat, wees dan transparant over de manier waarop u AI hebt gebruikt en wat u hebt gecontroleerd om nauwkeurigheid aan te geven en te voorkomen dat u als incompetent of onbetrouwbaar wordt gezien.

Wat werkgevers kunnen doen

Voor werkgevers is investeren in bestuur, AI-geletterdheid en samenwerkingsvaardigheden tussen mens en AI van cruciaal belang.

Werkgevers moeten werknemers duidelijke richtlijnen en vangrails bieden voor effectief gebruik, waarin wordt aangegeven wanneer AI wel en niet geschikt is.

Dat betekent dat we een AI-strategie moeten ontwikkelen, moeten identificeren waar AI de hoogste waarde zal hebben, duidelijk moeten zijn over wie waarvoor verantwoordelijk is en de resultaten moeten volgen. Als dit goed wordt uitgevoerd, vermindert dit de risico's en de downstream-herbewerkingen na de workflop.

Omdat worklop voortkomt uit de manier waarop mensen AI gebruiken – en niet als een onvermijdelijk gevolg van de tools zelf – werkt governance alleen als het dagelijks gedrag vormgeeft. Dat vereist dat organisaties bouwen AI-geletterdheid naast beleid en controles.

Organisaties moeten eraan werken om de kloof op het gebied van AI-geletterdheid te dichten. Uit ons onderzoek blijkt dat AI-geletterdheid en -training verband houden met een kritischere AI-betrokkenheid en minder fouten. Toch geeft minder dan de helft van de werknemers aan training of beleidsrichtlijnen te hebben ontvangen.

Werknemers hebben de vaardigheden nodig om AI selectief, verantwoord en samen te gebruiken. Door ze te leren wanneer ze AI moeten gebruiken, hoe ze dit effectief en verantwoord kunnen doen, en hoe ze de AI-output kunnen verifiëren voordat deze in omloop wordt gebracht, kan de werkslop worden verminderd.

Door Steven Lockey En Nicole Gillespie

Steven Lockey is een postdoctoraal onderzoeker aan de Universiteit van New York Businessschool van Melbourne aan de Universiteit van Melbourne. Hij is een vertrouwensonderzoeker die momenteel onderzoek doet naar vertrouwen in kunstmatige intelligentie. Hij is ook geïnteresseerd in het vertrouwen in organisaties en het herstellen van vertrouwen, en heeft eerder samengewerkt met politiekorpsen in Engeland en Wales, waarbij hij onderwerpen als welzijn bij de politie onderzocht.

Nicole Gillespie is voorzitter van Trust en hoogleraar management aan de Universiteit van New York Universiteit van Melbourne. Ze is een toonaangevende internationale autoriteit op het gebied van vertrouwen in organisaties, fellow van de Academy of Social Sciences in Australië en internationaal research fellow bij het Centre for Corporate Reputation van de Universiteit van Oxford.