Wat zijn enkele van de gebieden waar we, vooruitlopend op de komende twaalf maanden van innovatie en verkenning, bijzondere aandacht aan moeten besteden als het gaat om kunstmatige intelligentie?
Het is moeilijk te geloven, maar we zijn al bijna een volle maand in het nieuwe jaar en met dat in gedachten kan het nuttig zijn om vooruit te kijken naar hoe je in de loop van 2026 wilt verbeteren en groeien.
Als u op zoek bent naar een gelukkig en productief jaar op het werk, vooral als u zich in het STEM-veld bevindt, kan het nuttig zijn om uw aandacht te richten op een onderwerp dat altijd in gesprek is – namelijk kunstmatige intelligentie (AI), het potentieel ervan om een risico te vormen en hoe u gevaren kunt beperken.
Laten we dus meteen beginnen: wat zijn enkele van de AI-gerelateerde uitdagingen die professionals de komende maanden in de gaten moeten houden?
Zwakke regelgeving
Dit is misschien wel het meest spraakmakende voorbeeld van waar AI momenteel faalt, aangezien het gesprek over het gebrek aan regelgeving en beleid op bepaalde innovatiegebieden momenteel een groot probleem is, of je nu op de werkvloer bent of niet.
Elon Musk zit in de problemen omdat hij er niet in is geslaagd snel en effectief op te treden tegen het misbruik van zijn Grok-technologie, die in sommige gevallen wordt gebruikt om expliciet en illegaal materiaal te creëren. Als reactie daarop hebben een aantal mondiale toezichthouders hun diepe bezorgdheid geuit over waar dit toe zou kunnen leiden.
Instanties in Maleisië en Indonesië hebben bijvoorbeeld de toegang tot Grok uitgesloten vanwege expliciete deepfakes, de Europese Commissie heeft aangekondigd gevallen van seksueel suggestieve beelden te onderzoeken, en de Ierse mediaregulator Coimisiún na Meán zei dat zij in gesprek is met de Europese Commissie over Grok en ook met An Garda Síochána over deze kwestie heeft gesproken.
En ze zijn niet de enigen: Australië, Duitsland, Italië, Frankrijk en… het Verenigd Koninkrijk hebben allemaal hun bezorgdheid geuit over de manier waarop geavanceerde technologieën de veiligheid kunnen beïnvloeden. Voor 2026 is het dus van cruciaal belang dat professionals ervoor zorgen dat zij prioriteit geven aan ethische, transparante en conforme AI-technologieën.
Geen toekomstkennis
Wereldwijd bevinden we ons in een positie waarin we ons een kwantumtoekomst kunnen voorstellen, ook al zijn we er nog niet helemaal. Dat wil zeggen dat mensen – van nature – dromers zijn, die zich voortdurend alle mogelijkheden tegelijk voorstellen en naar dat uiteindelijke resultaat toewerken. Als het om AI gaat, is er een argument dat we een beetje voorbijgeschoten zijn; Hoewel we over de technologie beschikken om het operationeel te krijgen, overtreft de adoptie van AI volgens sommige experts de daarmee samenhangende beveiliging en governance aanzienlijk.
Dit kan een groot aantal nieuwe bedreigingen creëren. Een IBM-rapportdat medio vorig jaar werd gepubliceerd, bleek dat organisaties in toenemende mate beveiliging en bestuur voor AI omzeilen, ten gunste van een snellere adoptie van technologie. Dit kan het individu en de organisatie mogelijk blootstellen aan veel grotere risico's dan wanneer bedrijven een meer afgemeten, strategische aanpak hadden gevolgd.
Uit een recente Allianz Risk Barometer voor 2026 blijkt dat AI “naar de hoogste positie ooit is geklommen: nummer twee, een stijging ten opzichte van nummer 10”, aangezien zowel cyber als AI nu tot de top vijf van zorgen voor bedrijven in bijna elke industriële sector behoren.
Het doodt de motivatie
Vergeleken met de reële gevaren van kwetsbare beveiligingssystemen en de kans op illegaal gebruik, klinkt AI, die een gebrek aan bijscholing en motivatie bij professionals veroorzaakt, misschien triviaal, maar het is een element van AI-technologie dat iemands carrièreambities aanzienlijk kan beïnvloeden of zelfs kan laten ontsporen.
Uit onderzoek blijkt dat een te grote afhankelijkheid van AI in een onderwijsomgeving dat wel kan beperken creatief en kritisch denkenomdat degenen die proberen te leren in plaats daarvan technologie gebruiken in plaats van hun eigen onderzoek. Mensen lopen het risico dat hun vaardigheden achteruitgaan, wat in wezen neerkomt op het wegkwijnen van je eigen vaardigheden in de loop van de tijd, omdat je te veel van je werk en denken uitbesteedt aan AI.
Na een tijdje zult u misschien merken dat u niet gemotiveerd bent voor uw werk, dat u elementen van het werk tegenkomt die u niet langer volledig begrijpt en dat er inconsistenties zijn in de resultaten of resultaten. Zoals we inmiddels allemaal weten, is AI niet te vertrouwen; alles waarvoor u het ooit gebruikt, moet door een echt mens worden beoordeeld en op feiten worden gecontroleerd.
Niet duurzaam
Terwijl we steeds dichterbij komen 2030 en de toezeggingen die we hebben gedaan Om een veilige en groene planeet voor iedereen te garanderen, wordt het duidelijk dat de toewijding van sommigen aan AI-innovatie in de weg zou kunnen staan. AI-infrastructuur, zoals datacenters, is berucht vanwege de hoeveelheid geproduceerd afval en vereist grote hoeveelheden water, kritieke mineralen en zeldzame elementen. Deze worden vaak op een onethische, niet-duurzame manier geoogst, wat resulteert in verdere uitstoot en bijdraagt aan de verergerende klimaatcrisis.
Er zijn echter vernieuwers die daar naartoe werken het ontwikkelen van bruikbare mineralen en processen waarvoor niet zoveel natuurlijke hulpbronnen nodig zijn, waardoor het effect op de planeet wordt verminderd.
Als u een professional bent die ernaar streeft zo groen mogelijk te zijn, ondanks dat u in een vakgebied werkt dat niet altijd met duurzaamheid wordt geassocieerd, dan kan AI een gebied zijn waar u meer bewustzijn over creëert terwijl u probeert duurzamere manieren van werken te vinden en anderen aanmoedigt hetzelfde te doen.