Data Protection waarschuwt het MKB voor de risico’s van het gebruik van kunstmatige intelligentie bij klantinformatie

Nieuws

De Spaans agentschap voor gegevensbescherming (AEPD) heeft een decaloog gepubliceerd van aanbevelingen om te waarschuwen voor de risico’s van het delen van informatie met hulpmiddelen voor kunstmatige intelligentie en de noodzaak om uiterste voorzichtigheid te betrachten bij het gebruik ervan. Zijn waarschuwingen zijn van grote invloed zelfstandigen en MKB-bedrijven, die deze technologieën al gebruiken in hun dagelijkse activiteiten.

Veel bedrijven wenden zich tot AI om verkoopteksten te schrijven, te reageren op vragen van klanten, gegevens te analyseren, afbeeldingen te genereren of interne processen te ondersteunen, vaak zonder na te denken over welke informatie wordt ingevoerd, waar deze wordt opgeslagen of voor welke doeleinden deze kan worden hergebruikt. Vanuit het oogpunt van gegevensbescherming kan dit ongecontroleerde gebruik een ernstig probleem als persoonlijke gegevens of strategische informatie worden gedeeld van het bedrijf.

In dit kader is de cybersecurity-expert en verantwoordelijke voor onderzoek en bewustwording van Ontinet.com, Josep Albors waarschuwde daarvoor De Spaanse regelgeving “met betrekking tot gegevensbescherming overweegt boetes belangrijk voor die organisaties die de persoonsgegevens die zij onder hun hoede hebben niet op de juiste wijze verwerken.” Vooral wanneer AI-systemen worden gebruikt zonder maatregelen om te voorkomen dat die informatie “wordt gedeeld of gelekt naar derden die er geen toegang toe mogen hebben.”

  1. De AEPD waarschuwt voor mogelijk misbruik van AI dat gevolgen zou kunnen hebben voor bedrijven
  2. Persoonlijke en gevoelige gegevens: de grootste bron van risico
  3. Kies voor AI-tools met garanties en reviewvoorwaarden
  4. AI als ondersteuning, niet als vervanging voor professioneel oordeel
  5. Afzonderlijke accounts, geschiedenisverwijdering en profilering
  6. Minderjarigen en verantwoord gebruik in bedrijfsgerelateerde omgevingen
  7. Wat kan een zelfstandige vandaag doen om hieraan te voldoen zonder gek te worden?

De AEPD waarschuwt voor mogelijk misbruik van AI dat gevolgen zou kunnen hebben voor bedrijven

De decaloog, gepubliceerd door het Spaanse Agentschap voor Gegevensbescherming, concentreert zich op een centraal idee: alle informatie die in een hulpmiddel voor kunstmatige intelligentie wordt ingevoerd, kan uiteindelijk worden opgeslagen, hergebruikt of blootgesteld op manieren waar de gebruiker geen controle over heeft. En dat heeft directe gevolgen voor zelfstandigen en MKB-bedrijven die dagelijks omgaan met persoonsgegevens, interne documentatie of strategische informatie.

De aanbevelingen zijn verre van een theoretisch debat, maar zijn van toepassing op veel voorkomende toepassingen, zoals het vragen aan een AI om een ​​e-mail aan een klant te schrijven, het analyseren van een contract, het samenvatten van een commercieel gesprek, het creëren van inhoud voor sociale netwerken of het voorbereiden van reacties van de klantenservice.

Persoonlijke en gevoelige gegevens: de grootste bron van risico

De AEPD vraagt ​​hier uitdrukkelijk om Upload geen persoonlijke gegevens zoals namen, adressen, telefoonnummers, ID, afbeeldingen naar de AI of enige informatie die het mogelijk maakt een persoon te identificeren, en vooral om gevoelige, medische, financiële, contractuele of geolocatiegerelateerde informatie te vermijden.

Op zakelijk gebied heeft dit rechtstreeks invloed op klantendatabases, cv's, loonlijsten, incidentgeschiedenissen, klachten of interne e-mails.

Josep Albors legde uit dat “in aanvulling op het bewustzijn onder alle medewerkers vergroten, Het ideaal is om een systeem dat informatie filtert met betrekking tot persoonlijke gegevens en waarschuw de gebruiker voordat deze worden verzonden.” Als voorbeeld wees hij erop dat er oplossingen zijn die het mogelijk maken “meerdere AI-modellen te integreren, naast het controleren welke informatie we verzenden.”

De deskundige voegde eraan toe dat deze voorzorgsmaatregel zich ook zou moeten uitstrekken tot gevoelige informatie: “Als we voorzichtig moeten zijn met persoonlijke gegevens, gebeurt hetzelfde met informatie die als vertrouwelijk of gevoelig wordt beschouwd.” Om deze reden benadrukte hij dat het, naast controletools, van cruciaal belang is om “het belang van gebruikersbewustzijn” te onthouden om te voorkomen dat per ongeluk gegevens worden gedeeld.

In de praktijk betekent dit bijvoorbeeld:

  • Kopieer en plak geen echte klant-e-mails in een chatbot.
  • Upload geen documenten met identificerende gegevens.
  • Vervang echte namen door fictieve voorbeelden wanneer u een AI om hulp vraagt.
  • Professionele informatie, contracten en bedrijfsstrategie

Voor een ander punt van de decaloog wordt gewaarschuwd bevatten geen professionele informatie in AI-tools. Voor een bedrijf gaat het om contracten, budgetten, interne rapportages, commerciële strategieën, prijslijsten of afspraken met leveranciers.

Met betrekking tot dit aspect benadrukte Albors dat “het erg belangrijk is om beleid voor informatieverwerking in de organisatie vast te stellen en ervoor te zorgen dat alle werknemers dit kennen en toepassen, en indien nodig oefeningen en simulaties uitvoeren om fouten en slechte gewoonten te corrigeren.”

Een freelancer zonder personeel moet ook zijn eigen regels stellen: welke soorten documenten worden nooit in een AI ingevoerd en voor welke taken kan deze worden gebruikt.

Kies voor AI-tools met garanties en reviewvoorwaarden

De AEPD adviseert bekijk de servicevoorwaarden voordat u een AI-tool gebruikt en kiest voor de veiligere versies. Niet alleen de tekst van de gegeven instructie wordt verzonden, maar ook metadata, IP-adressen, koekjes, apparaatinformatie of gebruiksgegevens.

Albors waarschuwde dat deze beoordeling, hoewel “vervelend, erg belangrijk is om te weten waar onze gegevens en de informatie die we delen met AI naartoe worden gestuurd en wat ermee wordt gedaan.”

Bovendien waarschuwde hij dat “veel bedrijven zich er niet van bewust zijn dat de gedeelde informatie door concurrenten kan worden gebruikt of zelfs voor ernstig ongemak kan zorgen als we zowel in Spanje als vooral in het buitenland zaken doen of aanbestedingen doen.”

Standaard raadde hij aan “op te passen dat u de AI geen informatie stuurt die te veel informatie oplevert.” gegevens over ons bedrijf, patenten of personeel.”

AI als ondersteuning, niet als vervanging voor professioneel oordeel

De decaloog dringt erop aan niet alles te geloven wat een AI zegt en een kritische houding aan te nemen ten aanzien van zijn reacties, omdat het foutieve of verzonnen inhoud kan genereren.

Veel bedrijven gebruiken AI al voor marketing of klantenservice zonder na te gaan welke informatie ze delen.

In de woorden van Albors: “we moeten altijd de antwoorden vergelijken die ons door betrouwbare bronnen worden gegeven en nooit aannemen dat het antwoord correct zal zijn, aangezien AI gevoelig is voor hallucinaties.” En hij voegde eraan toe: “Het is duidelijk dat we de besluitvorming nooit voor 100% aan een AI mogen delegeren en deze alleen als extra adviseur moeten gebruiken.”

Dit is vooral relevant op gebieden zoals:

  • Belastingen en boekhouding.
  • Arbeid inhuren.
  • Opstellen van contracten.
  • Juridisch advies.

Het AEPD-document adviseert ook dat, als gespecialiseerd professioneel advies, emotionele of psychologische ondersteuning nodig is, vóór AI naar een professional moet worden gegaan. Albors vatte het helder samen: “We mogen onze geestelijke gezondheid nooit in de handen van AI overlaten en we moeten altijd naar een gekwalificeerde specialist gaan om dit soort kwesties aan te pakken.”

Afzonderlijke accounts, geschiedenisverwijdering en profilering

Een andere praktische aanbeveling is om te gebruiken verschillende accounts voor verschillende diensten en verwijder, indien mogelijk, uw gespreksgeschiedenis.

Albors legde uit dat “het gebruik van verschillende accounts op basis van de dienst die we gaan gebruiken (niet alleen AI) een verstandige aanbeveling is, omdat het voorkomt dat de vragen die we stellen in verband worden gebracht met ons als individuen of als werknemers van een bedrijf.”

Met betrekking tot de geschiedenis verduidelijkte hij dat “het, afhankelijk van de interacties met de AI, raadzaam kan zijn om deze te behouden om specifiekere antwoorden te verkrijgen, maar dat het meestal de voorkeur zal hebben om deze te elimineren.”

De decaloog voegt een extra waarschuwing toe: de gestelde vragen kunnen bijdragen aan het creëren van een persoonlijk en professioneel profiel van de gebruiker. In die zin wees Albors erop dat “we ervan moeten uitgaan dat de vragen die we aan de AI stellen ons in staat zullen stellen een persoonlijk en professioneel profiel te creëren. Het is dus altijd belangrijk om de vragen correct te stellen om niet meer informatie te bieden dan nodig is.”

Minderjarigen en verantwoord gebruik in bedrijfsgerelateerde omgevingen

De AEPD herinnert zich dat minderjarigen zich mogelijk niet volledig bewust zijn van de risico’s van het delen van informatie met AI-tools en beveelt aan hen te adviseren en te begeleiden.

Dit is vooral belangrijk bij bedrijven die hiermee te maken hebben opleidingen, academies, buitenschoolse activiteiten of diensten voor minderjarigen, waar het handig is om duidelijke regels vast te stellen over het gebruik van deze tools en de gegevens die nooit mogen worden gedeeld.

Wat kan een zelfstandige vandaag doen om hieraan te voldoen zonder gek te worden?

Op basis van de decaloog van de AEPD en de aanbevelingen van de deskundigen kunnen zelfstandigen en kmo’s fundamentele en aanvaardbare maatregelen nemen om de risico’s bij het dagelijks gebruik van kunstmatige intelligentie-instrumenten te verminderen:

  • Definieer een eenvoudige interne regel over welke gegevens nooit in een AI worden ingevoerd.
  • Informeer en herinner medewerkers periodiek aan deze richtlijnen.
  • Gebruik fictieve voorbeelden bij het vragen om hulp, tekstmodellen of uitleg.
  • Aparte persoonlijke en professionele accounts.
  • Controleer de condities van de gereedschappen die het meest worden gebruikt.
  • Behandel AI als ondersteuning, niet als een besluitvormingselement.

Vanuit juridisch oogpunt waarschuwde arbeidsjurist Jaume Barcons daarvoor Het probleem “is dat we niet weten waar die informatie naartoe gaat, en daarom is het beter om voorzichtig en voorzichtig te zijn”, met betrekking tot de eindbestemming die de gegevens die in kunstmatige-intelligentiesystemen worden ingevoerd, kunnen hebben.

Het negeren van deze voorzorgsmaatregelen kan gevolgen hebben. Albors herinnerde zich dat “de Spaanse regelgeving met betrekking tot gegevensbescherming in overweging wordt genomen belangrijke boetes voor organisaties die niet op de juiste manier persoonsgegevens verwerken “Dit treft vooral, zo legde hij uit, “de bedrijven die AI gebruiken om taken met persoonlijke gegevens uit te voeren en geen passende maatregelen nemen om ervoor te zorgen dat deze gegevens niet worden gedeeld of gelekt naar derden die er geen toegang toe mogen hebben.”