Het gebruik van kunstmatige intelligentie om de verklaring af te leggen van het inkomen groeit onder autonoom. Administratieve managers waarschuwen echter voor dit willekeurige gebruik kan genereren fouten met directe economische gevolgen. En ze verfijnen nog meer: het grootste probleem zit niet in de berekeningen, maar in de informatie die wordt ingevoerd en in de belastinginterpretatie die elk geval vereist.
Zonder verder te gaan, vertelde de voorzitter van de Algemene Raad van de Verenigingen van Administratief Managers, Fernando Santiago Ollero, aan dit medium dat ze al gevallen detecteren van zelfstandigen die op deze tools vertrouwen zonder professionele beoordeling. “En dat is het echte risico: het gevoel van veiligheid dat overheerst”, zei hij verwijzend naar uitspraken die correct lijken, en Echter verbergen relevante mislukkingen in de verstrekte belastinggegevens.
De waarheid is dat het gebruik van deze automatische systemen problemen kan veroorzaken de zelfstandigen verliezen aftrekposten of geven zelfs onvolledig aan, met het daaruit voortvloeiende risico voor de Schatkist. “In echte dossiers zien we situaties die vanuit puur wiskundig perspectief ogenschijnlijk correct zijn, maar vanuit fiscaal perspectief onvolledig”, aldus Santiago Ollero. Wat blijkt een belangrijk verschil voor deze groep.
- AI laat onvolledige informatie achter in het inkomen van zelfstandigen
- Inhoudingen en persoonlijke omstandigheden zijn de elementen die het meest buiten beschouwing worden gelaten
- AI-uitspraken lijken correct, maar zijn niet geoptimaliseerd
- Fouten kunnen leiden tot te late vergoedingen, boetes of te hoge betalingen.
- Kunstmatige intelligentie kan nuttig zijn als ondersteuning, maar is geen vervanging voor professioneel oordeelsvermogen.
AI laat onvolledige informatie achter in het inkomen van zelfstandigen
Voor managers verifiëren deze tools niet op zichzelf of de ingevoerde informatie de gehele belastingsituatie van de belastingbetaler weerspiegelt. beperkt uw vermogen om significante weglatingen op te sporen. “Kunstmatige intelligentie werkt op de informatie die de gebruiker aanlevert, maar kan niet zelf vaststellen of die informatie onvolledig is of dat er relevante context ontbreekt”, waarschuwde de voorzitter van de groep.
“In de praktijk vertaalt zich dit in fouten zoals het niet correct verwerken van alle inkomsten, het niet maken van onderscheid tussen soorten inkomsten of het toepassen van inhoudingen zonder te verifiëren of daadwerkelijk aan de wettelijke eisen wordt voldaan”, legt hij uit aan AyE. Deze mislukkingen zijn van invloed op beide de resultatenrekening graag de toepassing van belastingvoordelen die verband houden met de activiteit of regionale regelgeving.
Het probleem is dus niet dat de tool verkeerd rekent, maar dat hij niet detecteert wat de belastingbetaler niet invoert. Deze beperking voorkomt Het resultaat weerspiegelt nauwkeurig de werkelijke situatie van de zelfstandige die doorgaans een complexere belastingheffing hebben dan die van een werknemer.
Inhoudingen en persoonlijke omstandigheden zijn de elementen die het meest buiten beschouwing worden gelaten
Van de aspecten die zelfstandigen die hun inkomen verdienen met AI het vaakst weglaten, vallen de aspecten op die niet automatisch in hun belastinggegevens voorkomen. En toch, directe invloed hebben op het resultaat van de aangifte. “Ten eerste informatie die niet vooraf in de gegevens van het ministerie van Financiën is geladen, zoals bepaalde verhuur, schenkingen, gezinssituaties of persoonlijke omstandigheden”, legt Santiago Ollero uit.
Ook autonome aftrekposten gaan vaak verloren, die gedetailleerde kennis vereisen van de regelgeving van elk gebied en zijn specifieke omstandigheden. “Ze zijn waarschijnlijk het meest vergeten”, zei de deskundige, toen hij over dit soort gevallen sprak belastingvoordelen die belangrijke verschillen kunnen maken in het eindresultaat.
Hieraan worden elementen toegevoegd die juridische interpretatie behoeven. Vooral bij de classificatie van inkomsten of bij de toepassing van bepaalde kortingen. “Kunstmatige intelligentie interpreteert niet in juridische zin: het repliceert patronen”, Fernando Santiago waarschuwde, wat beperkt uw vermogen om u aan elk geval aan te passen concreet.
AI-uitspraken lijken correct, maar zijn niet geoptimaliseerd
Het gecombineerde effect van deze mislukkingen is dat veel inkomens worden gepresenteerd zonder er voordeel uit te halen alle fiscale voordelen beschikbaar, zelfs als er geen duidelijke vormfouten zijn. “Het gevolg is dat veel uitspraken technisch gezien 'goed gemaakt' zijn, maar niet fiscaal geoptimaliseerd”, vatte de voorzitter van de administratieve managers samen.
Hetgeen impliceert dat de zelfstandige mogelijk meer belastingen betaalt dan nodig is, zonder dat hij zich daarvan bewust is, door te vertrouwen op een resultaat dat niet alle relevante variabelen omvat. En gezien het huidige moment zijn dit soort fouten ontstaan een directe impact op de winstgevendheid van het bedrijf.
Dit verschil is vooral relevant in het geval van degenen die een economische activiteit uitoefenen, omdat meerdere begrotingsvariabelen samenkomen die niet altijd in de beschikbare gegevens tot uiting komen. “Daarin geval van zelfstandigen, Verder is de het risico is groter omdat jouw fiscale situatie is complexer en vereist een mondiale visie op zijn economische activiteit”, betoogde Santiago Ollero.
Fouten kunnen leiden tot te late vergoedingen, boetes of te hoge betalingen.
De gevolgen van het doen van een onvolledige of onjuiste aangifte kunnen verder gaan dan alleen het verlies van aftrekposten. Vooral wanneer Bij een volgende beoordeling worden onregelmatigheden ontdekt. “Vanuit economisch oogpunt een onvolledige verklaring kan betekenen dat er meer belastingen moeten worden betaald van degenen die nodig zijn of, in het slechtste geval, een daaropvolgende regularisatie met toeslagen, rente en zelfs sancties”, waarschuwde de president van de managers.

Daarbij komt nog een belangrijk aspect dat veel belastingbetalers over het hoofd zien als ze deze instrumenten zonder professioneel toezicht gebruiken. “De verantwoordelijkheid ligt altijd bij de belastingbetaler”, herinnert Santiago Ollero zich. Wat dat betekent er is geen ruimte om fouten te rechtvaardigen bij het gebruik van technologie.
De schatkist houdt geen rekening met de oorzaak van het falen bij het eisen van verantwoordelijkheden, waardoor de freelancer in een kwetsbare positie verkeert als hij de AI volledig vertrouwt. “De Belastingdienst maakt geen onderscheid of de fout voortkomt uit een technologisch hulpmiddel of uit een verkeerde interpretatie”, aldus de deskundige.
Kunstmatige intelligentie kan nuttig zijn als ondersteuning, maar is geen vervanging voor professioneel oordeelsvermogen.
Ondanks deze risico’s, Administratief managers sluiten het gebruik van kunstmatige intelligentie niet uit tijdens het voorbereiden van de verklaring, “zolang deze oordeelkundig wordt gebruikt. AI kan nuttig zijn als ondersteunend instrument, maar nooit ter vervanging van een professioneel oordeel”, aldus de voorzitter van de groep.
In dat kader kan uw toepassing dat wel beperk jezelf tot eerdere taken die het daaropvolgende werk vergemakkelijken, zonder beslissingen te nemen die fiscale interpretatie vereisen. “Het kan helpen bij het organiseren van informatie, het begrijpen van algemene concepten of het voorbereiden van documentatie, maar niet bereid verantwoordelijkheid te nemen van een belastingaangifte.”
De nadelen ontstaan wanneer het zonder professioneel toezicht wordt gebruikt, omdat het een ongerechtvaardigd vertrouwen in het verkregen resultaat kan wekken. ‘Het probleem is niet de technologie, maar het gebruik dat ervan wordt gemaakt’ Santiago Ollero werd veroordeeld en benadrukte de noodzaak om elke zaak correct te interpreteren.
Daarom is de aanpak om deze oplossingen te integreren in het professionele werk, zonder de rol van de adviseur in de besluitvorming te verdringen. “De technologie “Het moet ten dienste staan van degenen die het systeem kennen, en niet vervangen.” besluit de president van de managers.