Blog

Data & AI in de zorg: gebrek aan ‘know-how’

Ook in de zorg zal Artificial Intelligence (AI) ingezet moeten worden om de tekorten aan personeel en toenemende vraag het hoofd te bieden. Maar voordat het zover is, hebben we nogal wat belangrijke stappen te maken, zo concludeert de SER deze week in haar gedegen rapport AI en werk: samen naar een werkende toekomst met AI. Voor veel sectoren, ook de zorg, is het personeel nog onvoldoende bekend en gekwalificeerd om verantwoord met data & AI te werken; en we hebben nog te weinig weet van de daadwerkelijke effecten van AI op de productiviteit en de kwaliteit van werk (SER, 2025). Dat maakt tevens dat veel organisaties nog zoekende zijn hoe AI verantwoord in te passen in de werkprocessen, het beleid vorm te geven; en het op de juiste manier betrekken en voorbereiden van medewerkers. Gebrek aan know-how verwijst dus niet alleen naar een gebrek aan kennis en vaardigheden bij medewerkers, managers en bestuurders, maar ook naar het gebrek aan handelingsperspectief ‘hoe dan?’ En hoe geef je die transitie dan ‘goed’ vorm?  

In deze context wordt vaak verwezen naar de noodzaak van een ‘data&AI-gedreven cultuur’. Het concept is een allegaartje van verwachtingen – ook voor wie de wetenschappelijke literatuur erop naslaat. Iets met ‘op basis van data & AI, processen en besluitvorming verbeteren’. Het concept verwijst eveneens naar een gewenst niveau van digitale vaardigheden van medewerkers; het beleid in organisaties dat aangepast moet worden, bijvoorbeeld over hoe en wanneer AI wel of niet mag worden gebruikt ter ondersteuning van besluitvorming; of over welke normen en waarden gelden voor hoe data & AI wordt vergaard, opgeslagen, ontsloten, etcetera. Allemaal belangrijk, maar eenduidig is het niet. En bovendien: het beschrijft niet wat het is, maar wat er straks zou moeten zijn. Wensdenken zonder concreet handelingsperspectief waarmee data & AI op een verantwoorde manier onderdeel wordt van bedrijfsprocessen en het leveren van goede zorg.  

Zorgmedewerker met tablet

 

In deze blog worden drie aspecten besproken die vaak over het hoofd worden gezien als we proberen die bottleneck van gebrek aan know-how ten aanzien van data & AI in de zorg voorbij te komen. De genoemde aspecten zijn verre van compleet, maar wel een goede start om het eens anders aan te vliegen.  

1. Wie-wat-wanneer-waar-waarom van digitale vaardigheden leren

Mogelijk komt er schot in het opleiden van zorgpersoneel in begrip en gebruik van data & AI door wetgeving, want sinds februari 2025 schrijft de AI Act voor dat een organisatie waar medewerkers met AI werken hen daarin moet (laten) opleiden. Diverse opleidingen en organisaties vragen zich terecht af wat het juiste moment is in de opleiding en loopbaan van een zorgprofessional om bekendheid met data en AI te vergroten. Ook tijdens de sessie ‘Digiskills van de medisch specialist’ op de Zorg& ICT ’25 beurs (door CMIO (zorg)netwerk) stonden deze vragen centraal. Want stiekem is het nog helemaal niet zo eenvoudig… 

Wat ze moeten leren is in veel gevallen niet zo duidelijk, en haalbaar is het misschien ook niet. De befaamde AI wetenschapper Stuart Russell zei ooit (2018) dat maar een heel klein percentage van de wereldbevolking de aanleg heeft om data & AI expert te worden. Nu hoeven we dat niet allemaal te worden, maar velen zullen toch iets moeten overwinnen om zoiets als ‘AI’ wat beter te kunnen begrijpen. ‘Bovendien’, zei Russell, ‘AI zal de mens nooit evenaren bij het maken van complexe morele afwegingen en omgaan met emoties’. Dagelijkse kost voor een zorgprofessional! Dus voordat we alle zorgprofessionals vooral trainen in data analyse, predictiemodellen en basisbegrip van genAI, oppassen dat we met trainingen in digitale vaardigheden niet per ongeluk de kerncompetentie van de zorgprofessional met het badwater weggooien?  

Wanneer/waar is het juiste moment? In tijden van regel- en administratiedruk is het lastig om tijd vrij te maken. Als het goed is gaan de kosten voor de baten uit. Bijvoorbeeld: een aantal artsen probeert AI met spraakgestuurde rapportage in de spreekkamer al uit. ‘Leuk, maar het levert nog niet de gehoopte tijdswinst op want nog teveel foutjes, gedoetjes erom heen, te weinig financieel rendement op pilot schaal, etcetera’. Timing is dus cruciaal. Want een AI tool te vroeg lanceren betekent al gauw dat de zorgprofessional kostbare tijd kwijt is en wordt ingezet als trainer van een algoritme (google eens ‘Mechanical Turk’ en vergelijk de tarieven met die van een arts). De zorgprofessional te laat betrekken in de ontwikkeling van AI toepassingen kan betekenen dat de bedachte oplossing niet aansluit op het ervaren probleem in de praktijk. 

2. Zoom vooral uit!

Wat opviel tijdens de sessie tijdens Zorg&ICT, is dat ook veel bottlenecks die werden genoemd veel meer raken aan de structuur van werkprocessen of de cultuur van de zorg in het algemeen. Neem registratie van patiëntgegevens. De patiënt reist vaak van de ene naar de andere plek in en tussen zorginstellingen. Als men van elkaar niet weet hoe het zorgproces er aan de andere kant van de schutting uit ziet, hoe moet men dan begrijpen welke informatie wanneer verderop in het proces van belang gaat zijn? Of hoe een bericht of update concurreert met andere (alarm)signalen op dat moment? Als we dat niet scherp hebben, welk doel geven we AI bij gegevensuitwisseling dan precies mee?  

Uit recent wetenschappelijk onderzoek bleek kennis van elkaars werk de cruciale randvoorwaarde voor het goed digitaal uitwisselen van patiëntgegevens. Het was een randvoorwaarde, niet het gevolg! (Bruls & Pas, 2024). Anders gezegd: om ‘het te laten werken’ zijn “algemene vaardigheden als samenwerken, kritisch denken, communiceren en flexibel problemen proberen op te lossen blijvend van belang” (SER, 2025, p. 69). Maar daar gaat de gemiddelde e-learning module, vaak verzorgt door de IT leverancier, niet over …  

En wat doen we met gewonnen tijd? Als er al een betrouwbare ‘business case’ is van de toename van productiviteit, dan houdt die nog vaak op bij ‘dan kunnen er x aantal patiënten meer worden gezien’. Dat is fantastisch nieuws voor het verbeteren van toegang tot zorg, maar wat doet het met de werkdruk van de toch al overbelaste zorgprofessional? Krijgt die ook wat meer recuperatietijd?   

Of: hoe maken zorgprofessionals onderling bespreekbaar dat velen nog niet weten hoe je verantwoord met ChatGPT om moet gaan? Dat sommigen ‘deze ontwikkeling liever even aan zich voorbij laat gaan’? Dat lijkt misschien een kwestie van individuele voorkeur, maar intussen wordt de afstand tussen artificial intelligence (output van AI) en menselijke intelligence (bijvoorbeeld het intuïtieve ‘niet-pluisgevoel', ethisch en morele overwegingen in besluitvorming) steeds groter, wat de kans op creatie van augmented intelligence (AI die menselijke vaardigheden versterkt in plaats van vervangt) verkleint. Zo ook de kloof tussen ‘those who know and those who don’t’. Er valt nog wel wat te winnen als het gaat over hoe dat gesprek aan te gaan, zonder dat mensen het gevoel krijgen gezag onder collega's te verliezen of weggezet te worden als boomer.   

3. Taal is cruciaal 

Tot slot is het belangrijk stil te staan bij wat we nu eigenlijk zeggen als we het concept ‘data & AI-driven’ in de mond nemen. Allereerst zijn er diverse vormen en toepassingen van AI die in ons taalgebruik gemakshalve onder 1 noemer worden geschaard (ja, ook in deze blog) wat soms bijdraagt aan misvattingen. Ten tweede, zo stelt Nanda Piersma (mede auteur van het SER rapport), organisaties moeten niet eerst uitgaan van wat allemaal kan met AI; vervolgens wat allemaal (niet) mag; maar gezien de impact op de kwaliteit van werk en de maatschappij zichzelf de vraag stellen ‘wat willen we met AI?’ Spijker op z’n kop!  

Hoe dan?

Door in ons handelen, inclusief in ons taalgebruik, de lerende mens(en) en de rijke context weer een centralere rol toe te bedelen om verantwoord gebruik van data & AI in de zorg te bewerkstelligen.   

Ons moreel en maatschappelijk bewustzijn hoe we met data & AI willen omgaan mag meer ruimte krijgen naast wat we ermee willen bereiken. Dat bewustzijn activeren begint bij taalgebruik. De term ‘data & AI-driven’ zou per direct vervangen mogen worden door ‘data & AI-informed’ in ons discourse. Door dit consequent te doen, worden cruciale aspecten van verantwoord gebruik van data & AI in zorg via ons taalgebruik steeds weer benadrukt en worden zo uiteindelijk de onderliggende normen – gebaseerd op publieke waarden zoals privacy, autonomie, soevereiniteit, verantwoordelijkheid, mededogen - van waaruit wordt gehandeld. Bij verantwoord gebruik van data & AI zijn onze onderliggende normen en waarden vertrekpunt. Een paar suggesties:   

  1. ‘Human in the loop’: belangrijke besluiten - zeker als ze fatale gevolgen kunnen hebben - worden nooit genomen of gedreven door data & AI. Mensen nemen betere besluiten als ze door data en AI worden geïnformeerd – dan zijn we ook meteen compliant aan de AI Act.
  2. En-én-én ipv of-of: het is de combinatie van goede data én goedgetrainde AI én intuïtie én emotie (Farrell 2023). Want intuïtie en emotie zijn nauw verbonden aan ons moreel kompas (je weet wel, dat wat een AI agent niet heeft). Door het woordje ‘informed’ wordt impliciet minder macht aan data toegekend in de kakafonie van informatie die het menselijk brein te verstouwen krijgt als een besluit moet worden genomen. Onze ‘lijflijke’ ervaring is evengoed waardevol naast ‘objectieve’ data, juist in de zorg.  
  3. De ‘Big Picture’: we weten het wel, maar vergeten het graag als het moeilijk wordt: de mens verdraagt complexiteit maar slecht. Liever kiezen we voor ‘platgeslagen’ modellen die fijn op één powerpoint slide passen. Maar ze verdoezelen ALTIJD de weerbarstige complexiteit van de praktijk die zich niet laat vangen in het meest geavanceerde algoritme verbonden aan een veelheid van databronnen. Data-informed signaleert dat we ons bewust zijn van een bigger picture, ook de stukjes van de puzzel die we onmogelijk vooraf kunnen weten. Dat besef is wat ons mensen veerkrachtig houdt. 

Hoe geven we die transitie goed vorm?   

In een situatie van ‘unprecedented circumstances’ waarin we ons nu begeven met data & AI, zijn checklists, quickscans, stappenplannen, roadmaps, best practices…. Tja, iets tussen 'behulpzaam' en een ‘illusion of manageability’? Het maakt niet uit, ‘keep calm and carry on’, waarbij vooral dit belangrijk is:  

Reflecteren, experimenteren, leren en (gezamenlijk) creëren (vrij naar Schön, 1983). Biedt vooral en veel meer professionals opleiding aan die reflectie en discussie faciliteert tussen zorgprofessionals rondom verantwoord omgaan met data & AI in relatie tot hun zorgtaken en professionele identiteiten. In dergelijke trainingen staan vragen centraal zoals ‘hoe als gevolg van classificatie en standaardisatie data maar beperkt zicht geeft op complexe (klinische) werkelijkheid; hoe de kwaliteit van door ChatGPT gegenereerde antwoorden te toetsen valt; hoe intuïtie te rijmen - en dus niet te vervangen! - met wat door AI gegenereerde modellen presenteren als ‘aan-bizar-hoge-waarschijnlijkheid-grenzende’ waarheid. In plaats van AI de diagnose te laten stellen, die daarna door de arts moet worden gecheckt op toepasbaarheid in de praktijk, zou AI de werkdiagnose van de arts kunnen checken en aanvullen met andere inzichten (Mamede & Schmidt, 2025). Draai het om: laat de arts met behulp van AI reflecteren op eigen inzichten, niet reageren op AI output. En geef het proces ruimschoots tijd. Ook in de efficiency-berekeningen.   

Zoom in – Zoom out – Zoom in – Zoom out… ‘De mens centraal’ is een veelgebruikte zin als het gaat om data & AI. Maar let op: dat we het belang van de mens centraal willen stellen, betekent niet dat de mens ook ‘het enige knopje is waar we aan moeten draaien’. Zet vooral eens de context centraal waarin de mens handelt. In de westerse samenleving staat de mens centraal in de wijze waarop organisatiestructuren, processen en culturen worden vormgegeven. Ook data & AI, en zelfs de natuur, staan vanuit deze zienswijze in dienst van de mens (met een duur woord ‘antropocentrisme’). Wie uitzoomt ziet meer. De impact van data & AI wordt niet louter door menselijke ratio en ‘juist’ handelen bepaald, maar even zozeer door samenloop van omstandigheden (timing), fysieke plaats, tijdstip, historie en nog zoveel meer wat aan ons bewustzijn voorbij gaat. De mens wordt evenzogoed beïnvloed door diezelfde technologie. Wie met dat in het achterhoofd weer inzoomt op wat de professional en de organisatie zou moeten leren met betrekking tot data & AI, komt hoe dan ook tot robuustere inzichten die ons net weer iets verder brengen.   

Het goede nieuws: wie – al dan niet naar aanleiding van deze blog – nog eens reflecteert op de eigen werkomgeving en omgang met data & AI, is dus al aardig bezig. Laten we onze ervaringen en inzichten vooral delen!

Dank aan Annemarie van ’t Veen (Lead AI Accelerator Erasmus MC) voor het wijzen op het werk van Mamede & Schmidt, 2025; en dank aan Nanda Piersma voor een goed gesprek over hoe onderzoek, onderwijs en organisaties een vervolg kunnen geven aan de inzichten uit het laatste SER rapport! 

 

Ontvang updates via mail

Recent Blogs

Data & AI in de zorg: gebrek aan ‘know-how’

Data & AI in de zorg: gebrek aan ‘know-how’

wo 28 mei 2025 12 min read
Succesvolle AI-adoptie begint bij je medewerkers | AI in de Boardroom

Succesvolle AI-adoptie begint bij je medewerkers | AI in de Boardroom

di 27 mei 2025 1 min read
NTN-deel 2 | De Strict 5G Podcast
Ken klaver, Eildert van Dijken en Thijs Quakkelaar maken samen een podcast
5G

NTN-deel 2 | De Strict 5G Podcast

di 20 mei 2025 1 min read