Traditioneel draait kwalitatief onderzoek om diepgaande analyse van teksten zoals interviews, observaties en open antwoorden. Sinds de introductie van grounded theory in de jaren ’60 en de opkomst van thematische analyse in de jaren ’80 is coderen – het toekennen van labels aan tekstsegmenten om deze vervolgens in thema’s onder te brengen – een essentiële en methodologisch rigoureuze praktijk. Met de recente doorbraak van generatieve AI (GenAI [1]), zoals ChatGPT en AI-functies in kwalitatieve software (CAQDAS), ontstond aanvankelijk vooral enthousiasme over praktische voordelen zoals automatische codering, patroonherkenning en snellere samenvattende analyses. Inmiddels rijzen echter fundamentelere vragen: als een AI onze data kan “lezen” en van betekenisvol antwoord kan voorzien, moeten we dan onze manier van kwalitatieve analyse fundamenteel herzien?
De eerste golf: AI als turbo op vertrouwde methoden
Coderen vormt al decennialang het hart van kwalitatieve analyse. Methoden als grounded theory, interpretative phenomenological analysis en reflexive thematic analysis steunen allemaal op het herhaaldelijk labelen van kleine tekstfragmenten die gaandeweg in categorieën of thema’s worden ondergebracht. Hoewel er alternatieven bestaan blijft codering heersend. De introductie van software zoals NVivo, MAXQDA en ATLAS.ti versterkte deze praktijk vanaf de jaren ’80, waarbij vooral snelheid, schaal en transparantie werden verbeterd. Ook nieuwe functies zoals autocodering en sentimentanalyse plaatsen het coderingsparadigma centraal.
De tweede golf: van coderen naar converseren
GenAI-systemen zoals ChatGPT‒ gelanceerd in het najaar van 2022 ‒ zetten in CAQDAS een stap verder dan eerdere AI-modules: ze scannen teksten razendsnel, stellen codes voor en laten onderzoekers “in gesprek” gaan met hun data. ATLAS.ti voegde bijvoorbeeld, naast AI-assisted coding, Conversational AI toe waarmee onderzoekers vragen rechtstreeks aan hun data kunnen stellen. Daarmee verschuift de werkwijze van een ‘bottom‑up’ benadering (segment → code → thema) naar een ‘top‑down’ traject: brede onderzoeksvragen (“Hoe ervaren deelnemers ondersteuning op de werkvloer?”) leiden tot verdiepende vervolgvragen die door de AI worden beantwoord. Zodoende hoeft men niet eerst een uitputtend codeboek te formuleren; via conversationele analyse bevraagt de onderzoeker continu de data, legt antwoorden naast elkaar en destilleert al doende inzichten die vervolgens worden geordend en getoetst. Dit gesprek blijft echter strikt technisch: het ‘large language model’[2] kiest elke volgende token op basis van kansverdelingen uit enorme trainingscorpora, zonder begrip, intentie of situatief geheugen. Het dialogische gevoel is dus een statistische illusie; interpretatie en kritische reflectie rusten nog altijd bij de onderzoeker.Deze verschuiving vraagt een nieuwe vaardigheid van de onderzoeker: prompt engineering. Het vermogen om doordachte, contextrijke en betekenisvolle prompts te formuleren is cruciaal voor de analysekwaliteit: hoe beter de prompt, hoe rijker de nuances die GenAI uit de data haalt.
Is coderen nog noodzakelijk?

Betekent dit dat coderen overbodig wordt? Nguyen‑Trung & Lan Nguyen (2025) laten zien dat de meeste AI‑integraties in CAQDAS momenteel nog steeds draaien om het automatiseren van traditionele taken zoals codering. Tegelijk wordt duidelijk dat de weg openligt voor een fundamenteel andere aanpak. GenAI fungeert daarbij als geavanceerde assistent – een co‑analist die tijdrovende routines uit handen neemt. De onderzoeker kan bijvoorbeeld eerst een automatische codering laten uitvoeren, om die labels vervolgens zelf te verfijnen; of zij/hij/x gebruikt een chatfunctie om eigen interpretaties tegen te spreken (“Mis ik iets?”) en gerichter in het materiaal te zoeken. Morgan’s (2025) query‑based‑benadering en Hayes’ (2025) idee van de AI als “conversational partner” illustreren deze trend. Het gesprek met de data dient niet alleen ter validatie van bestaande thema’s maar ook om nieuwe perspectieven op te roepen.
Hoewel er regelmatig over een mogelijke ‘paradigmaverschuiving’ wordt gesproken, stellen Friese (2025) en Morgan (2025) dat het voorlopig eerder gaat om nieuwe technieken binnen vertrouwde methodologische kaders, terwijl de kern van kwalitatief onderzoek – “betekenis achterhalen in data” – intact blijft. AI is vooral een nieuw instrument dat dit doel efficiënter en op een andere manier helpt te bereiken. Waar men vroeger wekenlang codeerde, kan nu in enkele uren een ruwe themastructuur worden gegenereerd, die vervolgens via dialoog met ChatGPT, Gemini, Claude of vergelijkbare GenAI-modellen iteratief wordt verfijnd. Morgan (2025) benadrukt in zijn query‑based‑model het belang van “de mens in de lus”: onderzoekers moeten altijd hun eigen subjectieve oordeelsvorming behouden. De AI neemt het werk niet over maar staat ernaast.
Deze werkwijze biedt kansen, maar brengt ook aanzienlijke risico’s met zich mee. Het gemak van een gesprek met AI kan verleiden tot oppervlakkigheid, waarbij snelheid en efficiëntie voorrang krijgen op kritische reflectie en interpretatieve diepgang. GenAI kan contextuele nuances missen en complexe ervaringen herleiden tot algoritmische patronen. Daarnaast dreigen hallucinaties en biases in trainingsdata. Het uploaden van interview- of observatiedata naar commerciële GenAI-platforms creëert extra ethische en juridische problemen: verwerking buiten de EU kan in strijd zijn met de GDPR, aanbieders behouden vaak het recht om de teksten voor verdere modeltraining te gebruiken, en zonder expliciete informed consent riskeren deelnemers dat hun woorden in onbekende toekomstige toepassingen opduiken. Privacy, eigenaarschap en transparantie moeten daarom vooraf contractueel én methodologisch worden afgedekt, terwijl reflexiviteit en heldere verantwoording onverminderd essentieel blijven. Niet voor niets pleiten Nguyen Trung & Lan Nguyen (2025) dan ook voor nieuwe kwaliteitsnormen en rapportageprotocollen voor het gebruik van GenAI in kwalitatief onderzoek.
Op weg naar kwalitatief onderzoek op schaal
Met GenAI komt kwalitatief onderzoek op grote schaal voor het eerst écht binnen handbereik. Waar omvangrijke datasets tot nu toe vooral logistieke barrières opwierpen, kunnen we ze nu sneller en consistenter verkennen zonder afbreuk te doen aan interpretatieve verfijning. Dit roept echter een belangrijke vraag op: hoe benutten we de overvloed aan data op een wijze die de kernwaarden van kwalitatief onderzoek respecteert?
Traditioneel is generalisatie nooit het primaire doel geweest; kwalitatieve benaderingen mikken eerder op diepgaand begrip, contextuele rijkdom en overdraagbaarheid van inzichten naar vergelijkbare situaties dan op statistische representativiteit. Toch kan GenAI een brug slaan tussen het identificeren van overkoepelende patronen en het behouden van individuele stemmen. Door hybride strategieën te hanteren – waarbij automatische analyses dienen als startpunt en onderzoekers vervolgens gericht inzoomen op uitzonderingen, nuances en cruciale context – kunnen we althans proberen het persoonlijke narratief centraal te laten staan. Hoe we deze hybride aanpak methodologisch precies vormgeven, is een belangrijke vraag voor de komende jaren.
Conclusie: een (r)evolutie?
Het coderingsparadigma blijft sinds de jaren ’80 stevig verankerd, maar GenAI opent deuren naar zowel praktische als methodologische vernieuwing. Hoewel GenAI kwalitatieve analyse aanzienlijk versnelt en verrijkt, blijft het zoeken naar diepgaande betekenis centraal. AI blijft een assistent, geen vervanging. De toekomst van kwalitatieve analyse zal afhangen van het vinden van evenwicht: GenAI benutten als hulpmiddel, zonder de menselijke contextgevoeligheid en interpretatieve finesse te verliezen. Dat vergt niet alleen technische vaardigheden, maar ook epistemologische en ethische reflectie.
Lara Wulleman is postdoctoraal onderzoeker aan de Universiteit van Amsterdam. Ze onderzoekt hoe de leercultuur binnen jeugdzorgorganisaties versterkt kan worden, in het kader van het Doen Wat Werkt-programma. Eerder promoveerde ze aan de KU Leuven op onderzoek naar betekenisgeving rond ‘familie’ in de context van pleegzorg.
Referentielijst
Friese, S. (in press). Generative AI: A catalyst for paradigmatic change in qualitative data analysis. In C. A. Prokopis (Ed.), Artificial intelligence (AI) in social research (Chap. 7). CAB International.
Hayes, A. S. (2025). “Conversing” with qualitative data: Enhancing qualitative research through large language models (LLMs). International Journal of Qualitative Methods, 24, Article 16094069251322346. https://doi.org/10.1177/16094069251322346
Morgan, D. (2025). Query‑based analysis: A strategy for analyzing qualitative data using ChatGPT. Qualitative Health Research. Onlinefirst https://doi.org/10.1177/10497323251321712
Nguyen‑Trung, K. (2024). ChatGPT in thematic analysis: Can AI become a research assistant in qualitative research [Preprint]. OSF Preprints. https://osf.io/preprints/osf/vefwc_v2
Nguyen‑Trung, K., & Nguyen, N. L. (2025). Narrative‑Integrated Thematic Analysis (NITA): AI‑supported theme generation without coding [Preprint]. OSF Preprints. https://osf.io/preprints/osf/7zs9c_v1
[1] In deze tekst maken we onderscheid tussen twee begrippen. AI verwijst naar algoritmen die data ordenen, patronen herkennen en voorspellingen doen. GenAI is een subdomein van AI dat zulke patronen gebruikt om nieuwe inhoud te genereren—zoals tekst, beeld, audio of code.
[2] Large language models zijn generatieve taalmodellen die op miljarden tekstfragmenten zijn getraind om het volgende woord te voorspellen; daarmee kunnen ze nieuwe, coherente tekst produceren en vormen ze de motor achter chatbots zoals ChatGPT, Gemini en Claude.