Agents: AI met gezond verstand inzetten in softwaretesten – Sofius

Agents: AI met gezond verstand inzetten in softwaretesten

Stel je een AI-agent voor die tests schrijft, bugs fixt én je pull requests reviewt. Klinkt als de droom van elke tester en developer, toch? Maar voordat je begint met omarmen wat AI kan, is het cruciaal om kritisch te kijken: waar zit de échte waarde van deze tools en hoe kun je ze verantwoord inzetten? In dit artikel nemen we je mee in de wereld van AI-agents voor softwaretesten en delen we inzichten uit de praktijk.

Van machine learning tot agentic AI

AI is een breed begrip. In de kern gaat het om systemen die keuzes kunnen maken op basis van beschikbare data. We onderscheiden een aantal stappen:

  • Machine learning: leert van datasets, zoals het automatisch filteren van phishingmails.
  • Deep learning: kan neural links leggen tussen datasets en hierdoor complexe taken uitvoeren, bijvoorbeeld objectherkenning in zelfrijdende auto’s.
  • Generative AI: genereert zelf content, zoals teksten, afbeeldingen of geluid.
  • Large Language Models (LLM’s): modellen zoals ChatGPT of Gemini, die op basis van taal context begrijpen en output genereren.

AI-agents gaan nog een stap verder. Dit zijn LLM’s die gericht zijn op één doel en een mate van autonomie hebben. Ze kunnen bijvoorbeeld zelf acties ondernemen, zoals een e-mail beantwoorden, maar meestal nog met een trigger van de gebruiker. In softwaretesten kan zo’n agent taken uitvoeren zoals testen schrijven of code analyseren.

 

Het verschil tussen AI-tools en echte agents

Tools als GitHub Copilot en Cursor veroveren razendsnel de ontwikkelomgeving van developers. Het verschil tussen een standaard AI-tool en een agent zit in de mate van autonomie:

  • AI-tool: helpt met het schrijven van code of tests, maar de gebruiker beslist wanneer en wat er uitgevoerd wordt.
  • AI-agent: kan zelfstandig acties ondernemen binnen de gestelde grenzen. Bijvoorbeeld een test schrijven, uitvoeren en resultaten rapporteren.

Praktijkvoorbeeld: een tester gebruikte een IDE-agent om in een open source-project binnen enkele weken honderden tests te genereren. De agent kon de codebase lezen, testcases opstellen en automatiseren. Het resultaat? Snellere voortgang, tevreden stakeholders, en een enorme boost in efficiëntie.

 

 

De kracht van prompt engineering

Het succes van AI-agents begint bij prompt engineering: het correct en effectief instrueren van de AI. Goede prompts bevatten duidelijke context, doel, situatie en verwachtingen. Zo kan de agent relevante output leveren zonder fouten of misinterpretaties.

Tip uit de praktijk: investeer in basiskennis prompt engineering. Zo kun je effectiever werken met AI-agents dan met kant-en-klare promptcoaches en houd je controle over het testproces.

 

AI als assistent, niet als vervanger

Nog een belangrijke les die wij uit de praktijk hebben gehaald: wees je bewust dat jij eind verantwoordelijke blijft. AI kan veel taken overnemen, maar zal nooit eindverantwoordelijkheid dragen. Jij moet altijd controleren en begrijpen wat er gebeurt. “Pairing with AI” of AI-assisted testing is hierbij het sleutelconcept: de tester werkt samen met de agent, behoudt inzicht en controle, en gebruikt de AI als assistent.

Gevaren bij overmatig vertrouwen zijn reëel: tests of code kunnen fout gaan, en kennis verdwijnt als mensen te veel afhankelijk worden van AI. Begin daarom klein, experimenteer gecontroleerd en bouw stapsgewijs kennis op.

 

Do’s en don’ts bij AI-agents

 Do’s:

  • Gebruik agents voor testactiviteiten; negeer ze niet.
  • Wees transparant over AI-gebruik: markeer code of tests die door een agent zijn gemaakt.
  • Investeer in prompt engineering en basiskennis van de agent.
  • Begin met web-based agents, die binnen veilige grenzen opereren.

 

Don’ts:

  • Vertrouw niet blind op de agent; blijf controleren.
  • Geef agents geen onbeperkte toegang tot gevoelige data.
  • Gebruik AI niet om fundamentele kennis of vaardigheden te vervangen.

 

Experimenteren met veiligheid en bewustzijn

AI is niet meer weg te denken. Uit onderzoek is gebleken dat 92% van de developpers AI gebruikt (BRON: Github). Realistisch gezien gebruiken ook de engineers en testers in jouw organisatie agents. Het is dus belangrijk en noodzakelijk om een AI-beleid op te stellen. Het doel is niet om banen weg te automatiseren, maar om effectiviteit te vergroten en sneller waarde te leveren. Begin met gecontroleerde experimenten in je team, bijvoorbeeld tijdens een trainingssessie of hackathon. Zo leer je de kracht en beperkingen van AI kennen zonder risico’s te lopen.

Conclusie

AI-agents bieden enorme kansen voor softwaretesten: snellere testgeneratie, minder handmatig werk en een boost in efficiëntie. Maar het succes hangt af van hoe je ze inzet. Investeer in basiskennis, gebruik AI als assistent en behoud altijd controle over je processen.

Door agents bewust en verantwoord in te zetten, haal je het maximale uit AI zonder de controle of kennis te verliezen. Testen met gezond verstand, dat is de sleutel.

“Businesses who’ve stopped hiring and training entry-level developers because ‘GitHub Copilot can do what they do’ are going to find out what happens when nobody plants tomatoes because ‘Hey, who needs tomatoes? We’ve already got pasta sauce’.”

BRON: Jason Gorman,  Founder Codemanship LTD

Heb je vragen over dit onderwerp? Neem gerust contact met ons op.

Misschien vind u de volgende artikelen ook wel interessant