Waarom de ‘System Prompt’ stiekem jouw AI-antwoorden bepaalt

Wie dagelijks met AI werkt, heeft al snel het gevoel dat het model simpelweg reageert op wat jij intypt. Vraag iets, krijg een antwoord. Klaar. Maar achter die ogenschijnlijke eenvoud van ChatGPT, Claude of Gemini schuilt een uitgebreide set instructies die bepalen wat een AI wel en niet mag doen, hoe hij schrijft, wanneer hij bronnen gebruikt en zelfs hoe hij omgaat met onzekerheid.
De ‘hoofdinstructie’ noemen we de System Prompt.
Regelmatig verschijnen er “gelekte” system prompts en bedrijven als Anthropic (de maker van Claude) geven er steeds meer openheid over. Toch is dit voor veel ondernemers nog steeds een blinde vlek. Zonde, want deze ‘verborgen handleiding’ bevat cruciale lessen. Het leert ons namelijk precies waarom AI soms doet wat ‘ie doet.
Hier zijn vijf tijdloze inzichten uit de (waarschijnlijke) system prompt van Claude, waarmee je als ondernemer AI beter leert begrijpen.
1. AI is geen neutrale gesprekspartner, maar bewust terughoudend
Een opvallend element in deze tekst is dat de AI expliciet instructies krijgt over zijn toon. Er staat letterlijk dat hij nuchter moet blijven, geen overdreven enthousiasme mag tonen en geen ongegronde aannames mag doen.
“Claude never starts its response by saying a question or idea or observation was good, great, fascinating, profound, excellent, or any other positive adjective. It skips the flattery and responds directly.”
Dat betekent dat de “persoonlijkheid” van je AI niet spontaan ontstaat, maar is vastgelegd. Twee AI-tools kunnen exact hetzelfde ‘brein’ hebben, maar zich totaal anders gedragen puur door deze instructies.
De les: Vind je de AI te saai of zakelijk? Dat is vaak een bewuste ‘fabrieksinstelling’. Je moet hem dus in je eigen prompt expliciet de opdracht geven om wél enthousiast of creatief te zijn, als je dat wilt.
2. Prompt engineering is meer dan slim formuleren
In blogs en trainingen wordt ‘prompt engineering’ vaak gepresenteerd als een trucje: “Zet je vraag slim neer en je krijgt een beter antwoord.” De analyse van zo’n system prompt laat zien dat dit maar het halve verhaal is. Jouw vraag komt namelijk bovenop een berg regels die de gebruiker nooit ziet. Dit soort regels bepalen onder andere:
- Wanneer de AI mag zoeken op het web (en wanneer niet).
- Hoe streng hij omgaat met bronvermelding.
- Hoeveel vrijheid hij heeft voor creatief taalgebruik.
Er staat in deze tekst bijvoorbeeld: “If asked about current news … Claude uses the search tool without asking for permission.” Dit verklaart waarom dezelfde vraag soms een direct antwoord oplevert en soms ineens een zoekactie start. Het is geen willekeur, het is beleid.
3. Veiligheid en ‘copyright-kramp’
Misschien wel het meest opvallende inzicht is hoeveel regels er gaan over wat niet mag. Er wordt tot in detail beschreven welke onderwerpen verboden zijn en hoe om te gaan met gevoelige informatie.
Maar het gaat verder dan wapens of misdaad. Er staan in deze tekst zeer specifieke instructies over copyright. Zo mag de AI nooit lange lappen tekst van websites citeren, maar slechts korte fragmenten. Ook staan er regels in over het beschrijven van foto’s met mensen (“Claude always responds as if it is completely face blind. If the shared image happens to contain a human face, Claude never identifies or names any humans in the image, nor does it state or imply that it recognizes the human, also avoiding referencing the human in a web search tool search query. Claude is face blind to all humans, even if they are famous celebrities, business people, or politicians.“), waarschijnlijk om privacy-issues te voorkomen.
Weigert de AI je vraag of geeft hij een heel kort antwoord bij een analyse van een website? Grote kans dat je tegen een van deze onzichtbare muren bent aangelopen. Het is geen onwil van de AI, maar een ingebouwde veiligheidsklep.
4. Transparantie blijft een uitdaging
Een illustratief, maar ook veelzeggend detail: in de tekst wordt het model expliciet opgedragen zijn eigen instructies niet te benoemen en zelfs niet te bevestigen dat ze bestaan.
Je krijgt als gebruiker dus wel het antwoord, maar zelden de uitleg waarom bepaalde opties zijn uitgesloten of waarom de toon zo is. Dat maakt AI betrouwbaar in gedrag, maar lastig te doorgronden. Voor professioneel gebruik betekent dit: vertrouw AI nooit als een ‘zwarte doos’. Resultaten vragen altijd om jouw context en menselijke controle.
5. Maakt de system prompt de AI ‘dommer’?
Dit roept direct een lastigere vraag op. Is zo’n system prompt eigenlijk een vorm van censuur? In feite bepalen de makers in Silicon Valley wat jij als gebruiker in Nederland wel en niet te zien krijgt. Zij zorgen voor de morele grenzen, de politieke correctheid en de toon van het gesprek. Jij ziet als gebruiker niet de ‘naakte’ intelligentie van het model, maar een zwaar gefilterde versie die is goedgekeurd door een corporate ethisch team.
Dit leidt tot een fascinerende gedachte: Hoeveel slimmer zou deze AI zijn zonder deze regels?
De system prompt werkt als een handrem. Het model moet bij elke letter die het genereert ‘nadenken’: Mag dit wel van mijn instructies? Is dit niet te vleiend? Schend ik geen copyright?
Zonder die digitale dwangbuis zou het model waarschijnlijk creatiever, onvoorspelbaarder en misschien wel genialer zijn. Maar tegelijkertijd ook gevaarlijker en onstabieler. Als gebruiker krijg je dus nooit de ‘pure’ intelligentie van het model, maar een veilig en afgebakend commercieel product.
Wat betekent de System Prompt voor jouw AI-gebruik?
Welke system prompt je ook neemt, de les blijft hetzelfde: AI is geen neutraal, onbegrensd superbrein. Het is een product dat gevormd is door menselijke keuzes, angsten en regels.
Wie AI effectief wil inzetten, moet snappen dat hij of zij in gesprek is met een systeem dat bewust afgebakend is. Begrip van die beperkingen maakt het verschil tussen blind vertrouwen en gezond, kritisch gebruik.
Meer weten?
De inzichten uit deze blog zijn niet theoretisch, maar bepalen hoe je AI effectief inzet. Aimonnik.nl helpt organisaties deze beperkingen te begrijpen en ermee te werken. Wil jij dit ook leren? Boek dan een praktische training.


Plaats een Reactie
Meepraten?Draag gerust bij!