Prompt engineering in de praktijk

prompt engineering

AI is in korte tijd een vaste waarde geworden in onze manier van informatie zoeken en brainstormen. Ook voor journalisten en uitgevers. De juiste prompt schrijven is haast even belangrijk als uw inhoudelijke research. Wij gingen aankloppen bij AI-expert David Grunewald. Hij legt uit hoe prompt engineering werkt.

Op 5 juni vond in de gebouwen van WE MEDIA het tweede luikplaats van een masterclass over AI-tools voor media- en communicatieprofessionals: ‘Converseren met AI, beyond the basics’. Joeri Dehouwer (Thomas More) ging dieper in op technieken zoals role-based prompting, iteratieve verfijning en het slim sturen van AI naar het gewenste resultaat. Dit artikel gaat hierop verder met behulp van AI-expert David Grunewald.

Na jaren actief geweest te zijn in (digital) advertising volgde hij de cursus ‘Implicaties van AI voor de bedrijfsstrategie’ aan de MIT Sloan School of Management. Hij studeerde in 2023 af met grote onderscheiding en richtte vervolgens Pluginto.ai op, een agency waarmee hij organisaties en bedrijven in verschillende sectoren strategisch begeleidt bij het gebruik van AI. Onlangs was hij in Vietnam waar hij 60 journalisten van een grote printuitgever wegwijs maakte in prompt engineering technieken en AI-tools.

Laten we beginnen met een belangrijke prompting techniek uit te leggen, die van de role-based prompting. Waarom is die zo belangrijk binnen prompt engineering?

De prompt engineering technieken zijn een paar jaar geleden ontwikkeld. Het zijn simpelweg technieken om beter te communiceren met de large language models (LLM). Wanneer beginners met een LLM (zoals ChatGPT, Copilot, Mistral, Gemini of een ander) aan de slag gaan, stellen ze vaak een vraag zoals ze dat bij Google zouden doen. Je krijgt dan wel een antwoord, maar de kwaliteit van het antwoord verbetert aanzienlijk als je je vraag op een meer gestructureerde manier formuleert.

Die structuur bestaat uit drie onderdelen:

  • Eerst bepaal je de persona of rol – je definieert dus welke expertise ChatGPT of een andere tool moet aannemen (bijvoorbeeld journalist bij een krant).
  • Vervolgens geef je context, en het belangrijkste daarbij is dat je veel details geeft over je vraag of het onderwerp.
  • Tot slot omschrijf je de taak die je wilt dat ChatGPT uitvoert.

Deze drie onderdelen zijn het absolute minimum om een beter antwoord te krijgen. Doe je dat niet, en stel je meteen een vraag als ‘doe dit of doe dat’, dan zal het taalmodel die taak uitvoeren, maar waarschijnlijk op een minder passende en minder kwalitatieve manier.

Waarom is dat zo? Omdat ChatGPT in zijn geheugen alles heeft geïntegreerd wat beschikbaar is op het web. Kortom, alle literatuur, boeken, socialemediacontent, wetenschappelijke publicaties en academische papers. Het geheugen is enorm. Zodra je een vraag stelt, gaat het model woord voor woord, token voor token, op zoek naar de juiste informatie met de hoogste waarschijnlijkheid van juistheid. Als je de rol definieert, help je de tool als het ware een soort barometer in zijn geheugen te plaatsen, zodat het gerichter en accurater informatie kan ophalen. Daarom is het zo belangrijk om dit te doen.

In hoeverre beïnvloeden de steeds geavanceerdere taalmodellen de prompting?

Er is een enorme evolutie gaande in zowel het prompten als in de modellen zelf. We bevinden ons nu in een fase waarin er binnen ChatGPT en andere modellen drie verschillende types bestaan. Ten eerste is er het traditionele model, zoals GPT-4o, 4.1 of 4.5. Deze zijn heel goed in brainstormen, het geven van antwoorden, creatief werken met tekst en het samenvatten van informatie. Dit is eigenlijk de basis van wat ChatGPT een paar jaar geleden was, maar het is inmiddels verbeterd door meer rekenkracht en het kan grotere hoeveelheden data analyseren.

Ten tweede heb je de zogenaamde redeneermodellen. Deze modellen zijn niet zozeer ontworpen om de beste teksten te schrijven of antwoorden te geven, maar juist om problemen diepgaand te analyseren. Je kunt er grote bestanden met veel data mee analyseren. Stel dat je als bedrijf een probleem hebt, bijvoorbeeld dat je inkomsten dalen doordat een concurrent een nieuwe dienst heeft gelanceerd, en je hebt de cijfers, dan kun je het model vragen wat je het beste kunt doen. Als je dezelfde vraag aan het traditionele model stelt, krijg je ook een antwoord, maar dat zal niet zo goed zijn als dat van het redeneermodel.

Een derde type gaat over ‘deep research’. Daarbij stel je andere soorten vragen en gebruik je een andere structuur. Stel, je wilt meer informatie over de evolutie van jouw markt, bijvoorbeeld hoe traditionele kranten zijn overgestapt op nieuwe abonnementsmodellen om jongere generaties aan te trekken, en je wilt weten wat de meest geavanceerde innovaties zijn in Azië en Amerika. In dat geval zoekt de deep research tool op het web, niet in zijn geheugen. Het model gebruikt AI-agents om op het internet te zoeken, waarbij het 200 tot 300 verschillende bronnen doorneemt, leest, analyseert, data verzamelt en vervolgens een samenvatting tot wel 30 pagina’s maakt.

Het begrijpen van die verschillende types binnen de LLM’s geeft een heel andere dimensie aan de samenwerking met AI.

Concreet nu. Welke technieken binnen prompt engineering kun je aanbevelen aan printuitgevers, zowel de journalisten als de commerciële profielen?

Er bestaat geen magische formule, het is vooral een nieuwe manier van leren en communiceren. De basis is dat je elke prompt herformuleert, meer bepaald vanuit welke rol het antwoord moet komen: ‘Jij bent een expert in…’. Vervolgens geef je context en neem je de tijd om een goede briefing te schrijven, met voldoende informatie over waar je samen aan gaat werken en wat het doel is. Daarna formuleer je de taak en het gewenste format, zoals een tekst, een tabel, een Excel-sheet, … Geef ook aan welke tone of voice je verwacht.


Je kunt ook richtlijnen laten vastleggen in je ChatGPT-instellingen, gebaseerd op de schrijfstijl van jouw redactie, zodat het model patronen in jouw teksten kan nabootsen. Verder kun je aangeven welk soort jargon je wilt, bijvoorbeeld juridisch of wetenschappelijk, welke woorden je wilt vermijden, of dat het stuk inclusief of educatief geschreven moet zijn. Deze zaken worden nog te weinig ingezet, maar zijn erg belangrijk.

Leer tot slot goed te formuleren en kies het juiste redeneermodel. Iedereen zou nu en in de nabije toekomst in staat moeten zijn om betere vragen te formuleren aan ChatGPT of een ander taalmodel. Neem de tijd om langere prompts met verschillende instructies te schrijven en leer te itereren. Kortom, blijf ChatGPT bijsturen tot je tevreden bent met het resultaat. Daartoe is een leercurve nodig, maar het levert uiteindelijk veel betere output op.

Zo komen we op het terrein van iteratieve verfijning?

Dat is inderdaad een techniek om je vraag of prompt voortdurend te verfijnen. We evolueren eigenlijk naar een nieuwe wereld met een ander soort interactie, waarbij je niet alleen je vragen typt, maar ook via je stem met ChatGPT communiceert. Die laatste wordt een AI-assistent die advies geeft en met je praat. ChatGPT heeft immers een geheugen van al je eerdere gesprekken, vanaf je allereerste interactie. Je kunt dus zeggen: ‘Op basis van al onze gesprekken, kun je aangeven wat mijn sterke en zwakke punten zijn?’ Of: ‘Kun je me helpen voorkomen dat ik bijvoorbeeld ga procrastineren?’.

Je assistent wordt aldus een persoonlijke coach, niet zomaar een antwoordmachine. Het kost tijd om dat te begrijpen en om deze nieuwe relatie met de technologie aan te gaan. Het klinkt misschien wat vreemd om met een machine te praten, maar als je het eenmaal doet, is het een fantastisch hulpmiddel.

Prompting zal dus evolueren van tekst naar spraak?

Ja, en meer op een genormaliseerde en gestructureerde manier. Dit gebeurt nu al bij sommige AI-systemen die gespecialiseerd zijn in beeldgeneratie. Je zegt bijvoorbeeld: ‘Ik wil dit soort afbeelding met een mens, met een hond, …’  De prompt wordt vervolgens door het systeem zelf herschreven, met meer details, om aldus een beter beeld te genereren. Die filtering en aanpassing van je vraag zal zeker ook plaatsvinden in ChatGPT en andere…

Dus de verbetering van de prompts zal door de machine gebeuren en niet door ons?

Ja. En er bestaan ook heel wat specifieke GPT’s, om je eigen prompts te verbeteren en te optimaliseren, zoals Prompt Maestro en PromptPerfect.

Vervelend aan de taalmodellen is dat ze je soms te veel naar de mond praten. Ze willen je graag plezieren en geven daardoor het antwoord waarvan ze denken dat jij het wil horen. Hoe ga je daar het best mee om?

Het gaat hier voornamelijk over Amerikaanse bedrijven, dus de stijl is heel Amerikaans. Bij Mistral (een Franse start-up, nvdr.) merk ik dat minder. Die geeft andere antwoorden, meer in een Europese stijl. Daarom pleit ik voor een Europese standaard voor LLM’s. Ik denk niet dat het bedoeling kan zijn om al onze bedrijven, structuren en doelstellingen door een Amerikaanse of Chinese oplossing te beïnvloeden. Het wordt tijd om een goede en volwaardige oplossing zoals Mistral een kans te geven. Ondertussen raad ik aan om de ‘custom instructions’ in ChatGPT aan te passen. In die instellingen kun je precies aangeven hoe je wilt dat het model jou antwoordt, bijvoorbeeld op een directe manier en zonder overdreven positiviteit.

Moeten uitgevers een andere prompting strategie hanteren naargelang het soort tool dat ze gebruiken?

Bij Midjourney of Videogram, die beeld en video genereren, is de structuur anders dan bij de taalmodellen. Binnen ChatGPT, ChatGPT Cloud, Mistral en Copilot is de structuur nagenoeg hetzelfde. Hoe meer context je geeft, hoe beter het antwoord. Met langere prompts en meer informatie krijg je meestal betere antwoorden. Dat is de regel. In het echte leven geldt eigenlijk hetzelfde. Als je een briefing goed voorbereidt, mag je ook een beter resultaat verwachten. Kortom, hoe beter de input, hoe beter de output.

Waarom zouden we de betalende versies van de AI-tools moeten gebruiken?

Met de gratis versie kun je de beste versie van ChatGPT vijf keer gebruiken, daarna schakel je terug naar de basisversie van het model. Dan voel ik me toch wat beperkt. Het lijkt me dus logisch om te investeren. 20 tot 25 euro per maand vind ik nu ook niet onoverkomelijk voor zo een sterke tool. Een ander belangrijk punt is dat we altijd voorzichtig moeten zijn met vertrouwelijke informatie. Bij de gratis versie ben je er toch niet helemaal zeker van dat de informatie uit je prompts of bijlagen niet in het geheugen van een toekomstige versie van ChatGPT terechtkomt. Als je ooit iets vertrouwelijks hebt geüpload naar ChatGPT, bestaat de kans dat anderen daar later toch een antwoord met vertrouwelijke informatie uit kunnen halen.

Werken AI-beeldgeneratoren al goed voor printuitgevers?

Sinds begin dit jaar hebben we zo een professioneel niveau bereikt in het genereren van beelden dat het echt moeilijk wordt om te zien dat deze beelden door AI zijn gemaakt. Zeker als je goed bent in het prompten met Midjourney, krijg je fantastische resultaten. Bij video was dat nog niet het geval, maar met de lancering van Veo 3 door Google, ongeveer een maand geleden, hebben we ook daar het niveau van perfectie bereikt. Dat verandert veel voor de storytelling of voor elke content creator. Die laatsten kunnen nu dingen visualiseren zonder enige opname of beeldmateriaal, en dit op een heel creatieve manier. Dat gaat een enorme impact hebben op de entertainmentindustrie, de media en de reclamewereld.

Hoe ziet dat er in de praktijk uit?

Je moet je aanpassen aan een heel strikte en complexe grammatica die specifiek is voor Midjourney. Ik gebruik drie tot vier verschillende tools. Ideogram en Leonardo.Ai bijvoorbeeld zijn veel makkelijker in gebruik dan Midjourney. Je kunt haast in gewone mensentaal prompten en je krijgt hyperrealistische beelden. Je kunt je beelden bewerken en retoucheren. Ik gebruik Photoshop eigenlijk niet meer, want deze tools laten je toe om alles te retoucheren en te combineren.

Maar de echte gamechangers zijn Gemini en ChatGPT met hun beeldgeneratie, want voor het eerst is het niet gewoon een model dat, zoals DALL-E vroeger, enkel beelden genereert zonder echt te ‘begrijpen’ wat je bedoelt. Je kon DALL-E of Midjourney niet vragen: ‘Wat met de Franse Revolutie?’. Ze genereren gewoon beelden, maar geven geen inhoudelijk antwoord. ChatGPT is geëvolueerd. Het kan nu ook beelden genereren zonder een specifiek beeldgeneratiemodel zoals DALL-E in te schakelen. Het kan nadenken en beelden produceren.

Als ik zeg ‘Ik wil een stripverhaal van vijf pagina’s over de Franse Revolutie, met de belangrijkste feiten, uitgewerkte personages, tekeningen en dialogen voor elke pagina’, dan gaat het model zelf de dialogen bedenken, de inhoud van elke pagina bepalen en voor elke pagina de prompt genereren en het beeld coherent maken. Je hoeft dus niet vijf verschillende prompts te maken voor vijf verschillende beelden; het model doet dat zelf.

De AI wordt als het ware een volledig geïntegreerd agency…


Het is een revolutie, want voor het schrijven van scripts, storyboards en dergelijke kun je nu gewoon vragen: ‘Werk voor mij een storyboard uit voor een commercial van dertig seconden over dit onderwerp, en ik wil voor elke scène één tekening of beeld dat uitlegt wat er artistiek gebeurt’. En je krijgt dat op een heel samenhangende manier, zonder dat je vijf of tien keer iets moet aanpassen. Dus dat is ook weer een volgende stap. Het is nog niet ideaal en het is nog niet perfect, maar het gaat de hele sector veranderen.

De grafische designstudio van een krant of magazine vaart er ook wel bij.


Inderdaad, ik denk aan het aanpassen en veranderen van de lay-out. Webdesign is veel eenvoudiger geworden omdat je dit aan het model kunt vragen en het dan kunt laten vertalen naar HTML5 of andere programmeertalen. Dit gaat de menselijke creativiteit niet vervangen, maar het zal wel resulteren in nieuwe formaten of formats voor lezers en adverteerders. We hoeven daar niet bang voor te zijn. Ik geloof niet in de standaardisering van het gebruik van AI. We zullen dieper graven dan vroeger en op een veel snellere manier.

Maar is het niet net die snelheid, de versnelling van alles, die angst inboezemt?

Inderdaad en daarom is het belangrijk om goede opleidingen te voorzien. Niet alleen voor het gebruik van de tools, maar ook om mensen te begeleiden in een andere manier van werken. Het gaat hier om een empowerment van mensen, niet om een big replacement door de machines. Natuurlijk zullen sommige jobs veranderen, maar er zullen ook nieuwe jobs ontstaan.

LAS U DIT AL?