AI, Prompts

Hvad er sequential prompting og hvordan bruger man det?

Hvis du har brugt ChatGPT, Claude, Gemini eller andre LLM’er, så har du måske oplevet af modellen godt kan sendes lidt på afveje, hvis du giver den en stor og kompleks prompt at arbejde med.

En LLM som ChatGPT eller Claude er et fantastisk værktøj til næsten alle opgaver. De har dog den generelle udfordring, at de har en tendens til at hallucinerer, som det kaldes når vi taler om kunstig intelligens. Hallucinationer betyder kort og godt, at man ser eller oplever ting, der ikke findes i virkeligheden. Dette sker altså også for LLM’er, som kan have en tendens til at opfinde ting, hvis ikke man giver dem præcise instruktioner. Dette medfører én bestemt problemstilling – at man ikke kan stole på sit output.

Det er her hvor emnet for denne artikel kommer ind i billedet. Sequential prompting er nemlig et af de værktøjer vi kan hive ud af værktøjskassen til både at undgå hallucinationer, men også til generelt at opnå et bedre output fra vores prompts.

Hvad er sequential prompting?

Sequential prompting betyder at man deler sin store prompt op i mindre dele. Man sætter sine prompts op i en sekvens (en rækkefølge), som man så giver til en LLM. Dette kan både ske manuelt eller automatisk, om en del af et AI workflow.

Outputtet af den første prompt bliver inputtet til den næste og kan så kombineres med en ny prompt. Den proces kaldes for sequential prompting eller chain prompting. Med denne teknik kan man gøre hver enkelt delopgave mere konkret for den LLM man spørger og dermed få et bedre output, som man kan være mere sikker på er rigtigt. Teknikken er dog ikke en garanti for at en LLM ikke hallucinerer, men kan kombineres med andre teknikker for også at opnå dette.

Hvorfor virker sequential prompting godt?

Der er flere grunde til at sequential prompting virker godt når man arbejder med AI og LLM’er. Den primære grund har vi allerede nævnt, altså at man bryder opgaven ned og gør den mere konkret, så en LLM kan give et bedre svar.

Hvis man arbejder med Custom GPT’er eller AI Agenter, så kan disse desuden også med fordel kombineres med sequential prompting. Med en Custom GPT kan man have en slags ‘mini AI agent’, som har noget prædefineret input, den arbejder ud fra. Den kan altså være specialiseret indenfor et område og kommer i spil på det tidspunkt i sekvensen, hvor prompten falder indenfor dennes ekspertområde.

Eksempel
Hvis du sidder med digital marketing, så har du nok arbejdet med SEO tekster eller content creation i generel forstand. Når du sidder med en sådan opgave, så er der flere steps du skal igennem. Du starter måske med en søgeordsanalyse, så laver du noget research, hernæst skriver du en tekst og så forfiner du den tekst. Alle disse steps kunne man godt lave til en stor prompt, give det til en LLM og se hvad der kom ud. Det er dog næsten 100% sikkert, at man får et bedre output hvis man bryder processen ned også siger:

  • Prompt 1: Søgeordsanalyse
  • Prompt 2: Research på keywords, konkurrenter, produkter etc.
  • Prompt 3: Skriv SEO teksten
  • Prompt 4: Tilpas teksten til vores tone of voice, brand guidelines etc.

Hver enkelt step agerer input til næste step sammen med en ny prompt. Ovenstående proces er også den, der ofte bruges, hvis vi taler om programmatic SEO, hvor den så vil kunne laves 100% automatisk fra søgeordsanalyse til færdig tekst publiceret på en hjemmeside.

Man kan tænke på sequential prompting ud fra samme tankegang, som man måske bruger, hvis man giver en kollega en opgave. Hvis man sidder i en time og laver én stor overlevering, hvorefter kollegaen går i gang med at løse opgaven, så vil der være en stor risiko for at noget går tabt og at man ikke ender med det ønskede output. Hvis man derimod brød opgaven ned og gav den til kollegaen i steps, så fik man nok et mere præcist resultat, som var tættere på det man gik efter – og det er det samme med en LLM.

Hvordan kommer man i gang med sequential prompting?

Teknikken er ikke svær at starte med – og den behøves bestemt ikke at være automatiseret. Det handler grundlæggende om at ændre lidt på den måde man arbejde med en LLM på. Det er et spørgsmål om at tænke sine prompts lidt på en anden måde – også det der kaldes prompt engineering – og bruge kræfter på at vurdere hvordan man på bedst mulig vis kan sikre at LLM’en forstår hvad man ønsker at opnå.

Så hvis du sidder med en opgave eller en stor prompt du har bygget, så prøv at spørg dig selv om hvilke delelementer den består af. Hvor starter den og hvor slutter den, og hvad sker der inde i mellem de to punkter. Herefter kan du begynde at designe prompts til hver enkelt step, teste dem og eventuelt justere, hvis du ikke opnår det resultat du ønsker.

Hvis du har brug for hjælp til sequential prompting, så kan vi hos Spark AI hjælpe dig i gang. Vi tager gerne et kig på enten din opgave eller din prompt og hjælper dig med at bygge dine prompts, så det passer ind i en sekvens, der kan give dig det bedst mulige output.

Om Spark AI
Vi hjælper små- og mellemstore virksomheder med at implementere AI i deres virksomhed. Tag det næste skridt med AI, sammen med os.
Vi gør det nemt

Er I klar til at udvikle jeres forretning med AI?

Bare rolig, I er ikke sent på den. Mange virksomheder er først lige begyndt og det kan I også sagtens. Vi hjælper jer med at finde den helt rette implementering af AI i jeres forretning.