Oct 15, 2025

Mijn AI creative workflow voor video & stills: welke tools ik gebruik

AI is niet creatief, jij bent dat. Hier lees je hoe ik AI gebruik als middel in mijn creative workflow voor video en stills—welke tools, welke aanpak, en wat het echt kost.

Mijn AI creative workflow voor video & stills: Welke tools ik gebruik

Vorige maand zat ik met een bevriende (marketeer) die me vroeg: "Kun je niet gewoon een prompt intikken en klaar?"

Ik moest lachen. Want dat is precies het misverstand over AI creative work. Mensen denken dat je "maak een mooie commercial" intikt en dat AI de rest doet. De realiteit? Ik werk soms een hele dag aan één shot. Niet omdat AI traag is, maar omdat goede creative output hetzelfde vereist als traditionele productie: creativiteit, visie, technische kennis, en eindeloos itereren.

Hier is de waarheid die niemand je vertelt: AI is niet creatief. Het is een tool. Net zoals een camera niet creatief is - de fotograaf wel.

Dit artikel laat zien hoe ik AI tools gebruik in mijn workflow, van concept tot final delivery. Geen marketing bullshit, gewoon mijn proces met de frustraties, kosten en learnings erbij.

AI is niet creatief (en dat is prima)

Laat me dit meteen duidelijk maken: AI is geen creative director. Het bedenkt geen concepten, kent je merk niet, weet niet wat "goed" is. Wat het wél doet: maken wat jij bedenkt, sneller dan je gewend bent. Creativiteit? Dat blijft mensenwerk.

Wat AI wel kan? Uitvoeren. Snel itereren. Variaties genereren. Inpspireren. Technische productie work doen die normaal uren kost.

Ik werk met AI zoals een director werkt met een crew. Jij hebt de visie, jij maakt de calls, jij bepaalt wat klopt. AI is je lichtman, je camera operator, je editor - maar jij bent de director.

De mindset shift die je moet maken:

Stop met denken als "AI gebruiker" die prompts intikt. Start met denken als fotograaf of director. Dat betekent:

  • Weet welke lens je wil (35mm voor context, 85mm voor portrait)

  • Bepaal je belichting (golden hour, studio setup, natural light)

  • Kies je compositie (rule of thirds, centered, Dutch angle)

  • Definieer je kleurpalet (warm/cool, high/low contrast)

Zonder deze creative foundation? Je tikt prompts en hoopt. Met foundation? Je stuurt richting—maar verwacht geen gehoorzaamheid.

De realiteit: AI doet niet altijd wat je vraagt. Elke generatie is anders. Soms zit generatie 5 perfect, vaak scroll je door 20+ outputs voor je het in je hoofd herkent. Kennis verkort de zoektocht, maar elimineert hem niet.

Mijn image generation workflow: denken als fotograaf

Hier wordt het praktisch. Mijn image generation workflow is gebaseerd op één principe: bouw in lagen, zoals een echte fotoshoot.

Tools die ik gebruik:

Primaire modellen (image):

  • Nano Banana (Gemini 2.5 Flash Image) - Beste character consistency, ideaal voor multi-image campaigns

  • Seedream 4.0 - Koning van high-resolution output (tot 4K), batch generation

Video modellen (meest gebruikt):

  • VEO 3.1

  • Sora2

  • Kling 2.5

  • Huiluo 02

Platform voorkeur:

  • Open-Art - Mijn go-to voor 80% van projecten i.v.m. UI

  • Higgsfield - Upscaler vind ik prettiger en beter werken.

Andere platformen:

  • Hailuoai.video

  • Kling platform

Waarom Open-Art? Simpel: de UI vind ik fijner werken en het heeft alle AI modellen onder één dak.

AI creative workflow laagopbouw proces van lighting tot final image generation openart

De laagopbouw aanpak:

Hier is waar beginnende AI creators de fout ingaan: ze proberen alles in één prompt te stoppen. "A beautiful model in Paris street wearing red dress with golden hour lighting and...". Dat werkt niet.

Mijn aanpak? Bouw element voor element op:

Stap 1: Belichting Setup
Ik start altijd met lighting. Waarom? Omdat licht de mood bepaalt.

Voorbeelden van een deel van mijn prompts:

  • "Soft window light from left, 1:2 ratio, subtle fill bounce right side"

  • "Golden hour backlight, rim lighting on subject, warm color temperature 3200K"

  • "Studio setup: key light 45°, fill light camera right, hair light top back"

Dit zijn fotografie termen.

Stap 2: Camera Specs
Nu bepaal ik de lens en camera settings:

  • "Shot with 85mm f/1.4, shallow depth of field"

  • "Wide angle 24mm, f/8 for sharp environmental context"

  • "Medium format camera, 50mm equivalent, low ISO 200 for clean texture"

Waarom dit belangrijk is? Nano Banana en Seedream 4.0 begrijpen deze camera termen. Ze genereren output met correcte depth of field, bokeh quality, en lens distortion. Het verschil tussen een professionele shot en een amateur prompt.

Stap 3: Omgeving/Achtergrond
Background eerst, subject later. Klinkt counterintuitive, maar het werkt beter.

  • "Minimalist studio background, seamless grey paper, no distractions"

  • "Urban street environment, shallow focus background, bokeh city lights"

Stap 4: Subject/Model
Nu pas voeg ik het model toe. Met Nano Banana's character consistency kan ik hetzelfde gezicht door verschillende shots heen gebruiken.

Stap 5: Props & Attributen
Last layer: details. Kleding, accessories, product placement.

Character consistency: waarom ik weinig LoRA's meer train

Iets wat ik moet delen: LoRA training voor consistent characters gaat denk ik verdwijnen. Tenminste, dat is mijn verwachting voor mijn projecten.

Vroeger betekende character consistency dat je een LoRA moest trainen - een custom model getraind op 10-50 foto's van je character. Ik heb veel tijd besteed aan datasets bouwen en models trainen

En toen kwam Nano Banana…

Nu upload ik 3-5 reference foto's, typ een prompt, en binnen 15 seconden krijg ik character consistency die LoRA-niveau evenaart of soms overtreft. Geen training. Geen dataset. Geen technische circus.
Echter klinkt dit makkelijk maar je moet het op de juiste manier doen en ik gebruik ook prompt beheer.

(foto is visueel, geen echte weergave)

Van 50 foto dataset naar 3 reference images - character consistency met AI simplified

Voorbeeld prompt om een idee te krijgen:

"A mid-length fashion editorial portrait of the person in the images, in a minimalist studio. Soft diffused lighting, neutral beige backdrop, contemporary designer wear, refined posture. Ultra-sharp focus, 8k, cinematic color grading."

Resultaat? Studio-quality headshots zonder fotograaf, studio of LoRA training.

Mijn visie en met wat naslag werk, schat ik deze getallen:

  • LoRA training: rond 96% consistency, maar langere setup + technische skills vereist bijvoorbeeld ComfyUI

  • Nano Banana of Seedream: rond 97% consistency, minder lange setup en sneller werken. met technische kennis betere output!

Waarom deze aanpak werkt:

In Seedream 4.0 kan je tot 6 reference images gebruiken. Dat betekent: lighting reference, pose reference, styling reference - allemaal los. Het model combineert ze coherent. Probeer dat in één prompt te stoppen? Chaos.

Open-Art's multi-photo-to-video feature laat je zelfs meerdere stills combineren in één video sequence. Voor storyboarding onmisbaar.

Post-Tweak: Photoshop

AI genereert niet altijd alles van wat ik wil. Soms is die laatste stap nodig -> Adobe Photoshop.

  • Kleine retouches (stray hair, skin inconsistencies)

  • Color grading fine-tuning

  • Compositie adjustments (crop, perspective correction)

  • Positie veranderen

  • etc..

Geen AI tool genereert perfect. Photoshop blijkt soms een goede tool om te finetunen.

Tijdsindicatie (de eerlijke versie):

Verwacht je dat AI sneller is dan traditioneel? Soms wel, soms niet.

Snelle wins: Simpele product shots, clean backgrounds - 30 minuten tot 2 uur
Gemiddelde projecten: Fashion editorial, lifestyle content - 4-8 uur
Complexe campaigns: Multi-model, complexe lighting, specifieke brand aesthetic - volledige dag tot 2 dagen

Waarom zo lang? Elke AI generatie is anders. Soms krijg ik direct perfection. Soms 50 iteraties later zit ik nog te tweaken. Trial & error is inherent aan het proces.

Van beeld naar beweging: video generation

Video is waar AI echt krachtig wordt - maar ook het duurste.

Mijn aanpak: Altijd img2vid

Ik gebruik nooit text-to-video vanaf scratch. Waarom niet? Te random, te weinig controle.
First frame en Last frame optie was de game-changer imho.

Mijn workflow:

  1. Bepalen approach;alleen first frame of ook last frame wilt toepassen (meer controle)

  2. Genereer perfect still(s) met Nano Banana of Seedream 4.0

  3. Upload naar platform Open-Art's video models (of Higgsfield, etc.)

  4. Image-to-video met specifieke prompt. (dit is waar ervaring en kennis bij komt kijken)

Tools breakdown:

Higgsfield ecosystem:

  • Sora 2 Max/Pro (via Higgsfield unlimited access) - Hoogste quality, langzaam (30 sec render voor 12-sec clip)

  • Veo 3.1 (Google DeepMind) - Sneller, goede balans quality/speed

  • Kling 2.1 - Consistent motion, goed voor character animation

Open-Art:

  • 12+ video models beschikbaar, credit-based systeem

  • Text-to-video, img2vid, multi-photo-to-video


Waarom img2vid stabieler is:

Text-to-video modellen hallucineren. Ze verzinnen details die je niet vroeg. Character consistency? Vergeet het.

Met img2vid control je exact:

  • Hoe je character eruitziet (consistency gegarandeerd)

  • Starting composition en optioneel ending composition

  • Lighting setup

Het enige wat AI doet is beweging toevoegen. Veel voorspelbaarder resultaat.

Video token costs (de realiteit):

Video generatie is duur. Veel duurder dan stills.

Higgsfield pricing:

  • Basic plan: $9/maand, limited credits (een duur video model en je bent snel door je tokens of credits heen)

Open-Art:

  • 500-1500 credits per video generation (model-afhankelijk) dus kan snel gaan


Voor één commercial project (afhankelijk van lengte)? Reken op €40-€200 aan video generation kosten, afhankelijk van kwaliteit en hoe complex de scenes zijn.

Post-Production: After Effects is non-negotiable

AI genereert raw footage. Bruikbaar? Soms. Professioneel? Nooit zonder post en editing.

Mijn post-production stack:

  • Adobe After Effects - 100% van mijn projecten gaan door de good old AE

Technieken die ik gebruik:

1. Masking & Rotoscoping
AI video kunnen artifacts, inconsistencies, weird edges bevatten. Rotoscoping kan helpen voor geavanceerd masken. Of verschillende lagen video gebruiken. De ene video laag heeft een gedeelte wat de andere niet heeft dan kun je ze samenvoegen en masken.

Dit is advanced work. Geen quick fix. Rotoscoping één shot kan uren duren voor complexe beweging en fine-tunen.

2. Color Grading
AI output heeft vaak flat color. Ik grade soms in After Effects:

  • Lumetri Color adjustments

  • Curves voor contrast control

  • Selective color grading (skin tones apart van background)

3. Stabilization
Sommige AI video models genereren subtiele shake of jitter. Warp Stabilizer VFX in After Effects redt veel shots.

4. Compositing Layers
Soms combineer ik meerdere AI generations:

  • Background van generatie A

  • Subject van generatie B

  • Props/details van generatie C

After Effects layers, blend modes, masking - dit is waar "AI video" wordt "professional commercial".

Enhancement tools:

Voorbeelden:

  • Sora 2 Enhancer - Flicker elimination, tone harmonization

  • Higgsfield Upscale - Tot 8K detail reconstruction

  • Topaz Video AI integration - Noise removal, frame interpolation

Ik gebruik soms Upscale voor final export, maar color grade doe ik altijd zelf in After Effects.

De realiteit: tijd en kosten

Oké, transparantie time. Want niemand praat hierover.

Kosten breakdown (één commercial project):

Software subscriptions:

  • Open-Art: $10-50/maand (of pay-per-credit)

  • Higgsfield: $9-50/maand (afhankelijk van plan)

  • Adobe Creative Cloud: €60/maand

  • Totaal kan oplopen: €80-130/maand

Per project costs:

  • Image generation: 50-200 generations × $0.05-0.50 = €5-40

  • Video generation: 10-30 iterations × $2-5 = €20-150

  • Totaal per project: €25-190

Klinkt goedkoop? Wacht tot je ziet hoeveel iterations je nodig hebt.

Realistische voorbeeld: Laatst had ik een 20-second video . Ik genereerde:

  • 80 still variations (testing compositions)

  • 25 video generations (camera movements, timing)

  • 12 uur After Effects werk

Total project cost in AI credits: €90. Total time: 3 dagen.

Ter vergelijking (afhankelijk van de shoot): traditionele shoot had €4.000+ gekost, maar was in 2 dagen gedraaid en geëdit.

Dus is AI goedkoper? Hangt van project af. Voor simpele content: ja. Voor complexe, high-quality work: margins zijn smaller dan marketing je laat geloven. En AI kan zeker nog niet alles! Teksten, Textures en labels zijn lastig en vaak niet op niveau, op dit moment dan want elke maand zijn er model updates.

Tijd realiteit:

AI is niet altijd sneller. Zeker niet voor quality work.

Iteraties zijn onvoorspelbaar:

  • Shot 1: Perfect in 10 minuten

  • Shot 2: 2 uur voor acceptabel resultaat

Dit is frustrerend. Maar het is de realiteit van generative AI. Geen deterministic process.

Skills die je MOET hebben:

Zonder deze skills? Je verdrinkt in AI output zonder te weten of het goed is.

  1. Fotografie knowledge - Lighting, composition, camera specs

  2. Director mindset - Shot planning, pacing, storytelling

  3. Post-production skills - After Effects is mandatory, niet optioneel

  4. Geduld - Trial & error is 60% van het proces

Wat ik geleerd heb

Na veel projecten met AI creative tools, hier zijn mijn kernlessen:

1. Laagopbouw beats mega-prompts

Probeerde je alles in één prompt? Dat deed ik ook. Werkt niet. Splits op in losse elementen (lighting, camera, subject, props). Results zijn 10× beter.

2. Img2Vid is stabieler dan Text2Vid

Character consistency is king. Start met perfect still, dan video. Niet omgekeerd.

3. Open-Art's UI voordeel

UI zit goed in elkaar en je kan snel switchen. Veel modellen in één platform betekent geen context switching. Enorme tijdwinst. Test verschillende tools zonder account-hopping.

4. Nano Banana vs Seedream - Use cases

Nano Banana: Character consistency, multi-image campaigns, quick edits, realistischer output.
Seedream 4.0: Batch generation, ultra-high-res (4K), style transfers, iets creatiever, minder voorspelbaar, meer contrast, goed voor fantasy.

Beide heb ik nodig. Niet één tool beats all.

5. After Effects is Non-Negotiable

Raw AI output, vaak niet voldoende! Post-production maakt het af. Masking, rotoscoping, color grading. Niet optioneel.

Conclusie: AI amplifies creativity, doesn't replace It

De grootste les? AI is je crew, niet je director. Jij hebt de visie. AI voert uit.

Zonder creative foundation - fotografie kennis, compositie sense, storytelling begrip - is AI gewoon een dure prompt generator. Met die foundation? Het wordt een krachtige productietool.

AI creative tools zijn hier om te blijven. Ze worden beter, sneller, goedkoper. Maar de fundamentals veranderen niet: echte creativiteit komt van mensen, niet van modellen.

Tot slot: deze workflow is een momentopname. AI op visueel gebied beweegt razendsnel. Tools die ik nu zweer bij, zijn over een half jaar misschien vervangen. Mijn aanpak past zich aan. Wat blijft? De creative foundation. De tools veranderen, de principes niet.

Wil je zien wat mogelijk is met deze workflow? Check mijn werk op rickvanderwal.com