OpenAI is bekend van ChatGPT en Dall-E en heeft de nieuwe AI-tool Sora bekendgemaakt. Sora zet eenvoudig tekst om in realistische video’s tot 60 seconden.

Megan van der Wagt

OpenAI staat vooral bekend om zijn populaire AI-tools als ChatGPT en Dall-E. Nu heeft deze Microsoft-dochter een nieuwe AI-tool gelanceerd waarmee tekst wordt omgezet in een realistische video. Sora wilt vooral streven naar hoge visuele kwaliteit en nauwkeurige uitvoering.

Hoe werkt Sora?
Sora is net als ChatGPT gemakkelijk te gebruiken. Via een prompt (een korte script met een opdracht) is het mogelijk om via Sora video’s tot 60 seconden te creëren. Het enige wat je moet invullen, is wat jij wilt zien in de video met zoveel mogelijk details en vervolgens probeert Sora het zo goed mogelijk te visualiseren.

Wat kan Sora?
Met Sora is het mogelijk om zowel realistische als surrealistische video’s te creëren. Scènes met dieren, natuurgebieden en bijvoorbeeld meerdere personages zijn voor Sora geen probleem, want hij houdt rekening met de achtergrond en begrijpt bewegingen. “Het model begrijpt niet alleen wat de gebruiker heeft gevraagd in z’n prompt, maar ook hoe de dingen bestaan in de fysieke wereld”, vertelt OpenAI in een blogpost. Het model beschikt over een uitgebreide taalkennis en kan dus op basis van één prompt een video genereren met verschillende mogelijkheden wat betreft camerastandpunten. Er zijn dus veel visuele stijlen mogelijk.
In een ander statement van OpenAI wordt gesuggereerd dat Sora ook nog wel simulaties van de echte wereld zou kunnen creëren, waarmee het ontwerpen van games wordt bedoeld. Sora zou dus verder kunnen gaan dan alleen het creëren van video’s van maximaal 60 seconden.

Complicaties
Sora kan volgens OpenAI een heleboel, maar heeft af en toe ook haar complicaties. Zo heeft het model af en toe moeite met het nauwkeurig simuleren van complexe scènes en kan het programma moeilijk onderscheid tussen oorzaak en gevolg begrijpen.

Misbruik
Sora is momenteel nog niet beschikbaar voor gebruik. Bij OpenAI is men nog intern nog bezig om het gedrag van het model aanvaardbaar te maken, er komen namelijk veel consequenties bij zo’n programma kijken. OpenAI vindt dat misinformatie en haat niets te zoeken hebben in het eindproduct, waardoor OpenAI nu werkt aan tools die onder andere misinformatie moeten detecteren. Ook komt er een soort watermerk in de video’s terecht, zodat het makkelijk is om de beelden van Sora te onderscheiden van realistische beelden.

Sora AI 2