Sora: een historische ontwikkeling, maar mét beveiligingsrisico’s
De introductie van Sora door OpenAI markeert een mijlpaal in videobewerking. De revolutionaire technologie is opwindend, maar roept tegelijkertijd vragen op over de gevolgen van de rol van AI bij het maken van digitale content en cybersecurity.
Het potentieel van Sora om videoclips van een minuut uit tekstinvoer te genereren is verbluffend. De toevoeging van dynamische elementen zoals reflectie, textures en physics introduceert een nieuwe dimensie van authenticiteit aan AI-gegenereerde content. Op de OpenAI-website staan verschillende voorbeelden, zoals een stijlvolle vrouw die door een neonverlichte straat in Tokio loopt en een oldtimer die over een onverharde weg scheurt. Op het eerste gezicht zien deze video’s er authentiek uit. Maar hoe nauwkeuriger we deze video's bekijken, hoe meer onvolkomenheden we ontdekken.
Ethische vragen
Met de introductie van Sora wordt de grens tussen digitale creatie en realiteit steeds vager. Deze vervaging roept ethische vragen op. Met name over hoe AI-gegenereerde content kan worden gebruikt of misbruikt. Want hoewel de technologie een revolutie kan betekenen en tijd en middelen kan besparen, brengt het tegelijkertijd het risico van het verstrekken van verkeerde informatie met zich mee. Denk bijvoorbeeld aan gevoelige contexten zoals verkiezingen of het beïnvloeden van de publieke opinie.
De imitatie van publieke figuren of het maken van fictieve, maar zeer echt lijkende gebeurtenissen kan ernstige gevolgen hebben als het kwaadwillig wordt ingezet. We hebben eerder al voorbeelden gezien van gewijzigde video’s die werden gebruikt om argwaan te wekken. Zo bleek een paar jaar geleden dat de Amerikaanse House Speaker Nancy Pelosi in een nepvideo vloekte, waardoor geruchten over haar gezondheidstoestand werden aangewakkerd.
En hoewel OpenAI watermerken toevoegt om aan te tonen dat het om AI-generatie gaat, blijft de dreiging van manipulatie om deze indicator te verbergen bestaan. Sora zou videoproductie kunnen democratiseren, waardoor makers hun visies kunnen namaken zonder zich wat te hoeven aantrekken van de normale barrières van videocreatie. Dit onderstreept de dringende behoefte aan strikte ethische richtlijnen en degelijke cybersecurity-maatregelen om mogelijk misbruik tegen te gaan.
AI-bewustzijn
Nu er steeds meer AI-tools komen, kunnen deze gemakkelijk worden gebruikt om aanvallen veel overtuigender te maken. De cybersecurity-industrie heeft een proactieve aanpak nodig om kaders op te stellen die ervoor zorgen dat AI wordt ontwikkeld met de juiste voorzorgsmaatregelen. Ook is het belangrijk dat mensen getraind worden in hoe AI-aanvallen eruit zien, hoe ze te herkennen zijn en hoe erop gereageerd moet worden. We moeten zorgen voor veilig online gedrag en een sterke security culture waarin mensen waakzaam zijn voor dit type dreigingen.
Javvad Malik, Lead Security Awareness Advocate bij KnowBe4
Meer over
Lees ook
AI-brein: logica en creativiteit bepalen samen het succes van generatieve AI
Het is een spannende periode, omdat Gen AI nieuwe niveaus van creativiteit, probleemoplossing en automatisering gaat ontsluiten. Voordat bedrijven deze technologie implementeren, doen ze er verstandig aan een sterk datafundament te leggen, inclusief kwaliteit, governance en vertrouwen, wendbaarheid in data-engineering en AI-kennis.
89% van Nederlandse MKB-bedrijven boekt succes met AI: "Een stille revolutie"
Recent onderzoek van reichelt elektronik laat zien dat MKB-bedrijven een stille revolutie ondergaan terwijl ze AI implementeren in hun dagelijkse operaties. De resultaten zijn niet alleen veelbelovend, maar tonen ook aan dat technologische innovatie nu binnen handbereik ligt
CVE-database: alweer een wake-upcall voor Europa
De Verenigde Staten stonden op het punt zich terug te trekken uit een van de belangrijkste fundamenten van wereldwijde cybersecurity: de financiering van de CVE-database. Hoewel de VS inmiddels hebben ingestemd met een tijdelijke verlenging van elf maanden, blijft het onderliggende signaal onveranderd.