OpenAI
Pas op voor een tsunami aan content
Automatische content-creatie wordt steeds gewoner met behulp van geavanceerde kunstmatige intelligentie (AI) technologie. Bij New Story zijn we er zeker enthousiast over. Het creëren van merkrelevante content, bijvoorbeeld via Jasper.ai, wordt schaalbaar. En betaalbaar. Hoewel de technologie marketeers veel kansen biedt, roept het tegelijkertijd belangrijke ethische vragen op.
In dit blog
Wat is AI-gegenereerde content? Wat betekent het voor ons als samenleving? Hoe voorkomen we dat AI-gegenereerde content het probleem van desinformatie verder vergroot? En hoe moet jouw organisatie ermee omgaan?
AI-gegenereerde content, hoe werkt het?
AI-gegenereerde content is een product van OpenAI, een kunstmatige intelligentie onderzoekslab opgericht in 2015. Het doel is om AI-technologie te democratiseren en toegankelijk te maken voor iedereen. Met Artificial General Intelligence (AGI) wil het mensen helpen bij het aanpakken en oplossen van complexe problemen. Op dit moment komt alles in een stroomversnelling en schieten de OpenAI-oplossingen als paddenstoelen uit de grond, waaronder robotica en natuurlijke taalverwerking, oftewel AI-gegenereerde content. Op basis van deze technologie heeft onder andere Jasper.ai het levenslicht gevonden, waarmee je eenvoudig tekstuele content kunt genereren. Met de onderliggende OpenAI-techniek worden talloze bronnen gescand en omgezet in een uniek rapport. Zo is het altijd unieke content; er is nooit sprake van plagiaat. Op basis van interacties met mensen leert het systeem en wordt het wijzer, als het ware - van de content die het zelf creëert.
Google maakt zich zorgen
Google heeft zijn bedenkingen bij AI-gegenereerde content. Natuurlijk omdat het platform steeds vaker wordt overgeslagen door alle mensen die bij ChatGPT te rade gaan. Maar zeker ook doordat content steeds vaker wordt aangezien voor het werk van een echt mens. Een nog groter probleem ontstaat wanneer de AI-gegenereerde informatie onjuiste informatie bevat en gebruikers misleidt. Daarom neemt de zoekgigant verschillende maatregelen om de kwaliteit en nauwkeurigheid van AI-gegenereerde content op zijn platform te waarborgen. Zo ontwikkelt Google technologieën om geautomatiseerde content te herkennen. Maar zoals altijd ontstaat er een kat-en-muisspel, waarbij technologieën elkaar proberen af te troeven.
Het kat-en-muisspel
Om te voorkomen dat je door Google wordt gestraft, kun je jouw AI-content laten controleren of het door Google als AI-content kan worden gedetecteerd. Onze ervaring: een klein beetje van jezelf toevoegen (10 tot 20% kan al genoeg zijn), maakt het moeilijk voor de huidige (Google) technologie om AI-content te herkennen. Meteen een belangrijke disclaimer: wat vandaag waar is, biedt geen garantie voor morgen. Dus alleen al vanuit dat perspectief moet je geautomatiseerde content niet op de automatische piloot inzetten.
Gedemocratiseerde waarheid
Voor Google is het misschien een vloek, maar voor inbound marketeers een zegen: AI-gegenereerde content is nu al bijna niet meer te onderscheiden van door mensen geschreven werk. Dit is gunstig op het gebied van efficiëntie; AI-platforms zoals ChatGPT en Jasper.ai kunnen in een fractie van de tijd die het kost om handmatig alle content te schrijven, hoogwaardige content genereren. Echter, dit gebruiksgemak brengt ook mogelijke gevaren met zich mee wanneer de technologie, bedoeld of onbedoeld, wordt misbruikt. Desinformatie is al schering en inslag; wordt het probleem erger?
Breed toegankelijke OpenAI-technologie zal veel goede content genereren. Maar onherroepelijk zal het ook een eindeloze stroom van geautomatiseerde desinformatie genereren, die door de kwaliteit ervan legitiem lijkt. Met de exponentiële groei van content aan de horizon is het meer dan voorspelbaar dat het steeds meer zal leiden tot verwarring, wantrouwen en diepe polarisatie. Wanneer een AI-platform zich routinematig voedt met geautomatiseerde desinformatie - en algoritmen die de voor de lezer convenient truth blijven bevestigen - zal het platform deze onjuistheden leren en ze steeds vaker uitserveren. Feiten worden als het ware weggestemd. Waarheid wordt gedemocratiseerd, of erger: gemanipuleerd.
Regulering is nodig! Maar is het op tijd?
Om ervoor te zorgen dat geautomatiseerde content op een ethische manier wordt gebruikt en geen versterker wordt van een papegaaiende menigte, is regulering nodig. Dit moet zich richten op twee belangrijke gebieden. Het moet ervoor zorgen dat AI-gegenereerde content voldoet aan normen van nauwkeurigheid en legitimiteit; Het moet het geautomatiseerd verspreiden van desinformatie en manipulatie van de publieke opinie voorkomen. Maar hoe krijg je dat voor elkaar? Is de schade al aangericht voordat de oplossing er is? De oplossing voor deze uitdaging moet letterlijk grensoverschrijdend zijn. Onze digitale wereld is dat namelijk ook. Het vereist samenwerking tussen landen, regelgevers, technologie-ontwikkelaars en het publiek.
Regelgeving: hoe regel je dat?
Zal regulering zelf gereguleerd worden vanuit de vrije markt - zoals de Reclame Code Commissie of STIVA (Stichting Verantwoord Alcoholgebruik) voorbeelden van zijn? Of is het aan overheden om te bepalen onder welke voorwaarden je AI-gestuurde content mag gebruiken en welk soort materiaal je mag genereren? Welke digitale waakhonden staan aan de poorten van AI-platforms, en wanneer kunnen we verwachten dat ze aanslaan? Hoe zorgen we ervoor dat iedereen de richtlijnen respecteert in een wereld waar we multidimensionaal lijnrecht tegenover elkaar staan? Hoe vertrouwen landen als de VS en Rusland op dezelfde onderliggende infrastructuur? Hoe kunnen zowel de milieuactivist als de klimaatontkenner op de regelgeving vertrouwen?
Veel vragen, één eerlijk antwoord
Het is onmogelijk. Regulering wordt een ratatouille recept dat overal ter wereld anders smaakt. In een vrije samenleving zou je zelfregulering en zelfreiniging verwachten. In een autoritair geregeerd land zal de doctrine in de algoritmen sturend worden om de publieke opinie in toom te houden. In beide gevallen blijven de zorgen hoog, omdat onzekerheid heerst.
Zelf aan de slag met AI-gegenereerde content
Wees voorzichtig. Laten we dat illustreren met een voorbeeld. Stel, je verkoopt tuingereedschap en je hebt met AI-gegenereerde content onnoemelijk veel inspirerende content gegenereerd voor iedereen met groene vingers. Ondertussen zorgt die inbound content (content waar mensen zelf naar op zoek gaan, in plaats van informatie die hen wordt opgedrongen) voor 40% van je omzet. Je moet er niet aan denken dat Google op een dag - met terugwerkende kracht - al jouw content afwijst, en misschien zelfs bestraft.
Ons advies is, laat je niet ontmoedigen. Met zuivere intenties en oog voor de do's en don'ts moet je ervoor gaan. Alleen al omdat je concurrent het ook doet en jouw merk, product of dienst naar de krochten van het internet wordt geduwd door inactiviteit. Maar schakel wél de hulp in van een expert die jouw content en onderliggend digitaal ecosysteem strategisch op elkaar afstemt. Een partner die ontwikkelingen op de voet volgt en de risico's voor jou minimaliseert.
Je raadt het al: New Story helpt je graag. We hebben er zelfs een bullet-proof service voor opgezet. Maak kennis met de AI Content sprint.
P.S.
Minder dan de helft van deze blog is gegenereerd met Jasper.ai. Eerst hebben we voor onszelf het skelet van het verhaal uiteengezet, waarna we het met behulp van Jasper.ai alinea voor alinea hebben opgebouwd en bewerkt.
Meer weten?
Neem contact op met: