/

17 July 2023

Negatieve impact van AI-gegenereerde content op output en diversiteit onderzocht door wetenschappers

Wetenschappers van de universiteiten Rice en Stanford hebben ontdekt dat het voeden van door AI gegenereerde content aan AI-modellen leidt tot een afname in outputkwaliteit en diversiteit. Deze ontwikkeling, die zij als “Model Autophagy Disorder” (MAD) hebben bestempeld, beschrijven zij als een zichzelf verterende lus die het digitale brein van het model breekt.

Bij herhaalde training met synthetische content, begint het model de uitbijters en minder vertegenwoordigde informatie te verliezen, wat resulteert in minder gevarieerde en convergerende data. De studie toonde aan dat een AI-model dat getest werd slechts vijf trainingsrondes met synthetische inhoud doorstond, voordat er scheuren in de uitvoer verschenen.

Het is voor AI-bedrijven moeilijk om ervoor te zorgen dat hun trainingsdatasets vrij zijn van AI-gegenereerde inhoud vanwege de overvloed ervan op het internet. Dit kan mogelijk de kwaliteit en structuur van het open web beïnvloeden. AI-modellen worden onbewust getraind op steeds grotere hoeveelheden AI-gegenereerde data die van het internet zijn gehaald, inclusief populaire datasets zoals LAION-5B.

De aanpassing van modelgewichten zou kunnen helpen de negatieve effecten van AI die AI-gegenereerde inhoud consumeert, te verzachten. De resultaten roepen echter vragen op over de bruikbaarheid van AI-systemen zonder menselijke input. Machines kunnen mensen niet volledig vervangen, aangezien hun ‘breinen’ vatbaar zijn voor oververhitting.

De toekomstige implicaties kunnen inhouden dat mensen gedwongen worden content te produceren om AI-modellen draaiende te houden zonder in te storten. Het is een waarschuwing voor de risico’s van overmatige afhankelijkheid van technologie. Menselijke inbreng blijft essentieel om de kwaliteit van informatie te waarborgen en stelt ons in staat om een evenwicht te bewaren tussen technologische vooruitgang en betrouwbare, hoogwaardige content.

Het onderzoek van de universiteiten Rice en Stanford benadrukt het belang van menselijke betrokkenheid bij de ontwikkeling en het gebruik van AI. Het toont aan dat de technologie, hoewel veelbelovend, nog steeds beperkingen heeft en zorgvuldig beheer en regulering vereist om ervoor te zorgen dat het op een veilige, verantwoorde en effectieve manier wordt gebruikt.

Zoals de studie laat zien, is het van cruciaal belang dat we de mogelijke risico’s en gevolgen van AI begrijpen, evenals de noodzaak om onze afhankelijkheid ervan te matigen met voortdurende menselijke betrokkenheid en supervisie. Alleen dan kunnen we de volledige voordelen van deze technologie benutten, terwijl we tegelijkertijd de

Wetenschappers van de Rice en Stanford University hebben ontdekt dat het voeden van AI-modellen met door AI gegenereerde inhoud leidt tot een afname in outputkwaliteit en -diversiteit. Deze bevinding vormt een belangrijk keerpunt in ons begrip van kunstmatige intelligentie en de manier waarop we deze technologie ontwikkelen en gebruiken.

Ze hebben deze aandoening de naam ‘Model Autophagy Disorder’ (MAD) gegeven en het beschreven als een zelfverterende lus die het digitale brein van het model afbreekt. Dit houdt in dat wanneer AI-modellen herhaaldelijk getraind worden op synthetische inhoud, ze beginnen te verliezen op informatie die minder wordt vertegenwoordigd. Dit resulteert in minder gevarieerde en convergerende data.

Het onderzoek toonde aan dat een getest AI-model slechts vijf trainingsrondes met synthetische inhoud doormaakte voordat er scheuren in de uitvoer verschenen. Deze resultaten tonen aan dat zelfs de meest geavanceerde modellen nog steeds beperkt zijn in hun vermogen om effectief te leren van kunstmatige inhoud.

De prevalentie van door AI gegenereerde inhoud op het internet maakt het moeilijk voor AI-bedrijven om ervoor te zorgen dat hun trainingsdatasets hiervan vrij zijn. Dit kan mogelijk de kwaliteit en structuur van het open web beïnvloeden. AI-modellen worden onbewust getraind op toenemende hoeveelheden AI-gegenereerde data afkomstig van het internet, waaronder populaire datasets zoals LAION-5B.

Eén voorgestelde oplossing is het aanpassen van de gewichten van de modellen, wat zou kunnen helpen om de negatieve effecten van AI die AI-gegenereerde inhoud consumeert te verminderen. Dit zou echter slechts een tijdelijke oplossing kunnen zijn, gezien de snelheid waarmee deze technologie zich ontwikkelt.

De resultaten roepen ook vragen op over de bruikbaarheid van AI-systemen zonder menselijke input. Hoewel kunstmatige intelligentie op veel gebieden wonderen heeft verricht, lijkt het erop dat machines mensen niet volledig kunnen vervangen. Hun “breinen” zijn immers vatbaar voor “smelten” in de zin van het verliezen van cruciale en minder vertegenwoordigde informatie.

Dit brengt ons naar een mogelijke implicatie voor de toekomst. Mensen kunnen gedwongen worden om inhoudsboerderijen te vormen om AI-modellen draaiende te houden zonder in te storten. Dit is een zorgwekkend scenario waarbij mensen als het ware de voedingsbron worden voor de machines die we hebben gecreëerd.

De ontdekking van MAD schetst een nieuwe uitdaging in de voortdurende ontwikkeling en integratie van AI in onze samenleving. Het wijst op de noodzaak van continue inspanningen op het gebied van onderzoek en ontwikkeling om de manier waarop we kunstmatige intelligentie trainen en gebruiken te verbeteren, en om ervoor te zorgen dat deze technologie effectief en verantwoordelijk kan worden ingezet.