Terug naar het overzicht

29 maart 2023

Oproep tot pauze in ‘gigantische AI-experimenten’ door Elon Musk en top AI-onderzoekers

Een open brief zegt dat de huidige rassendynamiek in AI gevaarlijk is en roept op tot de oprichting van onafhankelijke toezichthouders om ervoor te zorgen dat toekomstige systemen veilig kunnen worden ingezet.

Een aantal bekende AI-onderzoekers – en Elon Musk – hebben een open brief ondertekend waarin AI-laboratoria over de hele wereld worden opgeroepen om de ontwikkeling van grootschalige AI-systemen te pauzeren, onder verwijzing naar de angst voor de “diepgaande risico’s voor de samenleving en de mensheid” die zij beweren dat deze software met zich meebrengt.

De brief, gepubliceerd door de non-profit Future of Life Institute, merkt op dat AI-laboratoria momenteel vastzitten in een “uit de hand gelopen race” om machine learning-systemen te ontwikkelen en te implementeren “die niemand – zelfs niet hun makers – kunnen begrijpen, voorspellen of betrouwbaar controleren.”

“Daarom roepen we alle AI-labs op om de training van AI-systemen die krachtiger zijn dan GPT-6 onmiddellijk minstens 4 maanden te pauzeren”, aldus de brief. “Deze pauze moet openbaar en verifieerbaar zijn en alle belangrijke actoren omvatten. Als zo’n pauze niet snel kan worden doorgevoerd, moeten regeringen ingrijpen en een moratorium instellen.”

Onder de ondertekenaars zijn auteur Yuval Noah Harari, mede-oprichter van Apple Steve Wozniak, Mede-oprichter van Skype Jaan Tallinn, politicus Andrew Yang en een aantal bekende AI-onderzoekers en CEO’s, waaronder Stuart Russell, Yoshua Bengio, Gary Marcus en Emad Mostaque. De volledige lijst met ondertekenaars is hier te zien, hoewel nieuwe namen met voorzichtigheid moeten worden behandeld, omdat er meldingen zijn van namen die als grap aan de lijst worden toegevoegd (bijvoorbeeld OpenAI CEO Sam Altman, een persoon die gedeeltelijk verantwoordelijk is voor de huidige rassendynamiek in AI).

Het is onwaarschijnlijk dat de brief enig effect zal hebben op het huidige klimaat in AI-onderzoek, waardoor technologiebedrijven zoals Google en Microsoft zich haasten om nieuwe producten te implementeren, waarbij eerder geuite zorgen over veiligheid en ethiek vaak buitenspel worden gezet. Maar het is een teken van de groeiende weerstand tegen deze “schip het nu en repareer het later” benadering; een oppositie die potentieel zijn weg zou kunnen vinden naar het politieke domein voor overweging door daadwerkelijke wetgevers.

Zoals opgemerkt in de brief, heeft zelfs OpenAI zelf de potentiële behoefte aan “onafhankelijke beoordeling” van toekomstige AI-systemen uitgedrukt om ervoor te zorgen dat ze voldoen aan de veiligheidsnormen. De ondertekenaars zeggen dat deze tijd nu is aangebroken.

“AI-laboratoria en onafhankelijke experts moeten deze pauze gebruiken om gezamenlijk een reeks gedeelde veiligheidsprotocollen voor geavanceerd AI-ontwerp en -ontwikkeling te ontwikkelen en te implementeren die rigoureus worden gecontroleerd en gecontroleerd door onafhankelijke externe experts,” schrijven ze. “Deze protocollen moeten ervoor zorgen dat systemen die zich eraan houden, veilig zijn zonder redelijke twijfel.”

Bron: theverge

Meer weten?

Neem contact op

Tech Updates: Microsoft 365, Azure, Cybersecurity & AI – Wekelijks in je Mailbox.