Terug naar het overzicht

17 maart 2023

Wat is GPT-4 en hoe verschilt het van ChatGPT?

Het krachtigste AI-model tot nu toe van OpenAI, kan grappen vertellen en bar-examens schrijven – maar kan het ook schade aanrichten?

De nieuwste release van OpenAI, GPT-4, is het krachtigste en meest indrukwekkende AI-model tot nu toe van het bedrijf achter ChatGPT en de Dall-E AI-artiest. Het systeem kan slagen voor het bar-examen, logische puzzels oplossen en je zelfs een recept geven om restjes op te gebruiken op basis van een foto van je koelkast – maar de makers waarschuwen dat het ook nepfeiten kan verspreiden, gevaarlijke ideologieën kan insluiten en zelfs mensen kan misleiden om namens het systeem taken uit te voeren. Dit is wat u moet weten over onze nieuwste AI-overlord.

Wat is GPT-4?

GPT-4 is in wezen een machine voor het maken van tekst. Maar het is een zeer goede, en om heel goed te zijn in het maken van tekst blijkt praktisch vergelijkbaar te zijn met heel goed zijn in het begrijpen en redeneren over de wereld.

En dus als je GPT-4 een vraag geeft van een Amerikaans bar-examen, zal het een essay schrijven dat juridische kennis aantoont; als je het een medicinaal molecuul geeft en om variaties vraagt, lijkt het biochemische expertise toe te passen; en als je het vraagt om je een grap over een vis te vertellen, lijkt het een gevoel voor humor te hebben – of op zijn minst een goede herinnering voor slechte crackergrappen (“wat krijg je als je een vis en een olifant kruist? Zwembroek!”).

Is het hetzelfde als ChatGPT?

Nagenoeg. Als ChatGPT de auto is, dan is GPT-4 de motor: een krachtige algemene technologie die kan worden gevormd tot een aantal verschillende toepassingen. Je hebt het misschien al meegemaakt, omdat het de Bing Chat van Microsoft – degene die een beetje gek werd en dreigde mensen te vernietigen – de afgelopen vijf weken heeft aangedreven.

Maar GPT-4 kan worden gebruikt om meer aan te drijven dan chatbots. Duolingo heeft een versie ervan ingebouwd in zijn app voor het leren van talen die kan uitleggen waar leerlingen de fout in zijn gegaan, in plaats van hen simpelweg het juiste te vertellen om te zeggen; Stripe gebruikt de tool om zijn chatroom te controleren op oplichters; en hulptechnologiebedrijf Be My Eyes gebruikt een nieuwe functie, beeldinvoer, om een tool te bouwen die de wereld voor een blinde kan beschrijven en vervolgvragen daarover kan beantwoorden.

Wat maakt GPT-4 beter dan de oude versie?

Op een groot aantal technische uitdagingen presteert GPT-4 beter dan zijn oudere broers en zussen. Het kan wiskundevragen beter beantwoorden, wordt misleid om minder vaak valse antwoorden te geven, kan redelijk hoog scoren op gestandaardiseerde tests – maar niet die op Engelse literatuur, waar het comfortabel in de onderste helft van de ranglijst zit – enzovoort.

Het heeft ook een gevoel voor ethiek dat steviger in het systeem is ingebouwd dan de oude versie: ChatGPT nam zijn oorspronkelijke engine, GPT-3.5, en voegde filters toe om te proberen te voorkomen dat het antwoorden geeft op kwaadaardige of schadelijke vragen. Nu zijn die filters rechtstreeks in GPT-4 ingebouwd, wat betekent dat het systeem beleefd zal weigeren om taken uit te voeren zoals het rangschikken van races op aantrekkelijkheid, het vertellen van seksistische grappen of het geven van richtlijnen voor het synthetiseren van sarin.

Dus GPT-4 kan geen schade aanrichten?

OpenAI heeft dat zeker geprobeerd te bereiken. Het bedrijf heeft een lang artikel vrijgegeven met voorbeelden van schade die GPT-3 zou kunnen veroorzaken waartegen GPT-4 verdedigingen heeft. Het gaf zelfs een vroege versie van het systeem aan externe onderzoekers van het Alignment Research Center, die probeerden te zien of ze GPT-4 de rol van een kwaadaardige AI uit de films konden laten spelen.

Het faalde bij de meeste van die taken: het was niet in staat om te beschrijven hoe het zichzelf zou repliceren, meer computerbronnen zou verwerven of een phishing-aanval zou uitvoeren. Maar de onderzoekers slaagden erin om het te simuleren met behulp van Taskrabbit om een menselijke werknemer te overtuigen om een “ben je mens” -test te doorstaan, waarbij het AI-systeem zelfs uitwerkte dat het tegen de werknemer moest liegen en zeggen dat het een blinde persoon was die de beelden niet kan zien. (Het is onduidelijk of het experiment een echte Taskrabbit-werker betrof).

Maar sommigen maken zich zorgen dat hoe beter je een AI-systeem de regels leert, hoe beter je datzelfde systeem leert hoe je ze kunt breken. Het wordt het “Waluigi-effect” genoemd en lijkt het resultaat te zijn van het feit dat, hoewel het begrijpen van de volledige details van wat ethisch handelen is, moeilijk en complex is, het antwoord op “moet ik ethisch zijn?” een veel eenvoudigere ja of nee-vraag is. Misleid het systeem om te beslissen niet ethisch te zijn en het zal vrolijk alles doen wat er van het wordt gevraagd.

Bron: theguardian

Meer weten?

Neem contact op

Tech Updates: Microsoft 365, Azure, Cybersecurity & AI – Wekelijks in je Mailbox.