Wij gebruiken cookies voor marketingdoeleinden en profilering.
Houd AI goed in de gaten!
Terug
ChatGPT, de geavanceerde tekstgenerator, heeft laten zien welke mogelijkheden AI (kunstmatige intelligentie) biedt. Nu gaan steeds meer bedrijven experimenteren met AI om taken die voorheen door een mens gedaan moesten worden - van het invullen van een Excel-bestand tot het schrijven van een analyse - door een computer te laten doen. AI kan de inhoud van beroepen dan ook flink veranderen, van schrijver tot belastingadviseur en websitebouwer.
Zo gebruiken advies- en belastingkantoren AI om afwijkingen in contracten te vinden, of antwoord te geven over loonwetgeving. In dit laatste geval is AI gekoppeld aan een databank. Dit verbetert de kwaliteit van het werk en levert een kostenbesparing op van 50 procent.
Klantenservicebedrijven gebruiken AI om de kwaliteit van e-mails te verbeteren. De e-mail wordt nog wel door de medewerkers gecontroleerd. Ook bij het schrijven van teksten moet je blijven opletten: feitelijke berichten kunnen ermee door, maar bij interviews sluipen er vaak onwaarheden in de teksten.
Uiteindelijk zullen er toch minder mensen nodig zijn om hetzelfde werk te verzetten. In maart voorspelde zakenbank Goldman Sachs dat zo'n 20 procent van het werk geautomatiseerd kan worden door AI.
Dat één ding daarbij heel belangrijk is, is wel duidelijk: wie bepaalt uiteindelijk de voorwaarden: de mens of de computer?
AI neemt het over?
Dat de mens de voorwaarden heel strikt moet bepalen bleek vorige week. Een Amerikaanse luchtmachtkolonel vertelde dat een AI-drone in een simulatie een originele oplossing had om de eindoverwinning te halen: hij schakelde zijn aarzelende opdrachtgever, de mens dus, uit. Het systeem begon door te krijgen dat de mens soms geen toestemming gaf, en dus in de weg stond van het voltooien van de opdracht. Zelfs toen de computer strafpunten kreeg voor het doden van eigen mensen, wist het systeem nog een oplossing te bedenken: het verwoestte de communicatietoren die gebruikt werd om te vertellen dat hij het doelwit niet mocht raken.
Omdat het om een computersimulatie ging, zijn er niet daadwerkelijk slachtoffers gevallen. Maar dit laat wel het gevaar van AI zien: dat de mens de doelen heel duidelijk moet beschrijven en daarbij de grenzen heel helder moet aangeven. Het standaardvoorbeeld is altijd dat je AI vraagt iets aan klimaatverandering te doen en dat de mens als soort dan wordt uitgeroeid. AI een taak geven zonder die heel goed te definiëren, kan dus funest zijn.
En daarom is het niet alleen heel erg nodig om beperkingen in te stellen, maar ook om heel veel simulaties te doen voordat je AI zomaar zijn gang laat gaan...