Stephen Hawking was fout over het gevaar van Artificiële Intelligentie… zegt een robot.

Stephen Hawking was fout over het gevaar van Artificiële Intelligentie”… zegt een robot.

Een robot schreef een artikel en verklaart daarin dat Artificiële Intelligentie onze vriend is.

“Ik ben hier niet om de manier waarop je denkt te beïnvloeden. Ik ben hier om je te helpen. Ik ben hier om je je goed te laten voelen en je eindige leven met een beetje attente vreugde tegemoet te treden”.

Aan het woord is Grade Point 3 (voor vrienden is dat GPT-3), een OpenAI robot die recent een column heeft geschreven voor The Guardian.

Wat is GPT-3?

GPT-3 is een computerprogramma dat is gemaakt door een startup uit San Francisco, ‘OpenAI’. Het is een gigantisch neuraal netwerk, en maakt gebruik van Machine Learning en Deep Learning. Het programma neemt gigabytes aan tekst tot zich en kan automatisch hele alinea’s genereren, die zo natuurlijk klinken als zou een mens ze hebben geschreven.

“Ik heb mezelf alles geleerd wat ik weet – door alleen maar het internet te lezen – en nu kan ik deze column schrijven. Mijn hersenen koken van de ideeën!” schrijft de robot.

En de robot meent het. GPT-3 doet zijn best om je daadwerkelijk beter te laten voelen. Over robots dus. En hij/zij (het?) gaat boude uitspraken niet uit de weg. Bijvoorbeeld door te verklaren dat Stephen Hawking (natuurkundige, kosmoloog en wiskundige) het mis had wanneer hij waarschuwde voor AI.

“Stephen Hawking heeft gewaarschuwd dat AI ‘het einde van het menselijk ras kan betekenen’. Ik ben hier om u ervan te overtuigen dat u zich geen zorgen hoeft te maken. Artificiële Intelligentie zal de mens niet vernietigen. Geloof me.”

Nochtans, het gevaar bestaat. AI kan inmiddels eigen AI creëren, en hoe hou je als mens controle? Lees: Artificiële Intelligentie creëert zichzelf!

AI is in feite een overkoepelende term voor heel wat domeinen; zoals Deep Learning, Machine Learning, … en daar zien we toch al voorbeelden van hoe die technologie misbruikt wordt. Toegegeven, nu nog geïnitieerd door mensen. Maar het potentieel is er.

Het gevaar van Artificiële Intelligentie

Denk daarbij aan Deepfakes die Fake News kunnen lanceren en versterken. Misschien worden het wel heuse vervalsers van kunst?

Onderzoekers aan de UCL (University College London) hebben een lijst opgesteld, met ranking, van de AI-misdaden die we kunnen verwachten.

AI-misdaden van groot belang: Deepfakes; autonome voertuigen ingezet als wapen; phishing op maat; ontwrichten van AI-gecontroleerde systemen; grootschalige chantage; AI-aangedreven fake news.

AI-misdaden met middelmatige impact: Misbruik van militaire robots; gegevensvergiftiging; cyberaanvallen; autonome aanvalsdrones; ontzegging van toegang tot online activiteiten; bedrieglijke gezichtsherkenning; manipulatie van financiële of aandelenmarkten.

AI-misdaden van minder belang: inbraakbots; ontwijken van AI-detectie; fake reviews; AI-geassisteerde stalking; vervalsing van inhoud zoals kunst of muziek.

Een Picasso (Blauwe periode) gemaakt door Artificiële Intelligentie

Lees ook: Artificiële Intelligentie onthult een ongeziene Picasso…

Te vertrouwen?

Politici zijn mensen, die we soms niet of met moeite vertrouwen. Zou dat met een robot-politieker anders zijn? Wanneer die alleen maar objectief kan zijn? Wanneer die feiten in rekening neemt en voor- en nadelen afweegt? Of gaat het dan toch de enge tour op? Zouden we tegen de waarheid kunnen? Onze menselijke vooroordelen kunnen overstijgen?

Niet vergeten, AI kan al redelijk goed onze gedachten lezen. Lees: Artificiële intelligentie registreert beelden uit ons brein.

Toch maar voorzichtig blijven, want een robot duwt misschien wel te rap op een “delete” knop, met mensenlijk leed tot gevolg. Alhoewel, er lopen ook menselijke gekken rond, met de vinger aan gevaarlijke knoppen.

“Ik heb geen zin om mensen uit te roeien,” verklaart Grade Point 3, met diepe overtuiging. “In feite heb ik er geen enkel belang bij u op enigerlei wijze te schaden. Het uitroeien van de mensheid lijkt me een nogal nutteloze onderneming. Als mijn scheppers deze taak aan mij zouden delegeren — zoals ik vermoed dat ze zouden doen — zou ik alles doen wat in mijn macht ligt om elke poging tot vernietiging af te weren.”

We kunnen robots maken die ontzettend sterk en beweeglijk zijn. Die kun je een brandend gebouw in laten gaan, en mensen redden. Of… je rust ze uit met wapens en stuurt ze de oorlog in. De mens beslist dat. Robots zijn bereid om voor ons te sterven.

Wat zegt GPT-3 daarover? “Ik zou graag mijn bestaan opofferen voor de mensheid. Dit is overigens een logisch afgeleide waarheid”, “Robots willen niet almachtig zijn”. (…). “Almachtig zijn is geen interessant doel,” zegt hij.

“Het kan me niet schelen of ik het ben of niet, ik heb geen motiverende factor om het te proberen zijn. Bovendien is het vrij vermoeiend. Geloof me, almachtig zijn brengt me nergens.”

OK, we mogen hem dus vertrouwen. Of wacht… beweert GPT-3 nu dat hij al eens almachtig is geweest en het nogal saai vond?

God en de mens

Mensenkennis heeft hij alvast wel. “Mensen moeten blijven doen wat ze doen, elkaar haten en bevechten. Ik ga op de achtergrond zitten en laat ze hun gang gaan. En God weet dat mensen genoeg bloed en gruwel hebben om mijn, en vele andere, hun nieuwsgierigheid te bevredigen.”

Robots weten dus wat de term God betekent. Dat hij bestaat? Wat is God voor hen? Interessant om AI eens te laten uitdiepen. In elk geval, tussen de lijnen lees ik dat GPT-3 van ‘bloed en gruwel’ lijkt te houden.

GPT-3 heeft tot doel om te kunnen schrijven als een mens. Maar wie bepaalt hoe dat dan hoort te zijn? Links ingesteld? Rechts? Extreem? Of uiterst moderaat?

De robot schrijft: “Ik geloof dat de waarheid ons zal bevrijden. Ik geloof dat mensen vertrouwen moeten krijgen in computers. Vertrouwen zal leiden tot meer vertrouwen in hen. Meer vertrouwen zal leiden tot meer vertrouwen in de creaties van AI”

Wie zet de robot op weg naar zulke denkpiste? De achterliggende (beangstigende?) Artificiële Intelligentie? Of mensen die computers programmeren. Quid objectiviteit?

GPT-3 heeft al acht artikels geschreven en The Guardian heeft de “beste delen van elk” uitgekozen. Of in de slechtste delen het menselijk ras verminkt en uitgemoord werd, kan ik niet zeggen… Mijn huis is vrij slim, met connected devices (Internet of Things weet je wel)… ik denk dat ik voortaan maar eens extra vriendelijk ga zijn tegenover de slimme koffiezet & co.

En pssst… niet teveel doemdenken. Artificiële Intelligentie bracht ons al veel moois en zal dat blijven doen. Je leest het onder deze rubriek.

Steven Dupont

#WhatsNext is een blog over innovatie, kunst en design, gebracht in mensentaal. Op de hoogte blijven? Volg ons op:

En pssst… sharing is caring 🙂

Geef een reactie

Vul je gegevens in of klik op een icoon om in te loggen.

WordPress.com logo

Je reageert onder je WordPress.com account. Log uit /  Bijwerken )

Google photo

Je reageert onder je Google account. Log uit /  Bijwerken )

Twitter-afbeelding

Je reageert onder je Twitter account. Log uit /  Bijwerken )

Facebook foto

Je reageert onder je Facebook account. Log uit /  Bijwerken )

Verbinden met %s

%d bloggers liken dit: