Artificiële Intelligentie creëert zichzelf!

Google Brain is volop bezig met artificiële intelligentie (AI) te ontwikkelen. Daar heb je heel wat knappe koppen (m/v/x) met veel tijd voor nodig. Hoe los je dat op? Met artificiële intelligentie!  Je leest het goed: Google maakt AI met AI.

Google Brain werkt aan AutoML. ML staat voor Machine Learning en Auto geeft aan dat het zelf iets maakt. Het leert machines te leren en dan zelf te maken.
De AI kan op die manier een ‘eigen kind‘ creëren, een nakomeling: elke keer een betere versie dan de vorige en  beter dan de door mensen gemaakte versies.

De onderzoekers automatiseerden het programmeerwerk rond Machine Learning met wat ze noemen ‘reinforcement learning’. Het AI kind‘ wordt gemaakt om een specifieke taak uit te voeren. De naam die het kreeg is NASNet en de taak “objecten herkennen” (mensen, signalisatie, auto’s, handtassen, dieren, verkeerslichten, …). Het doet dit in realtime en bij bewegende beelden.

Het leert, het bedenkt, het past aan, het maakt.

AutoML evalueert elke keer opnieuw de prestaties van NASNet en gebruikt die data om een betere versie te maken. De machine leert (Machine Learning).
Het kan dit duizenden keren na elkaar doen; iets wat een menselijke programmeur niet zou lukken of veel te lang zou duren.

NASNet werd op de proef gesteld door testen met ImageNet (een database van visuals, gebruikt als standaard bij zulke testen) en scoorde opmerkelijk beter dan elke andere programmatie. NASNet zou beelden van ImageNet met 82,7 procent juistheid  hebben beschreven, en efficiënter.

Op termijn kunnen ze komen tot een programma, toegankelijk voor niet-programmeurs, waarbij elke leek zelf iets kan creëren met behulp van AI.

Geautomatiseerde processen en computerprogramma’s hebben al menig job vervangen. Met deze evolutie zouden de programmeurs zichzelf op termijn wel eens overbodig gemaakt kunnen hebben.

Daar schuilt ook een groot gevaar. Wat als de AI iets maakt en blijft verbeteren, tot op het niveau dat het onze kennis overstijgt? Misschien wel in die mate dat we het niet eens meer door hebben, het niet kunnen interpreteren en de AI zijn eigen weg opgaat?

Om te vermijden dat we op een dag ontwaken in een terminator-gedomineerde maatschappij, is er aangepaste wetgeving nodig.
Bedrijven zoals Apple, Amazon, Facebook en anderen, zijn lid van het “Partnership on AI to Benefit People and Society“. Een organisatie, gericht op het ‘verantwoordelijk omgaan met de creatie van AI’.  Maar hoe zijn mensen? Ze komen vaak niet overeen. Elon Musk (Tesla, Space-X, …) waarschuwt al enige tijd voor de gevaren rond AI. Mark Zuckerberg en Musk liggen hierover – publiekelijk –  in de clinch.
Zuckerberg kijkt naar de vele voordelen. Musk wijst op het potentiële gevaar.

In de zomer van vorig jaar zei Musk dat een mens volgens hem maar beter een cyborg wordt, dus een hybride van mens met machine. En dit om te vermijden dat we huiskatten van onze AI worden. In die periode richtte hij Neuralink op, een bedrijf dat zich inzet om de werking van de hersenen te verbeteren door ze te connecteren met artificiële intelligentie.

In elk geval is het duidelijk dat ethische standaarden nodig zijn. Zo zijn er al wetgevende initiatieven om autonome wapens te verbieden.

BostonDynamics

Beeld u een zelfdenkende robotsoldaat in, die objecten (de vijand) herkent, en de opdracht uitvoert (vernietigen). Koude rillingen?

Natuurlijk zijn er ook tal van opportuniteiten. AI-robotica zou slechtzienden hun zicht kunnen herstellen. Of robotten die bijv. met patiënten omgaan kunnen maar beter het verschil zien tussen medicatie of voeding, of tussen een stoel en een rolstoel. Ook bij zelfrijdende auto’s kan het dienen, want hoe sneller uw wagen een object kan herkennen, des te sneller het op een aangepaste manier kan reageren (noodremmen voor een overstekend kind, doorrijden over die plastic zak die op de weg ligt).
Koppel daar ook nog LiFi-mogelijkheden aan toe, en je hebt wagens die kunnen zien, begrijpen en doorgeven  (lees hier meer over LiFi).

Conclusie: zolang de mens meester blijft van de AI en we onze ethische standaarden niet verliezen, kan het een ongeziene positieve invloed hebben op zowat alles en dus (flauwe-grap-alert) laten we het artificiële kind nog niet met het badwater weggooien.

Steven Dupont

#WhatsNext is een Technologie- en Innovatieblog in mensentaal. Op de hoogte blijven? Volg ons op:

2 reacties

Geef een reactie

Vul je gegevens in of klik op een icoon om in te loggen.

WordPress.com logo

Je reageert onder je WordPress.com account. Log uit /  Bijwerken )

Twitter-afbeelding

Je reageert onder je Twitter account. Log uit /  Bijwerken )

Facebook foto

Je reageert onder je Facebook account. Log uit /  Bijwerken )

Verbinden met %s

%d bloggers liken dit: