Wat is superintelligentie?

Written by: Han Rusman Han Rusman
Blog

Er is veel hype rondom het concept van singulariteit of superintelligentie. Elke paar jaar duikt het concept van singulariteit op na (waargenomen) doorbraken in het AI-veld. Voor Elon Musk is kunstmatige intelligentie het 'oproepen van de duivel'. Musk adviseerde onlangs iedereen om de “Do You Trust This Computer" - documentaire te bekijken. Ook de dystopische Netflix-serie Black Mirror is erg populair. Ook Stephen Hawking waarschuwde dat AI het slechtste zou kunnen zijn wat er ooit in de geschiedenis is gebeurd. Waar zijn ze bang voor en wat heeft het voor invloed op jou?

Wat is singulariteit precies?

Singulariteit is het proces van intelligentie dat zichzelf verbetert. Britse wiskundige I.J. Good was de eerste die singulariteit in 1965 beschreef. Wat hij zegt is:

"Omdat het ontwerpen van machines is iets waar veel intellectuele denkkracht bij komt kijken zou een ultra intelligente machine nog betere machines kunnen ontwerpen; dit zou dan ongetwijfeld een 'intelligentie-explosie' teweeg brengen en de intelligentie van de mens zou ver achterblijven. Dus de eerste ultra intelligente machine is de laatste uitvinding die de mens ooit maakt, op voorwaarde dat de machine volgzaam genoeg is om ons te vertellen hoe we hem onder controle kunnen houden. "

Met andere woorden, op dit moment kunnen alleen mensen kunstmatige intelligentie bouwen en 'simuleren'. Dit betekent dat op dit moment intelligentie op menselijk niveau de heilige graal van intelligentie is. Maar als we een AI kunnen maken die zo intelligent en veelzijdig is als het menselijk brein, dan zou deze in staat moeten kunnen zijn zichzelf te verbeteren. Met een vrijwel onbeperkte computerkracht zal deze intelligentie zichzelf enorm snel gaan verbeteren. Dat is de reden waarom onderzoekers zich zorgen maken over dit soort superintelligentie.

Als iets echt slimmer is dan wijzelf hoe zorgen we er dan voor dat dit ook achter onze waarden en doelen blijft staan? Kan dit bewustzijn hebben? En hoe voorkomen we dat we per ongeluk onszelf vermoorden als de superintelligentie onze doelen verkeerd interpreteert (of te letterlijk neemt)?

Is superintelligentie mogelijk?

Het concept van superintelligentie, intelligentie die zichzelf kan verbeteren, is gebaseerd op een aantal beloften/ aannames die nog ter discussie staan;

  1. Computers zijn al erg snel maar om superintelligentie te kunnen krijgen zal het aantal benodigde berekeningen waarschijnlijk boven onze huidige mogelijkheden uitstijgen. We zitten nog niet aan de fysieke grenzen van de Wet van Moore (de theorie dat chips ongeveer elke 18 maanden in capaciteit verdubbelen), maar er lijkt wel vertraging op te treden, althans op CPU-niveau. AI-onderzoekers zijn begonnen met optimalisatie door CPU’s los te laten en te kijken naar de GPU en chips die speciaal voor AI zijn ontworpen, zoals TPU.

  2. Letterlijke singulariteit betekent dat de verdubbelingstijd (of afname van de hoeveelheid tijd om tweemaal zo slim te worden) kleiner en kleiner zou worden totdat deze nul bereikt. Deze mogelijke ontwikkeling heeft geen precedent in iets dat we ooit eerder hebben gezien. En het veronderstelt een directe relatie tussen intelligentie en het vermogen om een puzzel op te lossen. We weten echter uit de geschiedenis dat de complexiteit van problemen meestal niet lineair is. Veel problemen worden zelfs complexer als je het 'einde' bereikt. De sprong van een 90% naar een 99% nauwkeurig model is meestal groter dan van 0 tot 10%.

  3. Wanneer zal meer intelligentie minder op gaan leveren? Zal een IQ van 15000 honderd keer beter presteren dan een IQ van 150? Zelfs als kunstmatige intelligentie een niveau bereikt waarop intelligentie vrijwel onbegrensd is, zullen problemen niet noodzakelijkerwijs sneller opgelost worden. Omdat de menselijke intelligentie wordt beperkt door de omgeving, zijn zelfs de beste AI-modellen (zoals AlphaGo, bijvoorbeeld) nog steeds sterk afhankelijk van menselijke input voor sturing.

  4. Zal AI alle gegevens hebben die het nodig heeft? Weersvoorspellingen zouden waarschijnlijk 100% accuraat zijn als hun modellen zouden worden gevoed met de juiste gegevens. Maar deze taak is vrij lineair. Wanneer intelligentie breder moet zijn, zoals in het geval van het simuleren van menselijke intelligentie, moet de gegevensinvoer heel erg secuur gebeuren.

  5. De modellen moeten ook worden gestimuleerd om beter te worden. Mensen hebben de drang om te leren, maar zouden computermodellen hetzelfde doen en in welk tempo? Zodra de mens stopt met het geven van aanwijzingen om beter te worden, zal de computer dit dan automatisch blijven doen?

  6. Kan een computer beter worden in creativiteit en niet-lineaire vooruitgang verkennen? Kan een AI proberen het rendement van een paard te maximaliseren of zou deze dan een auto gaan uitvinden?

  7. Laten wij mensen een AI vrij de grenzen van intelligentie ontdekken zonder dat wij daar toezicht op houden? En als we toezicht gaan houden, zouden we het dan op zo’n een manier kunnen doen dat de AI niet wordt door ons wordt beperkt?

  8. Is de menselijke intelligentie uiteindelijk volledig fysiek? Of met andere woorden, is er meer tussen hemel en aarde? Ik denk dat dit vrij onbetwist is in de westerse wereld, maar sommige onderzoekers denken daar anders over.

(Wanneer) gaat het gebeuren?

De overgrote meerderheid van de onderzoekers denkt dat de problemen zoals hierboven beschreven opgelost kunnen worden maar ze zijn het niet eens in welke mate. Schattingen voor wanneer we de superintelligentie zouden bereiken, lopen erg uiteen. Google-onderzoeker en beroemde futurist Ray Kurzweil voorspelt dat het al in 2029 zal zijn. Maar er zijn ook onderzoekers die beweren dat het nog erg lang zal duren, of nooit zal gebeuren. Op een conferentie in Puerto Rico werd een onderzoek gedaan onder een aantal topwetenschappers. Hun mediane voorspelling was 2055. Een vergelijkbaar onderzoek door Nick Bostrom had een andere uitkomst. Het wordt nog ingewikkelder wanneer je tijdframes mixt met de toename van menselijke intelligentie. Op dit moment zijn we bezig om computers te leren om het menselijk denken te imiteren. Als alternatief kunnen we computers maken die het menselijk brein simuleren, of menselijke intelligentie vergroten met kunstmatige intelligentie.

Wat het tijdspad ook zal zijn, veel onderzoekers, waaronder Bostrom, Tegmark en Russell, stellen dat de problemen die we proberen op te lossen zo complex zijn dat het beter is dat we nu al beginnen met het implementeren van veiligheid in AI. Naar mijn mening hebben de recente beveiligingsproblemen met CPU's Meltdown & Specter aangetoond dat, hoewel sommige systemen rigoureus worden getest, we de computerbeveiliging nog niet onder de knie hebben. We lijken nog mijlenver verwijderd van het ontwerpen van systemen die veilig zijn voor miljoenen iteraties van zelfverbetering. Hetzelfde geldt voor waarde en doelgerichtheid met superintelligentie. Hoe krijg je jouw doelen en waarden op een lijn met intelligentie die zoveel slimmer is dan jijzelf bent? En over welke waardes hebben we het eigenlijk? Westerse waarden, de waardes van Trump, van IS? Gelukkig pakken de meeste van de grootste bedrijven langzaam maar zeker hun verantwoordelijkheid en beginnen ze initiatieven om deze uitdagingen in kaart te brengen.

Persoonlijk denk ik dat superintelligentie een zeer reële mogelijkheid is maar dat er meer direct gevaar schuilt in de mogelijkheid dat het karakter van AI de menselijke vooroordelen en andere 'fouten' in de samenleving zal gaan uitvergroten. Kwaadaardig gebruik van AI zal op de een of andere manier waarschijnlijk de samenleving gaan beïnvloeden, al denk ik dat het werkelijke risico van AI ligt in de impact ervan op hoe de samenleving als geheel functioneert. Anders gezegd, het is waarschijnlijker dat je werkloos wordt omdat je baan geautomatiseerd is, of dat je te maken krijgt met discriminatie van slecht geïmplementeerde algoritmen dan dat je wordt gedood door een drone.

Meer informatie over AI en superintelligente

Wil je meer weten over dit onderwerp? Ik heb twee langere posts geschreven op Medium over AI Safety Research  en de symbiotische relatie tussen de mens en AI. Ik raad ook de onderstaande toespraak van Max Tegmark op YouTube aan. En de boeken Life 3.0 van Max Tegmark en Superintelligentie door Nick Bostrom.