Technologische singulariteit

Uit Wikipedia, de vrije encyclopedie
Ga naar: navigatie, zoeken

Technologische singulariteit is een transhumanistisch begrip met verschillende betekenissen. Veel transhumanisten gaan ervan uit dat de Wet van Moore (die een verdubbeling in processorcapaciteit voorspelt binnen een gegeven tijd) ook geldt voor het tempo waarin wetenschap en techniek zich ontwikkelen. Als dit waar is dan volgt de opgaande lijn in technische vooruitgang een exponentiële trend die in de toekomst moet leiden tot een singulariteit; specifieker een zogenaamde technologische singulariteit. Voor het eerst werd dit concept uitvoerig beschreven door de Amerikaanse wiskundige en sf-schrijver Vernor Vinge in zijn essay "Singularity"[1].

Inleiding[bewerken]

Onder de 'technologische singulariteit' wordt doorgaans verstaan:

  • Een tijd in de toekomst waar de technologische vooruitgang zo snel gaat dat mensen met hun tegenwoordige intelligentie de resulterende maatschappij niet meer kunnen begrijpen.
  • Het tijdstip waarop alle exponentiële trends die sinds het ontstaan van het leven zijn begonnen allemaal samen komen en 'door het plafond gaan'.
  • Het tijdstip waarop de eerste kunstmatige intelligenties of posthumans (verbeterde mensen met een opgevoerde intelligentie) hun verdere ontwikkeling in eigen hand nemen en zich zelf zo snel gaan 'verbeteren' dat de wereld kort daarop eveneens onbegrijpelijk wordt voor hedendaagse mensen.

In de futurologie is een technologische singulariteit (verder gewoon 'de singulariteit') een toekomstig breekpunt wanneer de technologische vooruitgang zo snel gaat dat mensen met hun tegenwoordige intelligentie de resulterende maatschappij niet meer kunnen begrijpen. Die verandering zou in gang worden gezet door de eerste kunstmatige intelligenties of posthumans die zichzelf in hoog tempo blijven verbeteren (steeds intelligentere artificiële intelligentie). Deze singulariteit is genoemd naar analogie met het astronomisch punt in de ruimte-tijd waar de natuurwetten hun geldigheid verliezen (zoals volgens de huidige meest aanvaarde theorie betreffende de oorsprong van het universum: de big bang of het centrum van een zwart gat).

Dergelijke veranderingen werden in de jaren zestig van de 20e eeuw behandeld door I.J. Good[2], maar de term singulariteit als beschrijving van technische vooruitgang werd reeds in de jaren 50 door John von Neumann gebruikt. De Singulariteit werd voor het eerst uitvoerig beschreven door de Amerikaanse wiskundige en sf-schrijver Vernor Vinge in 1993 in zijn essay "Singularity". Men discussieert er nog steeds over of deze singulariteit werkelijk gaat optreden en wanneer (midden 21ste eeuw?). Veel voorspelde momenten waarop er intelligente computers zouden bestaan zijn al ongemerkt gepasseerd.

Sommige auteurs, zoals Raymond Kurzweil, hebben theorieën opgesteld waarin de wet van Moore ruimer wordt geïnterpreteerd. Moore sprak alleen over de evolutie van transistors vanaf de jaren zestig, Kurzweil begint zijn dubbel exponentiële curve reeds begin 20e eeuw bij de ponskaartmachines[3]. Hij suggereert een exponentieel patroon in de vooruitgang van technologie in de loop van de menselijke geschiedenis en zelfs van voor het begin van het leven op aarde. De hele evolutie vanaf de oerknal tot nu kan volgens hem gezien worden als een exponentiële groei van intelligentie, voortgezet in kunstmatige intelligentie. Volgens Kurzweil culmineert dit patroon in ongebreidelde technologische vooruitgang gedurende de 21ste eeuw en leidt het ten slotte tot de singulariteit (de technologische vooruitgang schiet dan heel snel in de tijd naar oneindig).

Voorwaarden voor een technologische singulariteit[bewerken]

Bij dit alles wordt wel als essentiële voorwaarde genomen dat:

  • het voor de mensheid op een gegeven tijdstip mogelijk moet zijn om een aan de menselijke intelligentie op zijn minst gelijkwaardige kunstmatige intelligentie te creëren, of
  • het moet mogelijk zijn een normaal menselijk brein zodanig te upgraden dat de resulterende geest een tegenwoordig bestaande menselijke ziel in intelligentie overtreft.

Hierover echter zijn de meningen onder onderzoekers vooralsnog verdeeld[4].

Vorming van het begrip singulariteit[bewerken]

Hoewel men dikwijls denkt dat het begrip pas in de laatste twee decennia van de 20e eeuw werd bedacht, ontstond het al in de jaren 50. Stanislaw Ulam zei in mei 1958, verwijzend naar een conversatie met de wiskundige John von Neumann:

Aanhalingsteken openen

Eén van de conversaties spitste zich toe op de steeds versnellende vooruitgang van technologie en veranderingen in de manier van menselijk leven, wat lijkt op het naderen van een bepaalde essentiële singulariteit in de geschiedenis van ons ras, waar voorbij de menselijke beslommeringen, zoals we ze kennen, niet kunnen voortgaan.

Aanhalingsteken sluiten

Dit citaat wordt dikwijls uit zijn context gehaald en toegeschreven aan John von Neumann zelf. In 1965 beschreef de statisticus I.J. Good een concept dat nog meer leek op ons hedendaags singulariteitsbegrip omdat hij ook het aspect van bovenmenselijke intelligentie insloot:

Aanhalingsteken openen

Laten we een ultra-intelligente machine definiëren als een machine die veel intelligenter is dan alle intelligente activiteiten van enig mens, hoe slim ook. Aangezien het ontwerpen van machines één van die intelligente activiteiten is, zou een ultra-intelligente machine veel betere machines kunnen ontwerpen; er zou dan ongetwijfeld een 'explosie van intelligentie' ontstaan, die de intelligentie van de mens ver achter zich zou laten. De eerste ultra-intelligente machine zou dus de laatste uitvinding zijn die de mens nodig zou hebben.

Aanhalingsteken sluiten

De singulariteit van Vernor Vinge[bewerken]

Het moderne concept van de technologische singulariteit is grotendeels afkomstig van de wiskundige en sf-auteur Vernor Vinge. Vinge begon in de jaren tachtig te spreken over de singulariteit, en verzamelde zijn gedachten over dit onderwerp in januari 1983 in een voorwoord voor het (inmiddels opgeheven) tijdschrift Omni. Het eerste uitgebreide artikel over dit onderwerp publiceerde Vinge in 1993, namelijk het essay "Technologische singulariteit". Sindsdien is dit een onderwerp geweest voor veel sciencefictionschrijvers. Het essay van Vinge bevat de vaak geciteerde zin:

Aanhalingsteken openen

Binnen dertig jaar zullen we de technologische middelen hebben om bovenmenselijke intelligentie te creëren. Kort daarna zal het menselijk tijdperk beëindigd zijn.

Aanhalingsteken sluiten

De singulariteit van Vinge wordt dikwijls misbegrepen als zou technologische vooruitgang afstevenen op oneindigheid, zoals in een mathematische singulariteit. Vinge wil eigenlijk zeggen dat voor hedendaagse intelligente mensen de maatschappij van 'na de singulariteit' niet meer te begrijpen valt. In zijn sf-roman Marooned in realtime (1986) vergelijkt hij dit zo:

Aanhalingsteken openen

Een platworm kan een miljoen jaar naar een opera kijken maar hij zal daarvan nooit iets begrijpen.

Aanhalingsteken sluiten

Eigenlijk was de term meer gekozen als een metafoor uit de natuurkunde dan uit de wiskunde; naarmate men de singulariteit nadert worden de modellen van de toekomst minder betrouwbaar, net zoals de gebruikelijke modellen van de natuurkunde het laten afweten naarmate men een zwaartekrachtsingulariteit nadert (zie zwart gat en big bang).

Vinge schrijft dat bovenmenselijke intelligenties, of ze nu gecreëerd worden door cybernetisch verbeteren van het menselijk brein (Intelligence Amplification IA) of door kunstmatige intelligentie (Artificial Intelligence AI), beter in staat zullen zijn om hun eigen intelligentie te vermeerderen dan de mensen die hen maakten. Vinge schrijft:

Aanhalingsteken openen

Wanneer bovenmenselijke intelligentie de vooruitgang bepaalt dan zal die vooruitgang sneller verlopen.

Aanhalingsteken sluiten

Van deze feedbackloop van zichzelf verbeterende intelligentie wordt verwacht dat ze steeds grotere technologische vooruitgang brengt in steeds kortere tijdspannen. Voor hedendaagse mensen zal deze nieuwe technologie en de daarmee gevormde wereld en maatschappij snel onbegrijpelijk worden. In zijn roman A Fire Upon the Deep (1992)[5] refereert Vinge hier al aan. De helden van het verhaal, dat in de verre toekomst speelt, krijgen te maken met zeer ver ontwikkelde 'machines' die veel kenmerken van het leven hebben zoals groei en gebruik van zonne-energie, maar dan op zo'n grote schaal dat de zon zelfs bijna uitdooft door de enorme hoeveelheid energie die, op een onbegrijpelijke manier, eraan onttrokken wordt.

Raymond Kurzweils wet van versnellende opbrengsten[bewerken]

Moore's Law van 1900 - 2000 in de visie van Kurzweil

In zijn essay uit 2001, 'de wet van de versnellende opbrengsten' stelt Kurzweil een generalisatie van Moore's wet voor. De wet van Moore vormt voor de meeste aanhangers van de singulariteitshypothese de basis van hun geloof in de singulariteit en beschrijft een exponentieel groeipatroon in de complexiteit van geïntegreerde halfgeleidende circuits. Kurzweil breidt dit uit en sluit technologieën van ver voor de geïntegreerde schakelingen in tot toekomstige vormen van computatie. Hij beweert dat een nieuwe technologie op de proppen komt telkens als er een barrière opduikt. Zo zal volgens hem nanotechnologie de wet van Moore gaande houden als de huidige productiemethoden van microchips op een natuurkundige barrière stuiten. Hij voorspelt dat dergelijke paradigmaverschuivingen steeds vaker zullen voorkomen naarmate we de singulariteit naderen. Hij gelooft dat de exponentiële groei van Moores wet zal doorlopen voorbij het gebruik van geïntegreerde circuits tot in technologieën die voor de huidige mens nog onbekend zijn, of die we ons zelfs nog niet kunnen voorstellen, die zullen leiden tot de singulariteit. Dit beschrijft hij als 'technologische verandering zo snel en grondig dat het een breekpunt is in de menselijke geschiedenis'.

De wet zoals Raymond Kurzweil haar beschrijft heeft bij veel mensen hun begrip van de wet van Moore doen veranderen. Men is dikwijls geneigd te geloven dat het Moore was die met zijn wet voorspellingen deed over alle vormen van technologie, terwijl hij het alleen maar had over halfgeleiderschakelingen. Veel futurologen gebruiken nog steeds de term wet van Moore om ideeën als die van Kurzweil te beschrijven. Zoals Ray Kurzweil in zijn boek 'Kurzweil on the edge - The intelligent universe' (2002)[6] het zegt:

Aanhalingsteken openen

Een analyse van de geschiedenis van de technologie toont dat technologische verandering exponentieel is, in tegenstelling tot de gebruikelijke 'intuïtieve lineaire' visie. We zullen dus geen 100 jaar van verandering ervaren gedurende de 21ste eeuw - het zullen er eerder 20.000 zijn (gemeten aan ons huidige idee van verandering). De 'opbrengsten' zoals chipsnelheid en kosteffectiviteit vermeerderen ook exponentieel. Er is zelfs exponentiële groei in de exponentiële groei (dubbel exponentiële groei, S-curve). Binnen enkele decennia zal machine-intelligentie menselijke intelligentie overstijgen en leiden tot de singulariteit - technologische veranderingen die zo snel en allesomvattend zijn dat er sprake is van een breekpunt in de menselijke geschiedenis. De gevolgen zullen onder andere inhouden: het samengaan van biologische en non-biologische intelligentie, onsterfelijke op software gebaseerde menselijke wezens en ultrahoge niveaus van intelligentie die zich in het universum verspreiden met de snelheid van het licht.

Aanhalingsteken sluiten
Aanhalingsteken openen

Als informatie niet sneller kan verspreid worden dan de snelheid van het licht en als die kosmische afstanden werkelijk onoverbrugbaar blijken (als er dus geen shortcuts via wormgaten mogelijk zijn) dan zal de verspreiding van informatie traag verlopen en bepaald worden door de lichtsnelheid. Binnen 200 jaar zullen we ongeveer alle materie en energie in ons zonnestelsel voor computatie gebruikt hebben, gebaseerd op ons huidig begrip van de beperkingen en eigenschappen van computatie binnen dit tijdsbestek. Ik veronderstel echter dat intelligentie zich sneller zal verspreiden gebruikmakend van andere dimensies en meer van dergelijke shortcuts. Het lijkt misschien wel heel moeilijk, maar we praten hier over supreem intelligente technologieën en wezens. Als er manieren zijn om in andere delen van het universum te geraken via shortcuts zoals wormgaten, dan zullen ze er gebruik van maken en zal informatie zich sneller verspreiden. Dan kunnen we misschien het hele universum bereiken, dat wil zeggen 10^{80} protonen, fotonen, en andere elementaire deeltjes, die volgens Seth Lloyd 10^{90} bits vertegenwoordigen, zonder beperkt te worden door de snelheid van het licht.

Aanhalingsteken sluiten
Aanhalingsteken openen

Als de snelheid van het licht geen probleem vormt, en ik wijs erop dat dit op dit moment speculatie blijft, dan zullen we binnen 300 jaar het ganse universum verzadigen met intelligentie en het gehele universum zou dan ontwaken tot een extreme mate van intelligentie en totaal manipuleerbaar zijn. We vermeerderen onze computatieve vermogens met een factor van 10^3 per decennium. Dit is een conservatieve schatting, aangezien de mate van versnelling ook nog eens versnelt (dubbel exponentiële groei). Het is dus conservatief om te stellen dat binnen 30 decennia (300) jaar, we onze huidige computatieve vermogens met een factor van 10^{90} zouden vermeerderd hebben. Dan zouden we de schatting van Seth Lloyd - er zijn 10^{90} bits in dit universum - overtroffen hebben.

Aanhalingsteken sluiten

Kurzweil breidt deze thema's verder uit in zijn boeken zoals The age of spiritual machines (2000)[7] en The singularity is near (2005)[8]. Zijn voorspellingen verschillen van die van Vinge in zoverre dat Kurzweil een veel geleidelijkere overgang naar de singulariteit voor de volledige mensheid voorziet terwijl Vinge snelle zichzelf verbeterende bovenmenselijke intelligentie vooropstelt. Dit verschil wordt dikwijls gedefinieerd als de zachte singulariteit en harde singulariteit.

Evolutie van de maatschappij[bewerken]

Sommigen beschouwen de singulariteit als een logisch gevolg van de evolutie van de maatschappij. Veel sociologen en antropologen hebben sociale theorieën geconstrueerd die sociale en culturele evolutie behandelen. Sommigen, zoals Lewis H. Morgan, Leslie White en Gerard Lenski beschouwen technologische vooruitgang als de primaire drijfveer van de zich ontwikkelende menselijke beschaving.

Morgan stelt drie grote fasen voorop in de sociale evolutie ('savagery', 'barbarism' en 'civilisation') . Die fasen worden onderscheiden aan de hand van technologische mijlpalen zoals

  • het vuur, de boog en keramiek in de 'wilde' fase.
  • Domesticatie van dieren, landbouw en metaalbewerking in de 'barbaarse' fase.
  • Ten slotte het alfabet en het schrift in de 'beschaafde' fase.

In plaats van specifieke uitvindingen nam White energie als maatstaf om de evolutie van beschavingen te bepalen. Voor White is het bekomen en controleren van energie de voornaamste functie van cultuur. White onderscheidt vijf fasen in de ontwikkeling van de menselijke beschaving;

  • in de eerste fase gebruiken de mensen de energie van hun eigen spieren.
  • In de tweede gebruiken ze de energie van gedomesticeerde dieren.
  • In de derde gebruiken ze de energie van de planten (landbouwrevolutie).
  • In de vierde fase leren ze gebruik te maken van natuurlijke energiebronnen zoals kolen, olie en gas.
  • In de vijfde en laatste fase maken ze gebruik van nucleaire energie.

White introduceerde de formule P=E*T, waarbij E een maatstaf van de geconsumeerde energie is en T een maat is voor de efficiëntie van technische factoren bij het gebruik van energie. In zijn eigen woorden "cultuur evolueert als de hoeveelheid opgewekte energie per capita per jaar vermeerdert, of als de efficiëntie van de instrumentele middelen om energie aan te wenden vermeerdert."

De Russische astronoom Nikolaj Kardasjev extrapoleerde deze theorie om de Kardasjevschaal op te stellen, die het energieverbruik van geavanceerde beschavingen categoriseert. In haar grondvorm heeft de schaal drie categorieën, waarin beschavingen op basis van hun energieproductie ingedeeld worden:

Type I
De beschaving is in staat om alle op een planeet beschikbare energie te gebruiken. Dat is ongeveer 1016 W (voor de Aarde zelfs iets meer dan 1.74×1017 W).
Type II
De beschaving is in staat om alle beschikbare energie die uitgaat van een enkele ster te gebruiken; dat is ongeveer 1026 W.
Type III
De beschaving is in staat om de totaal beschikbare energie in een melkwegstelsel te gebruiken; dat is ongeveer 1036 W.

De menselijke beschaving bevindt zich nog ergens onder type I, aangezien we slechts een deel van de beschikbare energie op de Aarde weten te gebruiken. Deze status heet onofficieel "Type 0". Een Dysonbol is type II op deze schaal en de mensheid is op dit moment ongeveer op niveau 0,7 aanbeland.

Gerhard Lenski gebruikt een moderne aanpak en focust op informatie. Hoe meer informatie en kennis (vooral als die toelaat de natuurlijke omgeving te manipuleren) een bepaalde maatschappij heeft, hoe geavanceerder ze is. Hij identificeert vier fasen in de ontwikkeling van beschavingen, gebaseerd op mijlpalen in de geschiedenis van de communicatie.

  • In de eerste fase wordt informatie doorgegeven via de genen.
  • In de tweede, wanneer de mensheid zintuiglijk bewustzijn ontwikkelt, kunnen ze leren en informatie doorgeven via ervaring.
  • In de derde fase beginnen de mensen tekens te gebruiken en ontwikkelen ze de logica.
  • In de vierde fase creëren ze symbolen en ontwikkelen ze taal en schrift.

Vooruitgang op het vlak van communicatie vertaalt zich in vooruitgang van de economie en politiek, distributie van goederen, sociale ongelijkheid en tal van andere sferen van menselijk samenleven. Hij onderscheidt maatschappijen ook op hun niveau van technologische ontwikkeling, communicatie en economie;

  1. jagers-verzamelaars,
  2. eenvoudige landbouw,
  3. geavanceerde landbouw,
  4. industrie
  5. speciale samenlevingen (zoals vissersgemeenschappen).

Ten slotte zijn er de sociologen en antropologen zoals Alvin Toffler (auteur van Future shock), Daniel Bell en John Nashbitt die theorieën over postindustriële samenlevingen opgesteld hebben. Ze argumenteren dat het huidige tijdperk van de industriële samenlevingen zijn einde nadert en dat diensten en informatie belangrijker geworden zijn dan industrie en goederen. Sommige meer extreme visies op postindustriële samenlevingen, vooral in fictie dan, lijken veel op postsingulariteit samenlevingen.

Mogelijke gevaren van de singulariteit[bewerken]

Sceptici geven verschillende (mogelijk zelfs dodelijke) gevaren voor de mensheid aan:

  • gevaarlijke situaties die voortkomen uit de technieken die uiteindelijk een AI moeten opleveren.
  • gevaren voortkomend uit een uiteindelijke AI zelf.

Gevaarlijke technieken[bewerken]

Sommige mensen beweren dat geavanceerde technologieën gewoon te gevaarlijk zijn voor de mens, zodat ze eigenlijk moreel gezien verboden zouden moeten zijn en ze ageren opdat deze technologieën niet verder ontwikkeld worden of zelfs verboden worden. Veel anderen zijn tegen de singulariteit zonder echter tegen moderne technologie als zodanig te zijn zoals de neoluddieten. Gevaarlijke technieken die dikwijls aangehaald worden zijn moleculaire nanotechnologie en genetische manipulatie. In een vergevorderd stadium kunnen deze technologieën mogelijk een superintelligentie voortbrengen maar voor het zover is kunnen hiermee bv. ook levensgevaarlijke nieuwe virussen geschapen worden waartegen geen kruid gewassen is. Deze dreigingen zijn belangrijke issues, zowel voor singulariteitsvoorstanders als voor singulariteitscritici, en waren het onderwerp van een artikel door Bill Joy gepubliceerd in Wired magazine, getiteld Why the future doesn't need us.[9] Oxford University filosoof Nick Bostrom vatte de gevaren van de singulariteit voor het overleven van de mensheid samen in zijn essay Existential risks.[10]

Veel singularitarianen beschouwen nanotechnologie als een van de belangrijkste existentiële risico's voor de mensheid. Daarom geloven de meesten dat nanotechnologie zou moeten worden voorafgegaan door Seed-AI (een soort basis artificiële intelligentie) en dat een pre-singulariteit maatschappij dus geen nanotechnologie zou mogen bezitten. Anderen, zoals het Foresight Institute, stimuleren juist initiatieven om moleculaire nanotechnologie te creëren, omdat ze geloven dat nanotechnologie ook veilig gemaakt kan worden voor pre-singulariteit gebruik of zelfs dat nanotechnologie de komst van een gunstige singulariteit kan versnellen.

Intelligentie en morele waarden[bewerken]

Sommige denkers vermoeden dat bovenmenselijke intelligenties andere prioriteiten zullen stellen dan de mensheid. Omdat per definitie 'gewone' intelligente mensen de superintelligenties niet meer kunnen volgen en deze ook nog eens steeds sneller intelligenter worden zal het deze entiteiten geen enkele moeite kosten om alle mogelijke tegenstand te voorzien en op voorhand uit te schakelen. Hoewel sommigen tegenwerpen dat met hoge intelligentie ook 'automatisch' hoge morele waarden samengaan zijn er anderen die dit automatisme ontkennen. Vaak wijzen ze op de nazi's die zich bij het in praktijk brengen van hun racistische en totalitaire ideologie niet lieten leiden door enig moreel principe. Ondanks dit onweerlegbare feit verleenden veel hoogintelligente mensen zoals geleerden, artsen en ingenieurs vrijwillig hun medewerking aan het regime, zeker in de jaren dertig en het begin van de oorlog toen ze nog succesvol leken. Blijkbaar hadden deze, toch als bovengemiddeld intelligent aan te merken mensen, geen morele bezwaren tegen de nazi's en hun ideologie. AI-researcher Hugo de Garis veronderstelt daarom, wijzend op onder andere dit historisch voorbeeld, dat bovenmenselijke intelligenties de mensheid gewoon gaan elimineren en dat de mensheid hen niet kan stoppen.

Voorstanders van 'Vriendelijke artificiële intelligentie' zien ook in dat de singulariteit wel eens grote gevaren voor de mensheid met zich zou kunnen meebrengen, en juist om deze reden zetten zij zich in om de singulariteit veiliger te maken door AI te creëren die welwillend tegenover de mensen zal zijn. Dit idee is ook vervat in de 'drie wetten der robotica' van Isaac Asimov, bedoeld om een artificieel intelligente robot te verhinderen mensen kwaad te doen, hoewel de plot van Asimovs verhalen dikwijls net het falen van zijn wetten behelst. Een instituut in de VS dat zich bezighoudt met het veiliger maken van een mogelijke AI is het Machine Intelligence Research Institute (MIRI)[11] opgericht door singulariteitsenthousiast Eliezer Yudkowski en gesteund door onder anderen Ray Kurzweil.

Massale werkloosheid[bewerken]

De oorspronkelijke Luddieten vochten tegen de machinisering van de eerste industriële revolutie (Engeland vanaf 1750) uit vrees dat de tewerkstelling zou afnemen en sommige tegenstanders van de singulariteit beweren hetzelfde. Alhoewel de vrees van de Luddieten niet werd gerealiseerd, gezien de groei van de tewerkstelling na de industriële revolutie (landbouwers vonden nieuw werk als fabrieksarbeiders, technici, kantoorwerkers en bedienden), toch was er inderdaad een vermindering van bepaalde vormen van tewerkstelling: een dramatische vermindering in de tewerkstelling van kinderen en ouderen wat moreel gezien een goede zaak was. De stelling van onder anderen Henry Hazlitt is dan ook dat enkel gewenste tewerkstelling in acht genomen zou moeten worden bij het voorkomen van werkloosheid van de massa. Een postsingulariteitsmaatschappij zal veel rijker zijn dan een presingulariteitsmaatschappij (dankzij een verbeterde manipulatie van materie en energie om tegemoet te komen aan de menselijke noden) waarbij genoeg overblijft om eventuele werklozen te onderhouden. Een mogelijk scenario voor de singulariteit is een verhoging van per capita inkomen en een verlaging van de tewerkstelling waarbij iedereen zonder werk een soort basisinkomen wordt gegarandeerd. Maar voor de invoering van een basisinkomen moet er wel genoeg draagvlak zijn hiervoor onder de machthebbers en bij de financiële elite en grote bedrijven wereld. Vooralsnog zijn de tekenen daarvoor niet gunstig omdat het neoliberalisme nog hoogtij viert in het politieke en economische denken waarbij zoveel mogelijk aan de vrije markt wordt overgelaten. Degenen die niet mee kunnen komen zoals zieken gehandicapten, werkelozen en bejaarden worden daarbij vaak aan hun lot overgelaten. Zo ontstaat er geleidelijk een tweedeling in de maatschappij: een steeds rijkere elite en een groeiend steeds meer verpauperende onderlaag.

Een eeuwig superieure elite[bewerken]

Theodore Kaczynski, een heftige tegenstander van de singulariteit en een neo-luddiet, werd berucht als de Unabomber. Hij schrijft, zoals andere sceptici, dat een superintelligente entiteit de mensheid onherroepelijk zal uitroeien of anders zal gebruiken als willoos werktuig voor zijn ondoorgrondelijke doeleinden. Anderzijds argumenteert Kaczynski, als AI niet gecreëerd wordt, zal supergeavanceerde technologie een opperklasse toelaten die niet meer te bestrijden valt wegens hun bovenmenselijk intelligentie. Deze opperklasse zal oorspronkelijk bestaan uit de huidige economische en politieke top van de mensheid (the mighty, rich and famous) die exclusief toegang heeft tot de eerste technologische middelen om het lichaam voor onbepaalde tijd biologisch gezond te houden en tot het uitbreiden van de intelligentie. Daarmee krijgen ze de middelen in handen die de 'grote massa' eveneens zal uitschakelen. De mensen zullen door de machthebbers gereduceerd zijn tot de status van tamme dieren na voldoende technologische vooruitgang om dissidenten voor onbepaalde tijd onder absolute controle te houden. Zowel Bill Joy als Ray Kurzweil citeren Kaczynski in hun werk.

Sceptici[bewerken]

John Zerzan en Derrick Jensen vertegenwoordigen samen met Kaczynski de anarcho-primitieve school ook wel eco-anarchisme genaamd. Zij beschouwen de singulariteit als een orgie van machinecontrole, en een verlies voor het wilde en onvoorwaardelijk vrije bestaan buiten het domein van de beschavingen. Milieugroeperingen zoals Earth liberation en Earth First! zien de singulariteit als een gegeven dat kost wat kost vermeden moet worden. James John Bell heeft artikelen geschreven voor Earth First! en voor andere publicaties, waarin hij waarschuwt voor de singulariteit. Hij schreef ook Essays zoals Exploring the singularity en technotopia and the death of nature: clones, supercomputers and robots. Green Anarchy is een publicatie waar Kaczynski en Zerzan regelmatig in publiceren en waarin regelmatig tegen de singulariteit wordt geschreven. Voorbeeld Singular Rapture, geschreven door MOSH (dit verwijst naar Kurzweils M.O.S.H., voor Mostly Original Substrate Human).

Kritiek[bewerken]

Er zijn verschillende kritieken op het toekomstscenario van de singulariteit vanuit wetenschappelijke en andere hoek:

  • Over alle sectoren samen lijkt er geen sprake te zijn van een steeds snellere en makkelijkere innovatie, gemeten aan het aantal patenten per onderzoeker per jaar. Het tegendeel blijkt waar en de wet van verminderende meeropbrengsten lijkt van toepassing. [12] Technologische groei kan, zoals elk biologisch groeiproces, best met een S-curve in plaats van een exponentiële curve beschreven worden: eerst lijkt de curve exponentieel tot er een fundamentele limiet bereikt wordt en de groei afneemt. De verst mogelijke limiet wordt gesteld door de onveranderlijke natuurwetten (zie onder). Andere factoren (zoals economische) kunnen de groei nog eerder beperken. Vaak is de beperkende factor in de natuur te vinden: grondstoffen, landbouwgrond etc. [13]. Sinds de industriële revolutie zijn de mogelijkheden om grondstoffen en andere beperkingen efficïenter en op grotere schaal te gebruiken en te ontginnen wel sterk toegenomen, en is de mens minder afhankelijk van de natuur geworden. Vraag is wel of zelfs de huidige situatie op zich duurzaam is, cfr. ecologische voetafdruk.
  • Ondanks een veel groter aantal werkzame onderzoekers dan vroeger zijn er al lang geen nieuwe fundamentele natuurwetten of krachten meer gevonden die industrieel bruikbaar zijn. De sterke kernkracht, ontdekt in de jaren 1930 en samen met elektromagnetisme en zwakke kernkracht in de jaren 1970 samengebracht in het standaardmodel was de laatste. Er zijn nog enkele waarnemingen die niet goed verklaard zijn, cfr. donkere materie en donkere energie, maar die spelen enkel op gigantische schaal. Het bouwen van steeds snellere computers of het verkrijgen van bovenmatige intelligentie verandert niets aan de fundamentele limieten gesteld door de natuurkrachten.
  • 'Oude' innovaties zorgden relatief voor een veel grotere verhoging van welvaart en comfort. Vergelijk bvb. de invoering van de waterleiding, elektriciteit en riolering in een willekeurig Belgisch dorp in de jaren 1950-1960 met de aanleg van internet in de jaren 1990.
  • Parallel hiermee is ook het argument van verminderend nut van een steeds grotere rekenkracht. Een dubbel zo snelle computer is bvb. zeker niet dubbel zo nuttig. Vraag in deze context is of ze dubbel zo 'intelligent' is. De afhankelijkheid lijkt eerder logaritmisch.
  • Critici [14] voeren aan dat de logaritmische figuren die prominent aanwezig zijn in het werk van Kurzweil en die het steeds sneller innoveren van de mens moeten aantonen zijn enkele logaritmisch door het selectief uitpikken van 'belangrijke' uitvindingen. In de figuren wordt relatief veel belang gehecht aan nieuwe uitvindingen. De sterke groei van kennis en kunde tijdens de 3 industriële revoluties kan echter moeilijk ontkend worden, al is het dus niet zeker dat ze exponentieel is en hoever ze doorgetrokken kan worden naar de toekomst.
  • Zelfs in het archetypische voorbeeld, informatiesystemen (zie Wet van Moore), gaat innovatie vertragen. Transistors worden in de jaren 2010 nog steeds kleiner, maar de mate waarin computersystemen erdoor sneller, kleiner en zuiniger worden neemt toch af beperkt door andere factoren. Zo nemen bvb. de kloksnelheden van processoren lang niet meer zo snel toe als in de jaren 1990-2000.

De singulariteit in fictie en moderne cultuur[bewerken]

Fictieve beschrijvingen van de singulariteit vallen gewoonlijk in een van deze vier categorieën:

  • AI's en technologisch verbeterde mensen (dikwijls nog steeds minderwaardig aan de AI's): Charles Stross, Jacek dukaj, The culture of Ian M. Banks, the Deus Ex computerspellen en de Halo-videospellenserie.
  • AI's en baseline mensen (soms ook wel genoemd; lokale singulariteit): Cylons of Battlestar Galactica (nieuwe versie), colossus: The Forbin project, the Matrix, Terminator en "TimeSplitters: Future Perfect" (videospel)
  • Biologisch geëvolueerde mensen die de ruimte verkennen: Ancients in Stargate SG-1, Sid Meier's Alpha Centauri, Shapers in Bruce Sterlings Shaper/Mechanist setting.
  • Technologisch verbeterde mensen die de ruimte verkennen: The Gentle Seduction door Marc Stiegler, Mechanists in Bruce Sterlings Shaper/Mechanist setting.

Als aanvulling bij de verhalen van Vernor Vinge, pionier van de Singulariteitsideeën, hebben nog verschillende andere sciencefictionschrijvers verhalen gepubliceerd met de singulariteit als centraal thema. De meest bekende zijn William Gibson, Charles Stross, Karl Schroeder, Greg Egan, Greg Bear, Iain M. Banks, Neal Stephenson, Bruce Sterling, Damien Broderick en Jacek Dukaj. Ken Mac Leod beschrijft de singulariteit als "Extase voor nerds" in zijn novelle uit 1998 'The Cassini Division'. Het singulariteitsthema komt veel voor in cyberpunknovellen. een van de bekendste voorbeelden is de zichzelf verbeterende AI Neuromancer in de gelijknamige novelle van William Gibson. Sommige oudere sciencefictionboeken zoals 'Childhood's End' van Arthur Clarke, Isaac Asimovs 'The last question' en 'The last evolution' van W. Campbell beschrijven reeds zoiets als de technologische singulariteit. Een novelle gepubliceerd op Kuro5hin in 1994 genoemd 'the metamorphosis of prime intellect' beeldt het leven uit na een singulariteit, op gang gebracht door AI. Somberder is het klassieke kortverhaal van Harlan Ellison 'I have no mouth and I must scream' waarin een superintelligente computer de mensheid uitroeit op een handjevol na om deze eeuwig in leven te houden en te kwellen als wraak voor zijn als zinloos ervaren bestaan.

Het online sciencefiction wereldbouwend project Orion's-arm handelt ook over de singulariteit, net zoals sommige videospelletjes zoals 'TimeSplitters: Future perfect', waar de speler samen met mensen vecht tegen de robots in het jaar 2243. 'Halo' en 'Deus Ex' handelen ook over het singulariteitsthema, Het computerspel 'Sid Meier's Alpha Centauri' handelt ook over een soort singulariteit met een 'Opstijgen tot transcendentie'.

Een van de eerste referenties aan de technologische singulariteit komt voor in het kortverhaal 'Answer', geschreven door sciencefictionschrijver Frederic Brown in 1954.

Film en televisie[bewerken]

Leeswaarschuwing: Onderstaande tekst bevat details over de inhoud en/of de afloop van het verhaal.

Het eerste voorbeeld van een door AI gegenereerde singulariteit is in de film Colossus: The Forbin Project uit 1969. In de film bereikt een supercomputer van het Amerikaanse ministerie van Defensie zelfbewustzijn door middel van een steeds complexer wordend algoritme. Eens Colossus een staat van zelfbewustzijn bereikt heeft, maakt hij een connectie met zijn Sovjettegenhanger Guardian. Samen verplichten ze de mensheid tot vreedzame co-existentie.

'The Matrix' speelt zich af in een postsingulariteitswereld waarin AI de mensen domineert en onderwerpt voor eigen doeleinden. In 'The Terminator', bereikt de AI Skynet zelfbewustzijn en lanceert kernkoppen om de mensheid te vernietigen.

Ook het tekenfilmgenre exploreerde reeds het singulariteitsthema zoals Vernor Vinge en Raymond Kurzweil het voorstellen in hun geschriften. 'Ghost in the Shell' speelt zich af in een wereld waarin wetware (menselijk bewustzijn) de overhand heeft en machine bewustzijn begint te ontwikkelen. Een andere anime is 'Serial Experiments: Lain' en behandelt het thema van downloaden van bewustzijn.

Zie ook[bewerken]

Onderwerpen[bewerken]

Personen[bewerken]

Stromingen[bewerken]

Externe link[bewerken]

Human v2.0 BBC documentaire over de technologische singulariteit op Holland Doc.

Bronnen, noten en/of referenties
  1. Vinge's essay 1993
  2. Good, I. J. (1965), Franz L. Alt and Morris Rubinoff, ed., "Speculations Concerning the First Ultraintelligent Machine", Advances in Computers (Academic Press) 6: 31-88, http://web.archive.org/web/20010527181244/http://www.aeiveos.com/~bradbury/Authors/Computing/Good-IJ/SCtFUM.html, retrieved on 2007-08-07
  3. Kurzweil, Raymond (2001), The Law of Accelerating Returns, Lifeboat Foundation, http://lifeboat.com/ex/law.of.accelerating.returns
  4. Dreyfus & Dreyfus 2000, p. xiv: The truth is that human intelligence can never be replaced with machine intelligence simply because we are not ourselves "thinking machines" in the sense in which that term is commonly understood.Hawking (1998) Some people say that computers can never show true intelligence whatever that may be. But it seems to me that if very complicated chemical molecules can operate in humans to make them intelligent then equally complicated electronic circuits can also make computers act in an intelligent way. And if they are intelligent they can presumably design computers that have even greater complexity and intelligence.
  5. Nederlands: Dagen des Oordeels 1993, Amsterdam: J.M. Meulenhoff, Msf 309, 543pag., ISBN 90-290-4169-2, 1e druk augustus 1993. vert.van: Fire upon the Deep (1992), vert.door: M.K. Stuyter SJ, Uitgeverij Meulenhoff
  6. Kurzweil over het intelligente universum op de website van the edge anno 2002
  7. The Age of Spiritual Machines. Viking Adult. ISBN 0-670-88217-8
  8. The Singularity Is Near: When Humans Transcend Biology, Viking, 2005, ISBN 9780670033843
  9. http://www.wired.com/wired/archive/8.04/joy.html
  10. http://www.nickbostrom.com/existential/risks.html
  11. Machine Intelligence Research Institute
  12. Huebner, Jonathan (2005) A Possible Declining Trend for Worldwide Innovation, Technological Forecasting & Social Change, October 2005, pp. 980–6
  13. Jared Diamond, Collapse: How Societies Choose to Fail or Succeed
  14. Myers, PZ, Singularly Silly Singularity