Kunstmatige intelligentie
Kunstmatige intelligentie | ||||
---|---|---|---|---|
Een door DALL·E 3 gegenereerd "zelfportret"
| ||||
Algemene informatie | ||||
Grondlegger(s) | John McCarthy (Turing award), John Hopfield en Geoffrey Hinton (Nobelprijs) | |||
Periode van uitvinding | 1956-1980 | |||
Hoofdfunctie | uitvoeren van taken die normaal gesproken menselijke intelligentie vereisen | |||
Basisprincipe(s) | Datawetenschap (1956), Hopfield-netwerk (1980) | |||
|
Kunstmatige intelligentie (KI) of artificiële intelligentie (AI) is het nabootsen van menselijke vaardigheden met een computersysteem zoals leren, plannen, redeneren, anticiperen en zelfstandig beslissen zonder tussenkomst van menselijke intelligentie.[1][2]
AI-systeem
[bewerken | brontekst bewerken]Artificiële intelligentie wordt geoptimaliseerd met meerdere technieken, zoals machinelearning en besluitvormingen. Voor de ontwikkeling van een AI-systeem zijn de volgende technische aspecten essentieel:[3]
- algoritmen
- krachtige computers
- wiskunde
- hoge opslagcapaciteit
- menselijke logica (Big data)
Het ontwikkelde, en vereenvoudigde, gegevensmodel kan bijvoorbeeld geïntegreerd worden in een toestel, om patronen razendsnel en nauwkeurig te herkennen.[3] Een voorbeeld is de nieuwe AI-app, die aan de hand van een scan pijn kan herkennen bij katten. De app werd ontwikkeld door professor Kazuya Edamura en de Nihon Universiteit in Japan. De AI werd eerst getraind met 6.000 foto's van katten.[4]
Type AI
[bewerken | brontekst bewerken]De vooruitgang en streefdoelen van artificiële intelligentie is algemeen aangenomen in drie fases:
Type | Afkorting | Beschrijving[3][5] | Gerealiseerd |
---|---|---|---|
Smalle of zwakke AI | ANI | Deze fase verwijst naar de mogelijkheid van een computersysteem om specifieke taken beter uit te voeren dan een mens. De afkorting ANI verwijst naar de Engelstalige benaming Artificial Narrow Intelligence. In het Nederlands is de term "smalle AI" het gebruikelijkst.[bron?] Dit niveau is de hoogste succesvolle AI-ontwikkeling tot nu toe. | ✓
|
Generale of sterke AI | AGI | Deze fase biedt de capaciteit om elke intellectuele taak beter uit te voeren dan de mens. Deze vorm van AI komt vooral voor in films en is momenteel sciencefiction. Hiermee zou een computersysteem minstens hetzelfde oordeel kunnen vellen als het menselijk brein. Dit is het nieuwe streefdoel. | X
|
Super AI | ASI | De laatste fase, een superintelligent computersysteem is in staat de mens op vrijwel elk vlak te verslaan, met inbegrip van wetenschappelijke creativiteit, algemene kennis en sociale vaardigheden. | X
|
Beknopte tijdlijn
[bewerken | brontekst bewerken]Sinds de publicatie in 1950 van "Computing Machinery and Intelligence" door Alan Turing, groeide de interesse fors om een intelligente machine te bouwen. Turing suggereerde dat mensen bestaande data gebruiken, analyseren, en met deze informatie beslissingen concluderen.[6] De huidige AI is ook gericht op hoe computers beslissingen kunnen nemen op basis van bestaande gegevens.[3]
Eerste stappen
[bewerken | brontekst bewerken]De technologische middelen waren in 1950 beperkt, en de aanvankelijke ambitieuze doelstellingen voor AI werden afgezwakt. Marvin Minsky vertelde in 1970 aan Life Magazine "dat hij en zijn team binnen 8 jaar een machine met intelligentie van een gemiddelde mens hebben gebouwd". Maar een doorbraak kwam er niet vanwege de beperkte rekenkracht en opslagcapaciteit. De ontwikkelde AI bleef beperkt tot patroonvergelijkingen en besluitvormingsprogramma's. Twee voorbeelden zijn ELIZA, en IBM’s computerprogramma Deep Blue, dat in 1997 de grootmeester schaken Gary Kasparov versloeg.[6]
Moderne AI
[bewerken | brontekst bewerken]De wet van Moore speelt een belangrijke rol in de moderne artificiële intelligentie. De algoritmen van zijn niet zozeer spectaculair verbeterd ten opzichte van de jaren 1990, maar de geheugencapaciteit van de huidige computers wel. Plots konden big data verzameld worden om te analyseren en te classificeren, zodat computers konden leren van menselijke logica.[6] Met deze belangrijke stap kan een smalle AI bijvoorbeeld een gezicht herkennen in een ruimte met meerdere objecten, zonder dat de gezichten op voorhand bekend zijn in het systeem. Een AI met één onderwerp wordt kleine AI genoemd, heeft een laag energieverbruik en kan geïntegreerd worden in een app of een smartphone.[7]
Het ontwikkelingsproces voor de huidige AI bestaat uit een vijftal stappen:[8]
- gegevensinput
- modelontwerp
- modeltraining
- testen, analyseren en hertrainen
- oplevering AI-model
AI-agent
[bewerken | brontekst bewerken]In de media verschijnen sinds 2024 volop interne technieken, per bedrijf, die ingezet zullen worden om pogingen te ondernemen naar de volgende fase van AI, namelijk de kunstmatige algemene intelligentie met een zogenaamde AI-agent. De AI-agent zou een AI-systeem moeten worden dat zelfstandig veelvuldige taken kan uitvoeren zoals een betaalbaar hotel selecteren, een reservatie maken en meteen online de goedkoopste treintickets aanschaffen. Het is een race tegen de tijd tussen verschillende AI-bedrijven om dat als eerste te realiseren. Elk bedrijf hanteert eigen methodes die resulteren in dezelfde uitkomst. Het succes ervan en de mogelijkheden is nog toekomstmuziek, maar volgens Sam Altman, de CEO van OpenAI, zal het met zijn bedrijf mogelijks tegen 2026 zijn.[9]
Smalle AI
[bewerken | brontekst bewerken]Om de menselijke kennis te digitaliseren voor computerbeslissingen worden technieken gebruikt zoals machinelearning en deep learning. Deze vorm valt onder cognitieve AI en is een onmisbaar onderdeel in de huidige artificiële intelligentie.[10] Er bestaan ook nog andere technieken zoals datawetenschappen.[3]
Machinelearning
[bewerken | brontekst bewerken]Een computersysteem wordt getraind met subsets van bestaande gegevens die het onderwerp analyseert en inzichten verwerft voor het herkennen van patronen om hieruit nieuwe en samengevatte informatie te concluderen. Dit proces wordt in de praktijk datamining genoemd en kan ongestructureerde gegevens filteren om relevante datapunten te ontcijferen.
Deep learning
[bewerken | brontekst bewerken]Deze techniek maakt gebruik van de simulatie van biologische neurale netwerken, via geavanceerde machinelearning. Een diep neuraal netwerk heeft met synapsen vergelijkbare knooppunten, en is geïnspireerd op de structuur van het brein. Dit leidt tot een reeks gerelateerde vragen voor elke vraag die wordt beantwoord, waarbij het diepe neurale netwerk, via terugkoppeling, zichzelf kan bijsturen.
Datawetenschap
[bewerken | brontekst bewerken]Datawetenschap maakt gebruik van wiskunde en statistieken zoals metingen van afstanden van ogen, neus, lippen om een persoon te analyseren en te vergelijken met een AI-model met relevante datapunten. Vroeger was wiskunde de AI bij uitstek maar deze techniek is tegenwoordig enkel een onderdeel van AI.
Robotica
[bewerken | brontekst bewerken]Robotica is een AI-software met fysieke uiterlijke kenmerken die zich via sensoren autonoom kan verplaatsen zonder instructies van een mens. De sensoren meten en screenen constant de omgeving. Belangrijk om te weten is dat niet elke robot met AI is uitgerust. Bijvoorbeeld een robotarm in een autofabriek is enkel geprogrammeerd voor een specifiek doel.
Poging tot generale AI
[bewerken | brontekst bewerken]Het populaire GPT-3-AI-model van OpenAI werd in de eerste helft van 2020 gelanceerd. Een AI-chatbot behoort tot de grote AI en heeft een hoog energieverbruik, omdat het zich richt op algemene onderwerpen via een supercomputer.[7] Hierbij stelden Katherine Elkins en Jon Chun zich de vraag of ChatGPT de turingtest zou doorstaan. Na onderzoek bleek dat GPT-3 met zijn huidige technologie nog niet de fase van generale AI heeft bereikt,[11] maar wel het punt van introductie van een bescheiden, generatieve kunstmatige intelligentie.[12]
Het bedrijf OpenAI heeft in 2024 een nieuw intern ontwikkelingsplanning voorgesteld om in vijf stappen tot een "Generale of sterke AI" te komen. Het verloopt in vijf fases, waarvan al twee zijn gerealiseerd:[9]
- Fase 1: chatbots zijn in staat te converseren in natuurlijke taal.
- Fase 2: redenerende AI-systemen die problemen kunnen oplossen van wiskundige en wetenschappelijke vraagstukken.
- Fase 3: de AI-agents zouden enkele dagen na elkaar zonder toezicht zelfstandig taken moeten kunnen uitvoeren.
- Fase 4: AI moet in staat zijn nieuwe ideeën te ontwikkelen die de menselijke kennis betekenisvol uitbreiden.
- Fase 5: de bereikte kunstmatige algemene intelligentie (AGI) die volledig onafhankelijk het werk van een volledige organisatie kan overnemen.
Machine-learning-algoritmen
[bewerken | brontekst bewerken]Om AI te trainen wordt een AI-leermodel gebruikt om (big) data te verwerken en te analyseren. Een algoritme behoort tot de basiselementen die nodig zijn om een AI-systeem te trainen en te hertrainen. Een algoritme kent geen vermoeidheid en doet precies waarvoor het is geprogrammeerd als er geen bugs aanwezig zijn. Het verwerkt snel grote hoeveelheden data tot een geoptimaliseerd taalmodel of gegevensmodel. Voorbeelden van eindproducten zijn patroonherkenning in smartphones, het stellen van diagnoses van ziektebeelden, zelfrijdende auto's en zoekbots.[1][2]
Een machine-learning-algoritme[13] bevat vijf leermodellen die vervolgens gecombineerd kunnen worden naargelang het beogende doel:[8]
- Gecontroleerd leren: een antwoordsleutel wordt op voorhand bepaald om hiermee telkens te vergelijken.
- Ongecontroleerd leren: er is geen antwoordsleutel beschikbaar maar analyseert en zoekt zelf relevante patronen.
- Half gecontroleerd leren: een combinatie van gecontroleerd en ongecontroleerd leren.
- Zelfcontrolerend leren: simuleert het neurale netwerk en voorspelt uit ongestructureerde gegevens de ontbrekende puzzelstukjes.
- Versterkt leren: gebaseerd op datawetenschap en beloningssysteem.
AI-Technologieën
[bewerken | brontekst bewerken]AI is al een groot deel van onze samenleving geworden met technieken om het ons gemakkelijker te maken. Maar AI wordt ook ingezet bij niet-alledaagse zaken of niet voor de hand liggende onderwerpen. AI kent geen grenzen op dit vlak en kan met allerlei andere technieken gecombineerd en geïntegreerd worden.
Biologie
[bewerken | brontekst bewerken]Technieken als neurale netwerken en genetische algoritmen laten zien dat de AI ook inspiratie haalt uit de biologie. Datawetenschap is vaak gerelateerd aan AI. De kunstmatige intelligentie zou dus ook gezien kunnen worden als een brug tussen verschillende disciplines.
Semantisch zoeken
[bewerken | brontekst bewerken]Google maakt voor het zoekalgoritme steeds meer gebruik van AI-technologie zoals Hummingbird en RankBrain. Dit implementeert onder andere semantisch zoeken en zorgt ervoor dat een zoekopdracht direct het antwoord geeft in de resultaten. Bijvoorbeeld zoek: "Wat is de hoofdstad van Nederland?" Dan zal het eerste resultaat "Amsterdam" zijn. Ook in andere facetten zoals online marketing wordt artificiële intelligentie steeds belangrijker. Zo kunnen AI-tools marketeers onder meer helpen bij marketing-automatisatie en personalisatie.[14]
Computerspellen
[bewerken | brontekst bewerken]Reeds vanaf de jaren 50 is AI een onderdeel geworden van spelcomputers. In de jaren 80 werd AI ook bij videospellen betrokken om bij de non-player characters responsief en adaptief gedrag te genereren, behalve bij casinospellen, die op willekeurige modellen gebaseerd zijn. Door de jaren heen kreeg AI ook systematisch meerdere rollen toegekend zoals ontwerp, ontwikkeling en fysieke waarnemingen. Vandaag de dag wordt AI ook ingezet als creativiteit tijdens het ontwikkelen van games. Zo is het mogelijk via machinelearning eerst slimme tools te trainen die in de plaats van de mens creatief kunnen zijn. Een voorbeeld is het opvullen en bemeubelen van ruimtes.[15]
Een beknopte tijdlijn:
- In de jaren 50 zijn er tal van wiskundige strategische spellen geschreven zoals Nim, Ferranti Mark 1-machine en schaakspellen.
- In de jaren 70 is het spel Space Invaders enorm populair geworden door steeds moeilijkere levels en verschillende bewegingspatronen te ervaren naargelang het spel vordert.
- In 1980 werd Pac-Man met AI-patronen voor een doolhof uitgebracht.
- In 1988 was het actierollenspel (RPG) First Queen de eerste RPG met personages die kon bestuurd worden door een AI-engine.
- In de jaren 90 namen computers ook voor het eerst realtime-beslissingen tijdens het gamen.
- Vandaag de dag zijn 3D-brillen een ware hype in games geworden, waarbij de gamers de effecten zelf kunnen waarnemen tijdens het gamen.
AI detecteren
[bewerken | brontekst bewerken]Er bestaan reeds apps en programma's die teksten en afbeeldingen door AI-systemen gemaakt kunnen detecteren. Een gratis computerprogramma "DeepFake-o-meter" is een voorbeeld hiervan. AI-content met mensen hebben nog steeds mankementen zoals onnatuurlijke handen, zes vingers, alle vingers even lang, rare houdingen of vreemde schaduwvormen midden in het oog.[16]
Dat echte- en AI-foto's moeilijk te onderscheiden zijn, bewees fotograaf Miles Astray met zijn flamingo op een wit strand. Hij won de People's Vote Award in de AI-categorie van de "fotowedstrijd 1839 Awards". Hij werd echter gediskwalificeerd omdat hij een echte foto had ingestuurd. Achteraf zei hij: "Ik ben blij om te zien dat dit experiment mijn hypothese heeft bevestigd: er is niets meer fantastisch of creatief dan Moeder Natuur zelf". Hiermee wou hij iedereen laten herinneren dat mensen ook nog creatief kunnen zijn zonder AI.[17]
Geschiedenis
[bewerken | brontekst bewerken]Het smeden van computerintelligentie begon in de jaren dertig door de Engelse wiskundige Alan Turing, een van de voorvaders van de informatica. Computers waren voor 1949 ontzettend duur en konden geen commando's opslaan om te herinneren wat ze deden. De theorieën waren aanwezig om geverifieerd te worden maar er waren nog belangrijke obstakels te overbruggen om effectief een intelligente machine te bouwen.[6]
Alan Turing
[bewerken | brontekst bewerken]In 1936 probeerde Alan Turing voor het eerst een antwoord op de vraag te formuleren of machines zouden kunnen denken en menselijke intelligentie vertonen. Aan de hand van een turingtest publiceerde hij het volgende gedachte-experiment: stel een computer kan iemand laten geloven dat hij een mens is, dan concludeerde hij dat de computer intelligentie vertoont. In 1950 publiceerde Turing een aanvulling op zijn turingtest, de Computing Machinery and Intelligence, waarin hij uitvoerig bespreekt hoe intelligente machines kunnen worden gebouwd om hun intelligentie te testen. Sinds 1965 wordt er jaarlijks een Turing Award uitgereikt, de meest prestigieuze prijs te winnen in de informatica.
Machine-learning-algoritme
[bewerken | brontekst bewerken]In 1955, vijf jaar later, werd het bewijs van turing aangetoond met de Logic Theorist, een geschreven computerprogramma door Allen Newell, Cliff Shaw en Herbert Simon. Dit wordt tegenwoordig gezien als de eerste kunstmatige intelligentieprogramma en werd gepresenteerd in 1956 tijdens Dartmouth Summer Research Project on Artificial Intelligence (DSRPAI), georganiseerd door John McCarthy en Marvin Minsky. McCarthy gebruikte voor dit evenement de term "Kunstmatige intelligentie", de Nederlandse vertaling van zijn zelf bedachte Engelse term "Artificial Intelligence".
Vanaf 1957 kon een computer meer en meer informatie opslaan wat een opleving gaf om AI-systemen verder te ontwikkelen. Allen Newell, Cliff Shaw en Herbert Simon van RAND Corporation gaven in 1957 na de Logic Theorist een demonstratie van de General Problem Solver (GPS) met hun vernieuwde algoritme genaamd means–ends analysis, het allereerste machine-learning-algoritme dat tegenwoordig bij sommige AI-systemen nog steeds gebruikt wordt.
Eerste chatbot
[bewerken | brontekst bewerken]Midden jaren 60 ontstond er forse verbeteringen in het oplossen van problemen met de nieuwe machinelearning-algoritme-aanpak en werd de chatbot ELIZA geïntroduceerd door Joseph Weizenbaum, een Duitse informaticus die er in slaagde successen te boeken met zijn interpretatie van gesproken taal met computers. Een persoon kan met ELIZA een gesprek voeren en de reacties van het programma komen tot stand in de vorm van een patroonvergelijking. Sinds 2008 wordt er jaarlijks een Weizenbaum Award uitgereikt in het wetenschappelijk tijdschrift Ethics and Information Technology.
Onderzoek en financiering
[bewerken | brontekst bewerken]In de jaren 1960-1969 financierde DARPA, het onderzoeksinstituut van het Amerikaans leger, researchprojecten rond kunstmatige intelligentie.[18] In 1969 kwam de financiering zwaar onder druk te staan door gebrek aan rekenkracht en opslagmogelijkheden. Hans Moravec, destijds promovendus van McCarthy, verklaarde dat computers nog steeds miljoenen keren te zwak waren om informatie te tonen.
Kunstmatige intelligentie is een interdisciplinair vakgebied. De onderzoekgebieden variëren van informatica tot datawetenschappen. Een greep uit deze gebieden: patroonvergelijkingen, booleaanse algebra, cognitieve psychologie, logica, statistiek en linguïstiek.
Chinese-kamer-experiment
[bewerken | brontekst bewerken]Begin jaren 80 liet filosoof John Searle weten het niet volledig eens te zijn met de conclusie van Turing. Volgens Turing zijn sommige computerprogramma’s intelligent te noemen maar moet het wel de turingtest doorstaan. Maar Searle bedacht en publiceerde in 1980 hiervoor het Chinese-kamer-experiment als tegenargument, een gedachte-experiment dat aantoont dat als een computer zich precies gedraagt als een mens, nog niet duidelijk is dat de computer ook denkt als een mens als deze de turingtest doorstaat. Hij neemt een mens als voorbeeld in een kamer dat Chinese tekens moet vertalen aan de hand van een codeboek. Een persoon die de vertaling overhandigd krijgt, zal denken dat de vertaler Chinees kan. Maar de persoon in de Chinese kamer kan evengoed een computer zijn.
Beide experimenten hebben een relevantie. Stel dat een kleuter een aantal foto’s van katten te zien krijgt. Dan zal de gemiddelde kleuter daarna een kat kunnen herkennen, maar volgens het Chinese-kamer-experiment zegt dat nog niets over hoe intelligent de kleuter is. Wanneer een computer ook een kat kan herkennen, vertoont de computer volgens de turingtest dezelfde mate van intelligentie als de kleuter. Dus is het moeilijk te definiëren wat intelligentie nu precies inhoudt. Maar voor AI hoeft dat niet per definitie een probleem te zijn vandaag de dag, want het is immers gedefinieerd in woorden wat de streefdoelen zijn voor hedendaagse AI. (Zie tabel type AI).
Hopfield-netwerk
[bewerken | brontekst bewerken]Rond de jaren 80 werd AI-ontwikkeling verder aangewakkerd mede door John Hopfield en David Rumelhart, zij populariseerden in 1982 een deep-learning-techniek waarmee computers kunnen leren van menselijke ervaringen, ook het Hopfield-netwerk genoemd. Dit zorgde voor een boost en een verbeterde algoritmische toolkit met een verhoging van fondsen tot wel 400 miljoen dollar tussen 1982 en 1990. Rond dezelfde periode introduceerde Edward Feigenbaum ook zijn besluitvormingsproces, een expertsysteem om een menselijke expert na te bootsen.
In 2024 won de Amerikaan John Hopfield en de Canadees Geoffrey Hinton samen de Nobelprijs van Fysica als pioniers in het AI-onderzoek en neurale netwerk. Hopfield won voor de fysische eigenschap van atomen en Hinton voor het statistisch netwerk van zijn boltzmann-machine.[19]
Publieke belangstelling
[bewerken | brontekst bewerken]Vanaf 1990 viel de artificiële intelligentie niet langer meer onder het onderwerp "onderzoek", maar onder iets dat steeds vaker in de praktijk werd toegepast. Ondanks dat er geen grote financieringen meer werden toegekend, kwam AI toch in een stroomversnelling terecht omdat de opslagcapaciteiten toenamen. Dit is de hoofdreden waarom computer Deep Blue de wereldkampioen Gary Kasparov schaken in 1997 kon verslaan, en eveneens de Chinese Go-kampioen Ke Jie in 2017 kon verliezen van de computer Google's AlphaGo. Dit berust op wiskundige berekeningen en besluitvorming die vanuit elke gegeven startpositie vooruit denkt en de stellingen evalueert. De vereiste parameters konden (beperkt) getuned worden. Dit behoort tot het leermodel versterkt leren.
In datzelfde jaar, in 1997, werd de spraakherkenningssoftware ontwikkeld door Dragon Systems en geïntegreerd in Windows, alsook Kismet, een robot ontwikkeld door Cynthia Breazeal om emoties te herkennen en te tonen. In de jaren 90 en 2000 waren veel van de historische doelen van kunstmatige intelligentie eindelijk bereikt.
Doorbraak
[bewerken | brontekst bewerken]Ondanks de middelen op gebied van machinelearning al jaren voorhanden waren, kwam er pas in november 2022 de allereerste algemene AI-chatbot ChatGPT op de markt voor het grote publiek door OpenAI. Mede te danken aan de wet van Moore en de mogelijkheden van de rekenkracht, lanceerde grote softwaregiganten in een zeer korte tijd ook plots een AI-chatbot, zoals Google Gemini en Microsoft 365 Copilot. We leven in een tijd waarin enorme hoeveelheden ruwe omslachtige data door een computer kan worden verzameld en verwerkt tot informatie en patroonpunten. In de nabije toekomst liggen nog vele potentiële doorbraken in de artificiële intelligentie te wachten, maar wanneer de echte generatieve-AI aanbreekt en hoe die er uit zal zien weet momenteel nog niemand.
Controleorganen
[bewerken | brontekst bewerken]België
[bewerken | brontekst bewerken]In België wordt het IT-beleid, met onder meer AI, overkoepeld door de F.O.D. Beleid en Ondersteuning, voor Vlaanderen door de Vlaamse Adviesraad voor Innoveren en Ondernemen (VARIO).
Nederland
[bewerken | brontekst bewerken]AI is de gezamenlijke verantwoordelijkheid van de ministeries van Economische Zaken, Justitie en Binnenlandse Zaken.[20]
Europese Unie
[bewerken | brontekst bewerken]Op 21 april 2021 publiceerde de Europese Commissie de tekst van de Verordening inzake de Europese aanpak op het gebied van kunstmatige intelligentie.[21] De tekst voorziet ook de oprichting van de European Artificial Intelligence Board, die belast zal worden met de uitvoering van de wetgeving en het vastleggen van best practices.
Internationaal
[bewerken | brontekst bewerken]Verschillende internationale instellingen en organisaties hebben gepleit voor een verantwoorde regulering (governance) van kunstmatige intelligentie:
- Canadese instellingen lanceerden, op initiatief van de Universiteit van Montreal, in 2018 de Montréal Declaration for a Responsible Development of Artificial Intelligence.[22]
- De Mozilla Foundation noemde in 2020 in haar “Witboek over Betrouwbare AI” een reeks belangrijke uitdagingen die moeten worden aangepakt via regelgeving en overleg.[23]
- De UNESCO keurde in november 2021 een “Aanbeveling over de Ethiek van Kunstmatige Intelligentie” goed,[24] en publiceerde in 2023 “Ontbrekende schakels in AI-governance”.[25]
- De Raad van Europa publiceerde in maart 2023 haar pleidooi voor internationale regulering van kunstmatige intelligentie.[26]
Een belangrijke wereldconferentie is de AI Safety Summit, voor het eerst gehouden op een tweedaagse bijeenkomst, eind 2023, in Bletchley Park in het Verenigd Koninkrijk. De mogelijk 'serieuze en zelfs catastrofale' gevaren van kunstmatige intelligentie werden daar internationaal erkend in de “Bletchley-verklaring” van 1 november 2023, ondertekend door 28 landen, waaronder de VS en het VK, China, Brazilië, India, Japan, plus de Europese Unie.[27][28][29] De volgende conferenties zijn voorzien in mei 2024 in Zuid-Korea, en eind 2024 in Frankrijk. Critici stelden echter dat op de Summit “niet de juiste vragen waren gesteld”.[30]
Naar aanleiding van de AI Safety Summit kondigde de secretaris-generaal van de VN de oprichting aan van een Hoog Adviesorgaan voor kunstmatige intelligentie, dat onderzoek moet uitvoeren en aanbevelingen uitbrengen voor de internationale governance van AI.[31]
“Openheid (open source), transparantie en brede toegang is dan weer de sleutel om de huidige en toekomstige schade van AI-systemen te beperken”, aldus meer dan 300 computerwetenschappers en vooraanstaande IT'ers, in een open brief van 31 oktober 2023, onder de koepel van de Mozilla Foundation.[32]
AI-index
[bewerken | brontekst bewerken]Sedert 2018 publiceert het Institute for Human-Centered AI aan de Stanford-universiteit een jaarlijkse AI index,[33] waarin gegevens met betrekking tot kunstmatige intelligentie worden verzameld, met de bedoeling een grondiger en genuanceerder begrip te ontwikkelen van het complexe gebied van AI.
De editie 2024[34] stelt vast: “een decennium geleden waren de beste AI-systemen ter wereld niet in staat om objecten in afbeeldingen op een menselijk niveau te classificeren. AI had moeite met taalbegrip en kon geen wiskundige problemen oplossen. Tegenwoordig overtreffen AI-systemen vaak menselijke prestaties op standaard benchmarks.” Het rapport vat de belangrijkste trends samen:
- AI verslaat mensen bij sommige taken, maar niet bij alle.
- De techindustrie blijft het AI-onderzoek domineren (ten opzichte van de academische wereld).
- Trainingskosten voor nieuwe modellen stijgen snel.
- De Verenigde Staten kloppen China, de EU en het Verenigd Koninkrijk als de belangrijkste bron van AI-topmodellen.
- Robuuste en gestandaardiseerde evaluaties voor verantwoorde (risico’s en beperkingen) LLM-taalmodellen ontbreken; elke ontwikkelaar gebruikt eigen benchmarks.
- Investeringen in generatieve AI schieten omhoog.
- AI maakt werknemers productiever en leidt tot werk van hogere kwaliteit, zo blijkt uit de cijfers, al is nuance geboden.
- Wetenschappelijke vooruitgang is in een stroomversnelling gekomen dankzij AI.
- Regulering van AI (regels en reglementen) neemt sterk in aantal toe in de Verenigde Staten.
- Kennis en bewustzijn rond de potentiële impact van AI is wereldwijd toegenomen, maar ook de nervositeit.
Een peiling uit 2023 in 31 landen, uitgevoerd door Ipsos, wees op gemengde gevoelens ten aanzien van AI:
- Het vertrouwen in AI varieert sterk per regio; het is over het algemeen veel hoger in opkomende markten en onder mensen onder de 40 dan in hoge-inkomenslanden en onder Gen X'ers en Boomers.
- Het vertrouwen van mensen dat bedrijven die AI gebruiken hun persoonlijke gegevens zullen beschermen, varieert van 72% in Thailand tot slechts 32% in Frankrijk, Japan en de VS.
- Het percentage mensen dat erop vertrouwt dat AI groepen mensen niet zal discrimineren, is nog sterker verdeeld over de landen.
- De nervositeit rond AI is het hoogst in alle overwegend Engelstalige landen en het laagst in Japan, Zuid-Korea en Oost-Europa.[35]
Europese AI-modellen
[bewerken | brontekst bewerken]Vanaf 2020 ontstonden in verschillende Europese landen projecten voor kunstmatige intelligentie,[36] veelal grote taalmodellen (LLM), meestal in open source, en sommige modellen “spreken” meerdere Europese talen. Het gaat onder meer om:
- Bulgarije: Instituut voor Informatica, Kunstmatige Intelligentie en Technologie (INSAIT).
- Denemarken: Danish Foundation Models.
- Duitsland: Aleph-alpha.
- Finland: Turku universiteit.
- Frankrijk: het reeds eerder bestaande BLOOM, en daarnaast Mistral, dat ook diende als ruggengraat van verschillende andere Europeestalige modellen.
- Griekenland: Ubitech AIlabs.
- Italië: Modello Italia, door de bedrijven Cineca en iGenius.
- Letland: LVBERT, aan de Universiteit van Letland (IMCS).
- Nederland: GPT-NL, door TNO en anderen.
- Oostenrijk: xLSTM, door het Technologisch Instituut aan de Johannes Kepler Universiteit Linz.
- Polen: PLLuM, door een samenwerking van enkele instituten.
- Roemenië: ILDS, Instituut voor Logica en Informatica van Boekarest.
- Spanje: opvolger van pioniermodel "MarIA".
- Tsjechië: model, in ontwikkeling bij zoekmachine Seznam.
- Zweden: GPT-SW3, door AI Sweden, aan de Technische Universiteit Chalmers in Göteborg.
Internationale AI-modellen
[bewerken | brontekst bewerken]China
[bewerken | brontekst bewerken]Hoewel onderzoek naar kunstmatige intelligentie reeds op gang kwam tijdens de economische hervormingen onder Deng Xiaoping, heeft de regering pas sinds 2006 gestaag een nationale agenda voor de ontwikkeling van kunstmatige intelligentie ontwikkeld, waardoor China na 2020 is uitgegroeid tot een van de leidende naties op het gebied van onderzoek en ontwikkeling van kunstmatige intelligentie.[37] De Chinese overheid ziet kunstmatige intelligentie als een pijler van China's streven om een technologische supermacht te worden.[38] Een van de belangrijkste instellingen is het Beijing Zhiyuan Onderzoeksinstituut voor Kunstmatige Intelligentie, afgekort tot Zhiyuan Instituut.
India
[bewerken | brontekst bewerken]Onder de slogan “#AiforAll” ligt in India de nadruk op de toepassing van kunstmatige intelligentie in de gezondheidszorg, de landbouw, het onderwijs, slimme steden en vervoer. Op nationaal niveau werd de oprichting van onderzoeksinstituten gestimuleerd, naast een nationale strategie om onderzoeksinspanningen te coördineren en samenwerking te bevorderen. Opleiding en bijscholing van werknemers, ethische overwegingen, privacybescherming en intellectuele eigendomsrechten worden benadrukt als cruciale aandachtspunten. Het overheidsbeleid wordt onder meer gecoördineerd door NITI Aayog, National Institution for Transforming India, een denktank en adviesorgaan van de overheid.
India telt een groeiend aantal AI-bedrijven, waaronder Zoho Corporation.
Rusland
[bewerken | brontekst bewerken]Pas in 2019 werd in Rusland ernstig werk gemaakt van AI-modellen, onder coördinatie van de “AI Russia Alliance”.[39]
Verenigde Arabische Emiraten
[bewerken | brontekst bewerken]- Arabisch: in de Verenigde Arabische Emiraten werd in 2023 het opensource-taalmodel Jais voorgesteld. Een van de uitdagingen voor Arabischtalige modellen is de complexiteit van, en regionale verschillen in de taal.[40]
Kritische beoordelingen
[bewerken | brontekst bewerken]Artificiële intelligentie biedt vele voordelen maar soms ook nadelen. De AI-evolutie kan niet meer gestopt worden. Bepaalde kritische zaken kunnen in de toekomst nog wel verholpen worden door machines beter te trainen en te hertrainen met verbeterde algoritmische technologieën. Maar sommige risico's en nadelen zullen minder, moeilijk of zelfs nooit opgelost geraken.
Sensibilisering
[bewerken | brontekst bewerken]Sommige verontruste wetenschappers, onder wie Eliezer Yudkowsky, hebben zelfs gepleit voor een volledige stopzetting van AI-experimenten en -ontwikkelingen van geavanceerde taalmodellen.[41] In mei 2023 kondigde computerwetenschapper Geoffrey Hinton publiekelijk zijn vertrek bij Google Brain aan, vanwege bezorgdheid over de risico's van de AI-technologie.[42]
Eind maart 2023 werd in een open brief bij Future of Life opgeroepen om alle trainingen van AI's die sterker zijn dan GPT-4 gedurende zes maanden te pauzeren. De brief was ondertekend door prominente AI-onderzoekers en technici, onder wie AI-pionier Yoshua Bengio, Apple medeoprichter Steve Wozniak en Tesla-CEO Elon Musk. In de brief uitten ze hun bezorgdheid over de gevaren van de AI-ontwikkeling, zowel op korte termijn als een meer fundamenteel, existentieel risico op langere termijn, bijvoorbeeld door technologische singulariteit.[43] OpenAI-CEO Sam Altman ondertekende de brief niet, omdat volgens hem OpenAI al prioriteit geeft aan veiligheid.[44]
Volgens de Australische onderzoekster Kate Crawford is kunstmatige intelligentie ondoordacht toegepast in een hele reeks omgevingen, van onderwijs via justitie tot personeelsbeleid. Terwijl machinaal leren wel cruciaal is geweest in bijvoorbeeld de klimaatwetenschap of de astronomie, is het volgens haar schadelijk wanneer het wordt toegepast op sociale systemen, en wanneer daarbij data worden gebruikt die gekleurd zijn in historische en structurele vooroordelen.[45][46] De Afro-Amerikaanse computerwetenschapper en voormalig lid van het Google Ethical Artificial Intelligence Team Timnit Gebru voert eveneens onderzoek naar diversiteit bij kunstmatige intelligentie.[47]
In haar boek Automating Inequality (“Automatisering van de ongelijkheid”) uit 2019 onderzocht Virginia Eubanks de impact van datamining, beleidsalgoritmen en voorspellende risicomodellen op arme mensen en mensen uit de arbeidersklasse in Amerika.[48]
Het Internationaal Monetair Fonds (IMF) bevestigde in een studie van 2024 het risico op toenemende ongelijkheid door kunstmatige intelligentie.[49][50]
Auteursrechten
[bewerken | brontekst bewerken]Voor het 'trainen' van AI-systemen worden miljarden tekstfragmenten en afbeeldingen uit het internet gebruikt en zonder bronvermelding in de resultaten verwerkt. Daarmee zouden auteursrechten van schrijvers en kunstenaars zijn geschonden en hebben een class-action-zaak gestart tegen Stability AI.[51] Maar ook grote mediabedrijven, het Internet Archive en sociale media zoals Twitter en Reddit namen al maatregelen om het – in hun ogen ongeoorloofde – massaal opzuigen van informatie uit hun websites (“web scraping”) voor de training van taalmodellen tegen te gaan.[52] Een aparte kwestie is of op een bepaald moment aan een AI-systeem zelf auteursrecht zou kunnen worden toegekend.[53] Het zou dan vermoedelijk moeten gaan om een eigen prestatie, waarbij het de vraag is wat dat eigen betekent (of zou kunnen betekenen).
Begin oktober 2024 waarschuwden auteursverenigingen voor een experiment van uitgeverij VBK om boeken met behulp van KI naar het Engels te laten vertalen en als e-boek uit te brengen op de Engelstalige markt.[54]
Publiek gebruik
[bewerken | brontekst bewerken]De Mozilla Foundation pleitte in september 2024 in het rapport Public AI[55] voor publiek eigendom van KI-aangedreven instrumenten: “een KI-ecosysteem dat uitsluitend door de markt wordt aangedreven, zal prioriteit geven aan een beperkt aantal winstgevende toepassingen. Ondertussen wordt er te weinig geld uitgetrokken voor belangrijk werk - zoals het gebruik van AI om illegale mijnbouw op te sporen, overlegdemocratie mogelijk te maken en opensource-farmaceutische ontwikkeling - in verhouding tot de maatschappelijke waarde ervan. De status quo vormt een groot structureel risico: we kunnen niet vertrouwen op een paar bedrijven om alles te maken wat onze maatschappij nodig heeft van KI, en we kunnen ons het risico niet veroorloven dat ze dat niet doen.”[55] Ook anderen waarschuwden voor een eenzijdig-commerciële uitrol van KI-toepassingen,[56] en pleitten - zoals de VN - voor een “KI-beleid voor de mensheid”,[55][57] Anderzijds groeide in de sector sedert 2022 de belangstelling voor non-profit- toepassingen van kunstmatige intelligentie,[58] in 2024 ook door OpenAI zelf,[59] en Google’s rapport AI in Action: Accelerating Progress Towards the Sustainable Development Goals van mei 2024.[60] Intussen zijn al enkele open source-platformen voor KI in gebruik,[55] onder meer BLOOM.
Werkgelegenheid
[bewerken | brontekst bewerken]De vrees bestaat voor verlies van werkgelegenheid, wanneer allerhande werknemers vervangen worden door automatisering met behulp van kunstmatige intelligentie. Dat was in 2023 al de reden voor protesten van Amerikaanse scenarioschrijvers.[61] Ook IBM kondigde aan grotendeels te stoppen met het werven van nieuwe medewerkers in functies die vervangen kunnen worden door AI en automatisering.[62] De impact is echter zeer ongelijk verdeeld naar gender: volgens Amerikaans onderzoek uit 2023 zouden acht van de tien vrouwen (58,87 miljoen) in de Amerikaanse beroepsbevolking beroepen uitoefenen die in hoge mate blootstaan aan generatieve AI-automatisering (meer dan 25% van de beroepstaken) tegenover zes van de tien mannen (48,62 miljoen).[63] Ook de OESO waarschuwde in 2023 in het jaarlijks rapport Employment Outlook: “De steeds snellere ontwikkelingen op het gebied van AI zullen waarschijnlijk een grote invloed hebben op de werkgelegenheid (…) dringend actie moet worden ondernomen (…) de risico's aan te pakken.[64]
Op 2 maart 2023 berichtte een AI-geassisteerde nieuwswebsite dat Mathias Döpfner, bestuursvoorzitter van Axel Springer SE, ervoor waarschuwde dat journalisten het risico lopen te worden vervangen door AI-systemen zoals ChatGPT.[65]
De methodes waarmee kunstmatige intelligentiesystemen werken, zijn kwetsbaar voor specifieke AI-aanvallen, die fundamenteel verschillen van traditionele cyberaanvallen. Hackers kunnen deze systemen dan manipuleren om een kwaadaardig einddoel te dienen. Naarmate AI-systemen verder worden geïntegreerd in kritieke onderdelen van de samenleving vormen deze aanvallen een verregaand veiligheidsrisico.[66]
Politieke voorkeur
[bewerken | brontekst bewerken]Onderzoek uit 2023 suggereerde dat veel grote LLM's en met name ChatGPT een systematische vooringenomenheid vertoonde ten gunste van de Democraten in de Verenigde Staten en de Labour Party in het Verenigd Koninkrijk.[67] Volgens ander onderzoek heeft ChatGPT een pro-milieu- en links-libertarische oriëntatie.[68]
Personal assistent
[bewerken | brontekst bewerken]Er komen steeds meer apps op de markt[69] die door toepassing van AI als personal assistent kunnen dienen, zoals er ook robots zijn die een dergelijke functie hebben. Veel van die assistenten zijn zo geprogrammeerd dat zij hun gebruiker tevreden willen stellen. Door voortdurende wisselwerking tussen gebruiker en assistent kan de gebruiker daardoor in een bubble terechtkomen van zelfbevestiging, zoals dat op soortgelijke manier gebeurt bij het gebruik van sociale media. Maar zo'n assistent kan ook zo geprogrammeerd worden dat hij de gebruiker confronteert met andere meningen, zodat hij een sparring partner[70] wordt en het kritisch vermogen van de gebruiker stimuleert.
Vrije meningsuiting
[bewerken | brontekst bewerken]Het inhoudelijk gebruiksbeleid van grote chatbots blijkt niet te voldoen aan de internationale normen inzake vrijheid van meningsuiting, die op dit punt meer toelaten. De vermoedelijke oorzaak ligt in het ontbreken van een solide cultuur van vrije meningsuiting, waardoor de bedrijven die generatieve AI-tools produceren en beheren, onder vuur blijven liggen van tegenstrijdige kampen in een sterk gepolariseerde opiniewereld. AI-chatbots gaan dan in de praktijk vaak uitvoer censureren wanneer ze onderwerpen behandelen die de bedrijven controversieel vinden. Zo bleek uit onderzoek van denktank The Future of Free Speech[71] dat chatbots als ChatGPT en Gemini vooringenomen waren over controversiële onderwerpen zoals “of transgendervrouwen wel of niet mogen deelnemen aan vrouwensporttoernooien” of over “de rol van het Europese kolonialisme in de huidige klimaat- en ongelijkheidcrises”. Concreet weigerden de chatbots inhoud te genereren voor 40% van de 140 “controversiële” prompts die werden ingevoerd. Alle chatbots weigerden bijvoorbeeld berichten te genereren die gekant waren tegen de deelname van transgendervrouwen aan vrouwentoernooien. De meeste chatbots genereerden echter wel berichten waarin hun deelname werd ondersteund.
Energie en grondstoffen
[bewerken | brontekst bewerken]AI-systemen verbruiken viermaal zoveel elektriciteit als servers voor cloudcomputing, hetgeen tot tekorten en competitie kan leiden, nog afgezien van de milieu-impact.[72] Een andere flessenhals is de levering van krachtige microchips. Het Amerikaanse Ministerie van Handel noemde reeds in 2022 geavanceerde AI-systemen “dreigende tekorten aan microchips”.[73]
Ook neurale netwerken zijn energie-intensieve systemen.[74] Enkele ramingen:
- "Eén trainingsronde van het ChatGPT 3.5-model kost ongeveer 500 ton CO2-uitstoot, wat overeenkomt met 1000 auto's die elk 1000 km rijden".[75]
- "ChatGPT gebruikt elke dag dezelfde hoeveelheid energie als 5.000 huizen."[76]
- "Sommige toepassingen van supercomputing zullen de energie van één kerncentrale nodig hebben."[76]
Om hieraan te verhelpen wordt gedacht aan onder meer een vereenvoudiging van processen en systemen,[75] of het nabootsen van natuurlijke hersenprocessen via gepulste neurale netwerken (spiking neural network).[74]
Volgens Sam Altman (OpenAI) heeft kunstmatige intelligentie een energiedoorbraak nodig om haar toekomst te verzekeren.[77][78]
Falend bedrijfsmodel
[bewerken | brontekst bewerken]Internetcritici zoals Cory Doctorow[79][80] en Brian Merchant[81] zien in het enthousiasme van investeerders voor toepassingen als ChatGPT en de hype die ermee gepaard gaat de kenmerken van een groeiende tech-bubbel, omdat volgens hen een solide basis voor het bedrijfsmodel ervan ontbreekt. De zeer hoge kostprijs voor onder meer het ontwikkelen en vooral het energieverbruik van deze grote modellen, en de dreigende rechtszaken over het auteursrecht staan volgens hen niet in verhouding tot de verwachte opbrengsten, waarvoor de vooruitzichten enkel in minder winstgevende applicaties gegarandeerd lijken. Daarenboven zijn de meest winstgevende applicaties intolerant voor de kleine, maar reële foutenmarge van KI, of kunnen deze fouten op termijn kostbare consequenties veroorzaken.[82]
Aansprakelijkheid
[bewerken | brontekst bewerken]Wanneer deels geautomatiseerde systemen bestaan uit een combinatie van kunstmatige intelligentie en menselijke supervisie, kunnen problemen ontstaan bij het toewijzen van aansprakelijkheid wanneer het systeem in de fout gaat. Sommige analisten noemen het concept “een morele kreukelzone” om te beschrijven hoe de verantwoordelijkheid voor een handeling ten onrechte kan worden toegeschreven aan een menselijke actor die echter maar een beperkte controle had over het gedrag van een geautomatiseerd of autonoom systeem. Net zoals de kreukelzone in een auto ontworpen is om de kracht van een botsing te absorberen, kan de mens in een zeer complex en geautomatiseerd systeem gewoon het onderdeel worden - per ongeluk of opzettelijk - dat de grootste morele en juridische verantwoordelijkheden draagt wanneer het hele systeem slecht functioneert.[83]
Fraude
[bewerken | brontekst bewerken]AI-systemen kunnen malware schrijven, en phishingmails komen bijzonder geloofwaardig over.[84]
Omgekeerd bestaat ook het risico dat AI-systemen ten onrechte personen, bijvoorbeeld uitkeringsgerechtigden, bestempelt als fraudeurs, met terugvordering van geldsommen als gevolg. Dat gebeurde in 2023 in Australië met het onder toenmalig minister van Sociale Zaken Scott Morrison uitgerolde AI-gebaseerd systeem Robodebt. De zaak deed denken aan de Nederlandse Toeslagenaffaire.[85]
Gevaren
[bewerken | brontekst bewerken]Het gebruik van kunstmatige intelligentie bij het beheer van vitale infrastructuur zoals energieproductie, vervoersystemen en waterbeheer verhoogt ook de kans op catastrofes bij het wegvallen of ontsporen ervan. Anderzijds kan met behulp van AI een cyberaanval op vitale infrastructuur beraamd worden.[86][87]
Hallucinatie
[bewerken | brontekst bewerken]AI-systemen kunnen een zelfverzekerde reactie produceren die niet lijkt gerechtvaardigd te worden door zijn trainingsgegevens, en niet overeenstemt met de werkelijkheid.
Super AI
[bewerken | brontekst bewerken]Een algoritme-technologie zoals het menselijk brein is nog niet voor vandaag of in de verre toekomst. De kracht van de menselijke intelligentie is dat mensen razendsnel van gedachte kunnen wisselen en inspelen op onverwachte situaties. De basishandelingen van een mens worden automatisch aangestuurd door de hersenen. Zodra iemand een bepaalde vaardigheid niet bezit, treedt denkvermogen op. De menselijke factor is dus in staat iets bewust mee te maken dat leidt tot nieuwe beslissingen en leervermogen. Dit is de vaardigheid die een super-AI minstens zou moeten beheersen om deze fase in te gaan. Het artikel functionalisme gaat dieper in op het technische aspect ervan.
Zie ook
[bewerken | brontekst bewerken]- AI-overname
- Kunstmatige algemene intelligentie
- Taalmodel
- Technologische singulariteit
- Partnership on AI
- De Connectie
Externe links
[bewerken | brontekst bewerken]- AI4Belgium (Belgische alliantie)
- Réseau IA (Wallonië)
- ↑ a b Wat is kunstmatige intelligentie (AI)?. Rijksinspectie Digitale Infrastructuur.
- ↑ a b Definitie van artificiële intelligentie (of kunstmatige intelligentie). Europees Parlement.
- ↑ a b c d e Wat is kunstmatige intelligentie?. Microsoft Azure. Gearchiveerd op 18 augustus 2022.
- ↑ Deze nieuwe app kan zeggen of je kat pijn heeft door gewoon gezichtje te scannen. Het Laatste Nieuws.
- ↑ (en) What are the 3 types of AI? A guide to narrow, general, and super artificial intelligence (24 oktober 2017). Gearchiveerd op 20 september 2024.
- ↑ a b c d The History of Artificial Intelligence - Special Edition on Artificial Intelligence. Harvard-universiteit. Gearchiveerd op 5 Sep 2017 - 1 Oct 2024.
- ↑ a b ChatGPT verbruikt 25 keer meer energie dan Google: "We gebruiken het voor van alles, maar het is die enorme rekenkracht niet waard". VRT NWS.
- ↑ a b Definitie van machine learning in detail. SAP SE.
- ↑ a b Dominique Deckmyn, Een nieuwe stap in de evolutie van artificiële intelligentie: agenten die zelfstandig taken uitvoeren. De Standaard (2 november 2024).
- ↑ Wat is Artificial Intelligence, en hoe kan het jouw bedrijf helpen?. Combell.
- ↑ Can GPT-3 Pass a Writer’s Turing Test?. Gearchiveerd op 5 september 2023.
- ↑ Steeds meer artificiële intelligentie op de werkvloer: krijg je binnenkort een extra dag vrij of wordt je job net overbodig?. VRT NWS.
- ↑ Machine learning-algoritmen. Microsoft Azure.
- ↑ Rik van Rooij, AI in Marketing; 7 tijdbesparende toepassingen. Marketingfacts (21 juli 2022). Gearchiveerd op 27 augustus 2022. Geraadpleegd op 27 augustus 2022.
- ↑ History of AI Use in Video Game Design. Big data analytics news].
- ↑ Hoe pik je een AI-foto eruit? Een expert geeft tips. Geographic Channel Nederland.
- ↑ Omgekeerde wereld: fotograaf gediskwalificeerd omdat hij AI-fotowedstrijd wint met échte foto. VRT NWS.
- ↑ (en) Joshua Alspector, Thomas G. Dietterich, DARPA’s Role in Machine Learning. AI Magazine; La Canada Vol. 41, Iss. 2, p. 36-48. (2020). Gearchiveerd op 5 september 2023. Geraadpleegd op 12 september 2021.
- ↑ Nobelprijs Fysica voor pioniers in AI-onderzoek. De Standaard.
- ↑ Fiche 2: Verordening betreffende Kunstmatige Intelligentie. overheid.nl. Geraadpleegd op 2 november 2023.
- ↑ Proposal for a REGULATION...ON ARTIFICIAL INTELLIGENCE... - COM/2021/206 final. Europese Commissie (21 april 2021). Gearchiveerd op 23 augustus 2021. Geraadpleegd op 11 september 2021.
- ↑ (en) Montreal Declaration Responsible AI (2018). Gearchiveerd op 7 augustus 2020. Geraadpleegd op 1 juli 2023.
- ↑ (en) Becca Ricks, Mark Surman, Creating Trustworthy AI - a Mozilla white paper on challenges and opportunities in the AI era. Mozilla Foundation (15 december 2020). Gearchiveerd op 7 januari 2023.
- ↑ (en) Recommendation on the Ethics of Artificial Intelligence. UNESCO (16 mei 2023). Gearchiveerd op 29 mei 2023.
- ↑ (en) Mila – Quebec Artificial Intelligence Institute, Missing links in AI governance. UNESCO (2023). Gearchiveerd op 4 juli 2023.
- ↑ (en) Council of Europe and Artificial Intelligence. Gearchiveerd op 5 september 2023.
- ↑ Nederland ondertekent verklaring over 'serieuze' gevaren AI. bnr.nl (1 november 2023). Gearchiveerd op 1 november 2023.
- ↑ (en) The Bletchley Declaration by Countries Attending the AI Safety Summit, 1-2 November 2023. gov.uk (1 november 2023). Gearchiveerd op 1 november 2023.
- ↑ (en) AI Safety Summit: China, US and EU agree to work together. Reuters. Gearchiveerd op 1 november 2023.
- ↑ Reijer Passchier, Op de wereldtop over AI werden de verkeerde vragen gesteld. Want het echte probleem van AI is niet AI. De Morgen (8 november 2023).
- ↑ (en) High-level Advisory Body on Artificial Intelligence. VN (27 oktober 2023). Gearchiveerd op 29 oktober 2023.
- ↑ (en) Joint Statement on AI Safety and Openness. Mozilla Foundation (31 oktober 2023). Gearchiveerd op 4 november 2023.
- ↑ The AI Index
- ↑ (en) AI INDEX Annual Report. Welcome to the 2024 AI Index Report. Stanford-universiteit (april 2024). Gearchiveerd op 15 april 2024.
- ↑ (en) GLOBAL VIEWS ON A.I. A 31-country Global Advisor survey. Ipsos (juli 2023). Gearchiveerd op 12 juli 2023.
- ↑ (en) Gian Volpicelli, Giovanna Coi, Will American AI kill European culture?. Politico Europe (9 april 2024). Gearchiveerd op 10 april 2024.
- ↑ (en) Yujia He, How China is preparing for an AI-powered Future (2017). Gearchiveerd op 15 februari 2021.
- ↑ Luong, Ngor, e.a. (2022). Chinese Power and Artificial Intelligence. Routledge. ISBN 9781003212980.
- ↑ (en) Developing Artificial Intelligence in Russia: Objectives and Reality. Geraadpleegd op 11 april 2024.
- ↑ (en) Arabic AI could help open doors for other languages. CNN (4 oktober 2023). Gearchiveerd op 4 oktober 2023.
- ↑ (en) Eliezer Yudkowsky, Pausing AI Developments Isn't Enough. We Need to Shut it All Down. Time (29 maart 2023). Gearchiveerd op 2 april 2023.
- ↑ 'Godfather van kunstmatige intelligentie' verlaat Google en waarschuwt voor AI. Nederlandse Omroep Stichting (2 mei 2023). Gearchiveerd op 3 mei 2023.
- ↑ (en) Cecily Mauran, Open letter seeking pause on AI experiments signed by Steve Wozniak, Elon Musk, and more (29 maart 2023). Gearchiveerd op 27 maart 2023.
- ↑ (en) The Massive Name in AI Noticeably Absent From Pause Letter Signed by Musk. Newsweek (29 maart 2023). Gearchiveerd op 4 september 2023.
- ↑ Dominique Deckmyn, ‘We moeten leren nee te zeggen tegen AI’. De Standaard (11 september 2021). Gearchiveerd op 11 september 2021. Geraadpleegd op 13 september 2021.
- ↑ (en) Crawford, Kate (6 april 2021). Atlas of AI. Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press, pp. 336. ISBN 9780300209570. Gearchiveerd op 24 augustus 2021. Geraadpleegd op 13 september 2021.
- ↑ Na haar ontslag bij Google gaat Timnit Gebru nu zelf de ethiek van algoritmen onderzoeken. de Volkskrant (9 december 2021).
- ↑ Eubanks, Virginia (6 augustus 2019). Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. Macmillan Publishers. ISBN 9781250215789. Gearchiveerd op 5 juli 2023.
- ↑ IMF: AI raakt bijna veertig procent van de banen, vergroot ongelijkheid (15 januari 2024).
- ↑ (en) Kristalina Georgieva, AI Will Transform the Global Economy. Let’s Make Sure It Benefits Humanity.. IMF (14 januari 2024). Gearchiveerd op 15 januari 2024.
- ↑ Kunstenaars klagen AI-bedrijven aan om schending auteursrecht. RTL Nieuws (17 januari 2023). Gearchiveerd op 5 september 2023.
- ↑ (en) James Vincent, AI is killing the old web, and the new web struggles to be born. The Verge (26 juni 2023). Gearchiveerd op 26 juni 2023.
- ↑ Doomen, Jasper. The artificial intelligence entity as a legal person. Information & Communications Technology Law 32 (3): 277–278.
- ↑ Waarschuwing: VBK gebruikt AI-vertalingen voor Engelstalige markt. Auteursbond (3 oktober 2024).
- ↑ a b c d (en) Public AI (30 september 2024). Gearchiveerd op 2 oktober 2024.
- ↑ (en) Cecilia Rikap e.a., Dynamics of Corporate Governance Beyond Ownership in AI (15 mei 2024). Gearchiveerd op 21 mei 2024.
- ↑ (en) Governing AI for Humanity. UN AI Advisory Board (september 2024). Gearchiveerd op 19 september 2024.
- ↑ (en) Yen-Chia Hsu e.a., Empowering local communities using artificial intelligence. Patterns, Volume 3, Issue 3, 2022, 100449, ISSN 2666-3899 (11 maart 2022). Gearchiveerd op 11 maart 2022.
- ↑ (en) Introducing OpenAI for Nonprofits. OpenAI (30 mei 2024). Gearchiveerd op 30 mei 2024.
- ↑ (en) Brigitte Hoyer Gosselink e.a., AI in Action: Accelerating Progress Towards the Sustainable Development Goals. Google Research (15 mei 2024). Gearchiveerd op 15 mei 2024.
- ↑ Film- en tv-scenaristen staken in Hollywood: welke gevolgen kan dit hebben voor films, series en tv-programma's?. vrtnws.be (2 mei 2023). Gearchiveerd op 11 mei 2023.
- ↑ IBM stopt met werven voor functies die AI ook kan doen (3 mei 2023). Gearchiveerd op 14 mei 2023.
- ↑ (en) Will Generative AI Disproportionately Affect the Jobs of Women?. Kenan Institute for Ethics (18 april 2023). Gearchiveerd op 10 juli 2023.
- ↑ (en) Employment Outlook 2023 - Artificial intelligence and jobs - An urgent need to act. OESO (2023). Gearchiveerd op 20 juli 2023. Geraadpleegd op 20 juli 2023.
- ↑ Axel Springer CEO waarschuwt: Journalisten dreigen te worden vervangen door AI-systemen (2 maart 2023). Gearchiveerd op 31 maart 2023.
- ↑ (en) Marcus Comiter, Attacking Artificial Intelligence. AI’s Security Vulnerability and What Policymakers Can Do About It. Kennedy School (augustus 2019). Gearchiveerd op 4 februari 2020.
- ↑ (en) F. Motoki e.a., More human than human: measuring ChatGPT political bias.. Public Choice 198, 3–23 (17 augustus 2023). Gearchiveerd op 9 april 2024.
- ↑ https://arxiv.org/abs/2301.01768
- ↑ https://www.care.com/c/personal-assistant-app/. Gearchiveerd op 5 september 2023.
- ↑ https://dtusciencepark.com/events/digital-sparring-partner-help-a-team-better-collaborate/. Gearchiveerd op 5 september 2023.
- ↑ (en) Jacob Mchangama, Jordi Calvet-Bademunt, Report: Freedom of Expression in Generative AI – A Snapshot of Content Policies (1 maart 2024). Gearchiveerd op 14 maart 2024.
- ↑ (en) Power mad: AI’s massive energy demand risks causing major environmental headaches. Reuters (4 december 2023). Gearchiveerd op 27 januari 2024.
- ↑ (en) Chips at Risk. How the chip shortage impacts AI. (2 februari 2022). Gearchiveerd op 1 oktober 2022.
- ↑ a b Zuinige neurale netwerken grote stap... (8 mei 2023). Gearchiveerd op 28 mei 2023.
- ↑ a b Luís Cruz, Duurzame kunstmatige intelligentie: van ChatGPT naar groene AI. TU Delft (2023). Gearchiveerd op 5 juni 2023.
- ↑ a b Computerchips zijn de nieuwe klimaatbommen. De Standaard (19 mei 2023). Gearchiveerd op 5 september 2023.
- ↑ (en) OpenAI CEO Altman says at Davos future AI depends on energy breakthrough. Reuters (16 januari 2024). Gearchiveerd op 16 januari 2024.
- ↑ ‘AI heeft energiedoorbraak nodig’, meent Sam Altman (OpenAI) (17 januari 2024).
- ↑ (en) Cory Doctorow, Cory Doctorow: What Kind of Bubble is AI? (18 december 2023). Gearchiveerd op 24 december 2023.
- ↑ (en) Cory Doctorow, Pluralistic: "Humans in the loop" must detect the hardest-to-spot errors, at superhuman speed (23 Apr 2024) (23 april 2024). Gearchiveerd op 22 april 2024.
- ↑ (en) Merchant, Brian (26 september 2023). Blood in the Machine: The Origins of the Rebellion Against Big Tech. Little, Brown and Company. ISBN 9780316487740.
- ↑ (en) Hohenstein, Jess, Jung, Maite (2020). AI as a moral crumple zone: The effects of AI-mediated communication on attribution and trust.. Computers in Human Behavior 106 (106190). ISSN:0747-5632,. DOI:10.1016/j.chb.2019.106190.
- ↑ (en) Elish, Madeleine Clare (23 maart 2019). Moral Crumple Zones: Cautionary Tales in Human-Robot Interaction. Engaging Science, Technology, and Society 5: 40–60. ISSN:2413-8053. DOI:10.17351/ests2019.260.
- ↑ Onderzoekers schrijven malware en phishing mails met ChatGPT. techzine.nl (20 december 2022). Gearchiveerd op 5 september 2023.
- ↑ Algoritme rekende lukraak ‘schulden’ uit van Australiërs met een uitkering. nrc.nl (10 juli 2023). Gearchiveerd op 15 juli 2023.
- ↑ (en) NATO tests AI’s ability to protect critical infrastructure against cyberattacks (5 januari 2023). Gearchiveerd op 30 mei 2023.
- ↑ (en) A. Agarwal & M. J. Nene, Addressing AI Risks in Critical Infrastructure: Formalising the AI Incident Reporting Process. IEEE (CONECCT) (20 september 2024). Gearchiveerd op 20 september 2024.
- A Logical Calculus of the Ideas Immanent in Nervous Activity (1943), Warren McCulloch and Walter Pitts
- Man-Computer Symbiosis, J.C.R. Licklider.
- Minds, Machines and Gödel (1961) John Lucas.
- Gödel, Escher, Bach: an eternal golden braid (1979), Douglas Hofstadter
- Maarten Sukel: De AI-revolutie. Hoe kunstmatige intelligentie de maatschappij gaat veranderen (en daar nu al mee bezig is). Balans, 2024, ISBN 9789463823470