Anthropic
| Anthropic | ||||
|---|---|---|---|---|
| Locatie | ||||
| Hoofdkantoor | San Francisco | |||
| Industrie en producten | ||||
| Industrie(ën) | kunstmatige intelligentie | |||
| Producten/ |
kunstmatige intelligentie, Claude | |||
| Status en tijdlijn | ||||
| Oprichting | 2021 | |||
| Bedrijfsstructuur | ||||
| Rechtsvorm | Privaat bedrijf | |||
| Oprichter(s) | Daniela Amodei Dario Amodei Jared Kaplan Jack Clark Ben Mann | |||
| Aantal werknemers | 500 (2024)[1] | |||
| Financiën | ||||
| Sector(en) | Kunstmatige intelligentie | |||
| Links | ||||
| Website | www | |||
| ||||
Anthropic PBC is een Amerikaans bedrijf dat zich bezighoudt met kunstmatige intelligentie (artificial intelligence, AI). Anthropic heeft een familie van grote taalmodellen (LLM's) ontwikkeld, genaamd Claude, als concurrent van OpenAI's ChatGPT en Googles Gemini.
Anthropic werd opgericht in 2021 door voormalige leden van OpenAI, zus en broer Daniela en Dario Amodei. In september 2023 kondigde Amazon een investering van maximaal 4 miljard dollar aan, gevolgd door een toezegging van 2 miljard dollar van Google in de daaropvolgende maand.
Samenwerking met het Amerikaanse leger
[bewerken | brontekst bewerken]In november 2024 ging Anthropic een partnerschap aan met Palantir en Amazon Web Services om het Claude-model te leveren aan Amerikaanse inlichtingen- en defensiediensten. In juni 2025 kondigde Anthropic een "Claude Gov"-model aan. Ars Technica meldde dat het in juni 2025 in gebruik was bij meerdere Amerikaanse nationale veiligheidsdiensten.
In juli 2025 kondigde het Amerikaanse ministerie van Defensie (DoD) aan dat Anthropic een contract van 200 miljoen dollar had gekregen voor AI in het leger, samen met Google, OpenAI en xAI.
Volgens The Wall Street Journal gebruikte het Amerikaanse leger Claude tijdens de inval in Venezuela in 2026, waarbij 83 mensen om het leven kwamen en president Nicolás Maduro werd gearresteerd. Vanaf februari 2026 maakt het partnerschap van Anthropic met Palantir Claude het enige AI-model dat wordt gebruikt in geheime missies.
Het gebruiksbeleid van Anthropic verbiedt het rechtstreekse gebruik van Claude voor binnenlandse surveillance of in dodelijke autonome wapens. Deze beperkingen verhinderden dat de FBI en de geheime diensten het konden gebruiken. Er is spanning ontstaan over dit beleid tussen het Pentagon en de regering-Trump.
Op 24 februari 2026 dreigde minister van Defensie Pete Hegseth Anthropic vóór 27 februari uit de toeleveringsketen van het ministerie van Defensie te verwijderen als Anthropic geen onbeperkt gebruik van Claude zou toestaan, anders zou hij de Defense Production Act inroepen om onbeperkt gebruik zonder overeenkomst af te dwingen. Op 26 februari verwierp Anthropic de eisen van het Pentagon om de AI-beveiligingsmaatregelen te laten vallen. Op 27 februari, na de deadline, gaf president Donald Trump de Amerikaanse overheidsinstanties opdracht te stoppen met het gebruik van modellen die door Anthropic waren ontwikkeld.[2]
De volgende dag steeg Claude naar de eerste plaats bij de gratis apps in de Apple AppStore.[3]
Op 1 maart 2026 bleek dat de AI van Anthropic nog steeds gebruikt werd bij de Israëlisch-Amerikaanse aanvallen op Iran.[4]
Bronnen
- Dit artikel of een eerdere versie ervan is een (gedeeltelijke) vertaling van het artikel Anthropic op de Engelstalige Wikipedia, dat onder de licentie Creative Commons Naamsvermelding/Gelijk delen valt. Zie de bewerkingsgeschiedenis aldaar.
Referenties
- ↑ "Inside the White-Hot Center of A.I. Doomerism"; gepubliceerd in: The New York Times.
- ↑ Trump aan overheid: zet samenwerking met AI-bedrijf Anthropic stop.
- ↑ (en) Anthropic’s Claude hits No. 1 on Apple’s top free apps list after Pentagon rejection. CNBC (28 februari 2026). Geraadpleegd op 3 maart 2026.
- ↑ (en) US uses Anthropic AI, B-2 bombers and suicide drones in Iran strikes. Reuters (1 maart 2026). Geraadpleegd op 2 maart 2026.