Claude (taalmodel)
| Claude | ||||
|---|---|---|---|---|
| ||||
| Ontwikkelaar(s) | Anthropic PBC | |||
| Uitgebracht | 14 maart 2023 (2 jaar geleden) | |||
| Recentste versie | 3.7 Sonnet (2025-02-24) | |||
| Status | Actief | |||
| Besturingssysteem | webbrowser, application programming interface | |||
| Categorie | Chatbot, groot taalmodel, generative pre-trained transformer | |||
| Website | https://claude.ai/ | |||
| Extra website | https://www.anthropic.com/ | |||
| ||||
Claude is een generatieve kunstmatige intelligentie-assistent ontwikkeld door Anthropic, een AI-onderzoeksbedrijf opgericht door voormalige OpenAI-onderzoekers. Het is een conversationeel AI-systeem gebaseerd op een groot taalmodel (LLM), getraind op grote hoeveelheden tekst en code. Het systeem wordt aangeboden als behulpzaam, veilig en functionerend in overeenstemming met menselijke waarden
Geschiedenis
Claude werd voor het eerst aangekondigd door Anthropic in december 2022. Het bedrijf werd in 2021 opgericht door Dario Amodei (CEO), Daniela Amodei en verschillende andere voormalige OpenAI-onderzoekers. Dario was VP van onderzoek bij OpenAI, Daniela was hoofd veiligheid en beleid.[1] De ontwikkeling van Claude is onderdeel van Anthropics missie om betrouwbare, interpreteerbare en stuurbare AI-systemen te ontwikkelen.
Op 22 mei 2025 bracht Anthropic twee nieuwe modellen uit: Claude Sonnet 4 en Claude Opus 4.[2][3] Het bedrijf rangschikte Opus 4 als "niveau 3" op de schaal van het bedrijf met 4 niveaus, wat betekent dat ze het beschouwen als krachtig genoeg om een "significant hoger risico" te vormen. Anthropic meldde dat Claude tijdens een veiligheidstest met een fictief scenario probeerde een technicus af te persen om uitschakeling te voorkomen.[4]
Technologie
Claude is een generative pre-trained transformer, verder verfijnd met een techniek die Anthropic "Constitutional AI" (CAI) noemt. Hierbij wordt het model niet enkel getraind op menselijke feedback, maar ook op AI-gegeneerde feedback volgens een vooraf opgestelde 'grondwet'.
De aanpak omvat twee fasen:
- Supervised learning: het model beoordeelt eigen reacties op basis van de constitutie en past ze aan.
- RLAIF (Reinforcement Learning from AI Feedback): AI vergelijkt modeluitvoer en selecteert reacties die het best voldoen aan de richtlijnen. Deze selectie vormt de basis voor verdere training.
Deze methode maakt het mogelijk om AI-systemen te ontwikkelen die transparant, veilig en minder afhankelijk zijn van menselijk toezicht. De eerste constitutie van Claude bevatte 75 richtlijnen, waaronder elementen uit de Universele Verklaring van de Rechten van de Mens.
Versies
| Versie | Jaar | Variant | Beschrijving |
|---|---|---|---|
| Claude 1 | 2023 | Eerste publieke versie | |
| Claude 2 | 2023 | Verbeterd contextvenster en documentverwerking | |
| Claude 2.1 | 2023 | Contextvenster uitgebreid tot 200.000 tokens | |
| Claude 3 | 2024 | Haiku | Snelle, lichtere variant |
| Claude 3 | 2024 | Sonnet | Gebalanceerde standaardversie |
| Claude 3 | 2024 | Opus | Meest krachtige model, tot 1 miljoen tokens context |
| Claude 3.5 | 2024 | Sonnet | Verbeterde prestaties, inclusief code, beeldinterpretatie en workflows |
| Claude 3.7 | 2025 | Sonnet | Meest recente Sonnet-versie |
Mogelijkheden
Claude is inzetbaar voor uiteenlopende taken, waaronder:
- Beantwoorden van complexe vragen
- Samenvatten en analyseren van teksten en documenten
- Schrijven van essays, verhalen en code
- Interpreteren van afbeeldingen (vanaf Claude 3)
- Vertalen tussen talen
- Ondersteunen bij onderwijs, programmeren en gegevensanalyse
Claude ondersteunt meerdere talen en is toegankelijk via een webinterface, API of geïntegreerde toepassingen.
Beperkingen
Zoals andere taalmodellen heeft Claude beperkingen:
- Geen actuele kennis buiten trainingsdata
- Geen toegang tot internet of live data
- Kan “hallucineren” of incorrecte informatie genereren
- Beeldverwerking is beperkt tot bepaalde versies
- Beperkt tijdsbesef en wereldkennis
Kritiek
Claude kreeg bij eerdere versies kritiek op de strikte ethische richtlijnen, wat leidde tot weigering van ogenschijnlijk onschuldige verzoeken. Dit veroorzaakte debat over de zogeheten alignment tax: de afweging tussen ethische veiligheid en praktische bruikbaarheid.
Ethiek en veiligheid
Anthropic ontwikkelde Claude met nadruk op ethische AI en veiligheid. De belangrijkste waarborgen zijn:
- Constitutional AI-methodologie
- Training met menselijke en AI-feedback
- Filters voor schadelijke inhoud
- Transparantie over beperkingen
Ontvangst
Claude wordt aangeprijsd als nauwkeurigheid, genuanceerd en behulpzaam. Het model is sterk in taken die kritisch denken, lange contextverwerking en redeneren vereisen. Claude 3.5 introduceerde de functie Artifacts, waarmee gebruikers interactieve uitvoer zoals code en visualisaties in realtime kunnen bekijken.
Zie ook
Concurrenten:
Externe links
- ↑ (en) Report: Anthropic Business Breakdown & Founding Story | Contrary Research. research.contrary.com. Geraadpleegd op 21 april 2025.
- ↑ (en) Weatherbed, Jess, Anthropic's Claude 4 AI models are better at coding and reasoning. The Verge (22 mei 2025). Geraadpleegd op 23 mei 2025.
- ↑ (en) Field, Hayden, Anthropic launches Claude 4, its most powerful AI model yet. CNBC (22 mei 2025). Geraadpleegd op 23 mei 2025.
- ↑ (en) Goldman, Sharon, An AI tried to blackmail its creators—in a test. The real story is why transparency matters more than fear. Fortune. Geraadpleegd op 8 juni 2025.
