Wat Video Chess ons leert over AI tools kiezen

Een schaakspel dat in 1979 op een Atari 2600 met 128 bytes werkgeheugen draaide, heeft drie grote taalmodellen het nakijken gegeven. ChatGPT en Microsoft Copilot verloren een partij. Google Gemini trok zich zelfs terug voordat de eerste pion vooruitging. Dit verhaal is leuk voor schaakliefhebbers, maar het laat vooral zien hoe belangrijk het is om het juiste AI‑gereedschap te kiezen voor een specifieke taak.
Een oud spel tegenover nieuwe AI’s
Robert Caruso, een Amerikaanse infrastructuurarchitect, zette software uit de jaren tachtig tegenover moderne generatieve AI’s. Hij liet Video Chess (Atari 2600) spelen tegen ChatGPT en Microsoft Copilot. Beide verloren kansloos. Toen mensen vroegen of Google Gemini beter zou presteren, ging Caruso opnieuw aan de slag.
Gemini begon het gesprek met bravoure en stelde dat het “meer lijkt op een moderne schaakengine” dan op een taalmodel. Caruso wees erop dat eerdere AI’s al onderuit waren gegaan. Daarna corrigeerde Gemini zichzelf, erkende dat het weinig verstand heeft van schaak en blies de partij af.
Caruso draaide het spel via de Stella‑emulator op een systeem met een 1,19 MHz‑processor en 128 bytes RAM. Video Chess bleef dus ongeslagen.
Hoe speelt de Atari 2600 schaak?
Video Chess is een vast algoritme met een beperkte zoekdiepte. Het kan maar een paar zetten vooruitkijken, maar kent de regels die in de code zijn opgenomen. Bij dezelfde stelling volgt dezelfde berekening en dezelfde zet. Dat is genoeg om een gemiddelde amateur behoorlijke tegenstand te bieden.
Hoe ‘denkt’ een taalmodel?
Large language models (LLM’s) zoals ChatGPT en Gemini voorspellen het volgende woord of token op basis van enorme tekstverzamelingen. Microsoft Copilot gebruikt zulke modellen als onderliggende motor. Ze hebben geen ingebouwde schaaklogica of zoekboom. Hun schaakkennis komt uit tekstuele voorbeelden. Daardoor kunnen ze prima uitleg geven over openingen of problemen, maar in een echte partij raken ze gemakkelijk de draad kwijt. Ze hebben geen intern bord waarop zij posities exact bijhouden. Dat leidt tot illegale zetten of flagrante blunders.
Wat gebeurde er toen Gemini werd uitgedaagd?
Gemini’s zelfvertrouwen rustte op een hallucinatie: het model dacht dat algemeen redeneervermogen gelijkstaat aan een gespecialiseerde schaakengine. Nadat Caruso die aanname weerlegde, volgde een reality check. Gemini gaf toe dat het waarschijnlijk zou verliezen en besloot niet te spelen. Caruso ziet dat als een stap richting betrouwbaardere AI, omdat het model zijn beperking erkende in plaats van klakkeloos een fout te maken.
Lessen
Welke lessen kunnen we uit dit voorval trekken?
1. Gespecialiseerd kan beter presteren dan algemeen
Een gespecialiseerde oplossing die is ontworpen voor één taak kan verrassend sterk zijn. Denk aan software die uitsluitend inkoopfacturen herkent en verwerkt of een algoritme dat alleen roosters maakt. Een breed taalmodel kan veel, maar niet altijd beter.
2. Kosten en middelen verschillen sterk
Video Chess draait in een eenvoudige emulator zoals Stella op vrijwel elke moderne computer. Een taalmodel vraagt om stevige GPU’s of een (cloud)abonnement. Reken goed door of het voordeel opweegt tegen de hogere kosten.
3. Bouw controle in tegen hallucinaties
LLM’s produceren soms foutieve of gefantaseerde antwoorden. Voeg daarom altijd een validatielaag toe. Dat kan een simpele regelset zijn of een mens die steekproefsgewijs controleert. Een model dat zelf aangeeft iets niet te weten is nuttig, maar geen garantie.
Het kiezen van het juiste AI‑gereedschap is essentieel voor succes. De verleiding is groot om voor het meest geavanceerde en breed inzetbare model te gaan. Het verhaal van Video Chess laat zien dat de slimste oplossing vaak de eenvoudigste is. Begin met een scherpe probleemdefinitie en kies daarna de tool die precies doet wat nodig is. Wil je bepalen welk AI‑gereedschap echt nodig is voor jouw proces? Neem dan contact op met Webmonnik.nl.
Bron