1. Nul, het niets dat toch een getal is...

Het getal Nul is helemaal is niet zo vanzelfsprekend. De mensheid heeft heel lang zonder gedaan, in Europa zelfs tot in de 13e eeuw. Het toekennen van een symbool aan 'het niets' was geen gemakkelijke stap, maar wel één die de ontwikkeling van de mensheid een flinke impuls heeft gegeven. Door een symbool aan niets te koppelen, werd de betekenis van niets toegankelijker. Het concept 'nul' stond aan de wieg van het huidige getallennotatiesysteem dat hoeveelheden van ver buiten het voorstelbare behapbaar maakt. Nul opende de weg naar het idee dat getallen niet alleen aantallen koeien zijn, maar abstracte dingen met eigen wetten en een eigen karakter; naar negatieve getallen; naar de wereld van het oneindig kleine en het oneindig grote; naar thermometers, supercomputers, zwarte gaten en voetbaluitslagen. Nul, kortom, staat voor niets.

Het nut van nul
Hoeveel is 12544 + 225? Ik durf te wedden dat u nooit 12544 stuks van wat dan ook bij elkaar gezien heeft, laat staan dat er op dat moment net toevallig 225 extra 'watdanooks' bijkwamen. Dat u tóch het goede antwoord weet, is eigenlijk een groot wonder. Het geheim van de smid zit (naast uw buitengewone intelligentie) vervat in ons 'positionele' getallennotatiesysteem, waarin we dezelfde cijfers gebruiken in verschillende betekenissen, afhankelijk van hun plaats in het getal. De 2 in 12544 betekent tweeduizend, de tweeën in 225 staan voor respectievelijk tweehonderd en twintig. 225 is eigenlijk een 'snelle' manier om 'tweehonderd plus twintig plus vijf' op te schrijven. Wij zijn eraan gewend hetzelfde symbool te gebruiken voor (bijvoorbeeld) 2 en 2000, maar eigenlijk is dat heel vreemd: of u op uw verjaardag 2 of 2000 gasten verwacht, is wel degelijk van invloed op uw boodschappenlijstje. Het getalsysteem dat de Egyptenaren, Grieken en Romeinen gebruikten (elk met hun eigen letters) lijkt veel natuurlijker: hoeveelheden als honderd, vijftig, tien en vijf hebben elk hun eigen letter en 225 wordt (in Romeinse cijfers) geschreven als CCXXV: honderd plus honderd plus tien plus tien plus vijf.

Toch zijn wij beter af met het tientallig stelsel. De Romeinen konden het bovenstaande sommetje niet eens opschrijven omdat ze na duizend zijn opgehouden nieuwe symbolen voor nog grotere getallen te verzinnen. En wij kunnen met een staartdeling meteen zien hoeveel 225 gedeeld door 7 is (afgerond op gehele getallen), terwijl dit met Romeinse cijfers net zo afschrikwekkend is als uit het hoofd. Het enige probleem wat onze wonderbaarlijke manier van getallen opschrijven met zich mee brengt is: hoe zie je het verschil tussen 2 en 2000 verjaardagsgasten, of tussen 11 en 1001 nacht? Het is een mooi idee dat de betekenis van een cijfer afhangt van de cijfers eromheen, maar dan moeten die er wél zijn. Iemand moet de lege plekken opvullen en de andere cijfers op hun plek houden als een soort wiskundige boekensteun. Het is in deze rol dat het cijfer nul zijn intrede doet in de geschiedenis.

Van nul tot nu
De eersten die een positiesysteem gebruikten waren de Babyloniers rond 1600 v. Chr. Zonder nul echter: het verschil tussen 12 (plaatje), 102, 120, 1002 of 1020 moest maar uit de context duidelijk worden. Pas rond 300 voor Christus introduceerde iemand twee schuine streepjes (plaatje) om het verschil tussen 12, 102 en 1002 aan te geven. Nullen aan het eind werden echter nooit geschreven - als iemand 12 schreef moest je zelf maar kunnen snappen of hij 12 of 12000 bedoelde. Ongeveer honderd jaar later ontstond in India een positiesysteem waarin nul wel de rol speelde die hij tegenwoordig ook heeft en wat in de volgende eeuwen via Arabische handelaren de wereld veroverde. Aan de Arabieren danken we ook onze moderne cijfertekens.

In Europa werd de nul pas in 1202 geintroduceerd door Leonardo van Pisa, onder wiskundigen beter bekend als Fibonacci. Als zoon van een rijke vader, rechter in een van Pisa’s Noord-Afrikaanse kolonieen, had hij de kans veel te reizen in het Middellandse Zeegebied. Hij raakte gefascineerd door de Indisch-Arabische getallennotatie en wist de Europese wiskundigen van zijn tijd van de kracht en schoonheid ervan te overtuigen.

Bij het grote publiek werd nul pas bekend met de uitvinding van de boekdrukkunst. In de begindagen van de drukpers hoorden boeken over wiskunde tot de absolute bestsellers (tegenwoordig onvoorstelbaar).
Het was de tijd van de opkomst van de klasse der kooplieden, en iedereen wilde graag kennismaken met de magische wereld van de tien Arabische tekentjes die alle denkbare berekeningen opeens veel sneller en makkelijker maakten. Door de grotere efficientie die de Arabische cijfers opleverden kon veel tijd en dus geld bespaard worden en ook werd het mogelijk om transacties met willekeurig grote bedragen uit te voeren op een veel betrouwbaardere manier. De bijzondere plek die het tot dan toe onbekende concept nul binnen deze omwenteling innam wordt onder andere herdacht in ons woord ‘cijfer’ dat rechtstreeks van de Arabische naam ‘cifr’ voor nul afkomt.

Nul als getal
Interessanter dan het gebruik van nul als cijfer, is het gebruik van nul als getal. Eeuwenlang ging wiskunde over concrete problemen en niet over abstracte concepten als getallen. Het antwoord op een probleem over een erfenis was ‘5 paarden’ en niet 5, en wie bij een wei met alleen maar schapen vroeg hoeveel paarden er stonden kon een klap voor z’n bek krijgen, of in elk geval niet ‘nul’ als antwoord.

Het idee dat nul, dat geen tastbare hoeveelheid vertegenwoordigt, een getal is, is een grote en belangrijke stap naar een abstract getalbegrip zoals we dat tegenwoordig vanzelfsprekend vinden. De stap om ‘niets’ als hoeveelheid (en nul als getal) te zien liet, ook na de introductie van nul, nog zo’n zeshonderd jaar op zich wachten. De oudst bekende vermelding van nul ‘op zichzelf’, (dus niet als letterteken in een groter getal) stamt pas uit 458 n. Chr.
De essentie van nul is dat het er is, eer iets anders is. Nog voor je bedacht hebt dat je wilt gaan tellen, staat je teller al op nul. Nul is dus altijd. Het is zo alomtegenwoordig, dat het veel moeite kostte het te ontdekken.

Negatieve getallen volgden daarna eigenlijk vrij snel, hoewel de voor de hand liggende bezwaren (‘minder dan niets kan toch niet’) door de eeuwen heen wel blijven opduiken. Negatieve getallen vormen, net als het positiesysteem, een mooi voorbeeld van hoe vooruitgang in de wiskunde vaak werkt: je begrijpt iets minder van wat je eigenlijk aan het doen bent, maar alle berekeningen (in dit geval met schulden en temperaturen) worden een stuk makkelijker. De weg naar negatieve getallen werd zowel filosofisch (wat is een getal eigenlijk?) als praktisch (‘wie van 10 naar -10 wil zal eerst langs 0 moeten’) vrijgemaakt door het getal nul.

Nul en oneindig
Bovendien haalt nul, onschuldig als hij eruit ziet, definitief ‘het oneindige’ ons getalbegrip binnen. Hoeveel zou 1 gedeeld door 0 moeten zijn? 1 gedeeld door iets kleins (zoals 0,1) is iets groots (zoals 10). 1 gedeeld door iets heeel kleins (zoals 0,000000000000000001), is iets heeel groots (een miljard keer een miljard). Door 1 te delen door steeds kleinere (en dus meer op nul lijkende) getallen, krijgen we steeds betrouwbaardere schattingen van 1/0. Maar deze uitkomsten worden ook steeds groter. Al snel wordt duidelijk dat 1 gedeeld door 0 helemaal geen getal meer is, maar iets dat groter is dan alle getallen: oneindig.

Delen door nul
Delen door nul kan gewoon niet. De uitkomst is niet gelijk aan nul en niet gelijk aan oneindig of wat dan ook.
Bv. 15 snoepjes moeten verdeeld worden onder 5 personen. Hoeveel snoepjes krijgt ieder dan? Het antwoord is duidelijk 15:5= 3 Met andere woorden: elk kind krijgt drie snoepjes.
Als we dit verhaaltje toepassen op de deling door nul krijg je: er zijn 15 snoepjes, er is niemand, hoeveel krijgt niemand? 15:0= bestaat niet; met andere woorden: als er niemand is, kan het ook niet gedeeld worden. Je kunt dus niet delen door nul.

De Indiase wiskundige Brahmagupta, die rond 625 als eerste rekenregels voor nul en negatieve getallen opschreef, vond dat deling door nul een breuk met noemer nul opleverde. Een elegante oplossing, maar hij vertelde er niet bij hoe je zulke breuken bij andere getallen moet optellen. ‘Delen door nul is gelul’, vatten veel moderne wiskundeleraren de discussie samen, wat in elk geval beter rijmt. De waarheid is dat je in veel situaties wel degelijk betekenis kunt geven aan ‘1 gedeeld door 0 is oneindig’, maar dat die betekenis erg van de situatie afhangt. Er is maar 1 nul, maar er zijn vele soorten oneindig.

De gedachte aan het oneindige kan bij ons soms nog de beklemming oproepen die de oude Indiers en Grieken gevoeld moeten hebben bij de gedachte aan ‘het niets’, tegenwoordig hanteerbaar gemaakt in de vorm van nul. Hoewel, hanteerbaar? In 1997 liep een Amerikaans oorlogsschip vast vlak buiten de haven, omdat door een fout in de software de boordcomputer door nul probeerde te delen. De Romeinen veroverden de gehele bekende wereld zonder ooit van het getal nul gehoord te hebben. Je kunt je afvragen wat vooruitgang is.
Aan de andere kant: de Romeinen hebben elkaar nooit een gelukkig 2007 gewenst, laat staan per 06. En wanneer u deze zomer een ijsblokje van min drie graden in uw limonade “0% suiker” gooit, ziet u dat we toch wat vooruitgegaan zijn.

Een intrigerende wiskundige vergelijking is de formule van Euler.

Deze luidt: e^(i*pi) +1 = 0

De vergelijking geeft een prachtig verband aan tussen enkele basale wiskundige constanten zoals 0, 1, pi, e en i. Je kunt hier als beschouwer niet zo veel mee, maar het blijft wel fascinerend dat een dergelijk verband bestaat.

Je kunt via een eenvoudige omzetting dan weer afleiden dat pi = ln(-1)/i.

Met een calculator die berekeningen met i kan uitvoeren (zoals bijv. de Powertoy calculator van Microsoft) is pi dan weer gewoon te berekenen, zodat je kunt controleren dat de formule ook werkelijk klopt.

Voor meer informatie, surf bijvoorbeeld naar http://nl.wikipedia.org/wiki/Nul