Stelt u zich een wetenschapper voor. Ziet u een man of vrouw in witte labojas naast glazen kolven of een mooi blinkend stuk apparatuur? Of eerder de onderzoeker die peinzend voor een bord vol onbegrijpelijke formules staat? Beide beelden van wetenschappelijk onderzoek kennen een zeer lange geschiedenis. Beide beelden zijn ook vele honderden jaren de methoden van wetenschappelijk onderzoek geweest: ze vertegenwoordigen de experimentele en de theoretische pijler.

Nieuw soort onderzoeker heeft supercomputer als trouwe compagnon.

Beide methoden hebben wetenschappelijk inzicht gebracht in alle aspecten van de wereld om ons heen. Ze leerden ons dat appels naar beneden vallen om dezelfde reden als waarom planeten om de zon draaien. Ze leerden ons hoe de zon licht geeft, en hoe planten en dieren evolueren. Ze tonen ons hoe het klimaat veranderde gedurende de laatste honderden jaren. In het kort: ze leveren ons de antwoorden op de meeste van onze wetenschappelijke vragen, maar lang niet allemaal. Sommige theoretische vragen zijn te groot om met de hand uit te rekenen. Niemand zal met de wetten van Newton de banen van de honderd miljard sterren in onze Melkweg willen uitrekenen op papier noch hoe twee galaxieën botsen. Andere vragen zijn te gevaarlijk om experimenteel uit te voeren of praktisch niet mogelijk. Denk bij dit laatste bijvoorbeeld aan klimaatmodellen. Met één planeet ter beschikking kunnen (en willen) we geen tientallen experimenten uitvoeren om te kijken hoe elke parameter het klimaat beïnvloedt. Er is immers geen reset optie.

Huiswerk op een supercomputer

Waar het lab of het bord tekortschieten, kunnen onderzoekers hun toevlucht nemen tot de nieuwere, derde pijler van de wetenschappen: computationeel onderzoek. Hierbij worden simulaties op basis van theoretische modellen onderzocht. Hoewel moderne computers een ontwikkeling zijn van de laatste honderd jaar, en ze er dus heel ons leven zijn geweest, is dit vrij recent in de wetenschapsgeschiedenis. Ik durf erop gokken dat u hier op de middelbare school niet meer dan een voetnoot over hebt gezien. Toch wint deze onderzoekspijler zeer snel aan belang. Dit is vooral te danken aan de wet van Moore: de self-fulfilling prophecy die de elektronica-industrie aandrijft om een exponentiële groei aan rekenkracht aan te leveren. Exponentiële groei klinkt misschien niet zo indrukwekkend, tot u zich realiseert dat een kind dat vandaag wordt geboren zijn of haar universitaire opleiding zal afronden met een laptop en smartphone (of hun opvolgers) die elk een rekenkracht bezitten vergelijkbaar met de huidige Vlaamse supercomputer. Die supercomputer (BrENIAC) wordt nu gedeeld door de computationele onderzoekers van alle Vlaamse universiteiten. De impact van deze evolutie is nauwelijks te bevatten: wat vandaag nog onderzoeksprojecten over maanden en jaren zijn, worden op deze manier huistaakopdrachten voor de volgende generatie.

Deze razendsnelle groei in rekenkracht zorgt er ook voor dat computationeel onderzoek razendsnel evolueert. Zo voltrekt zich op dit moment een revolutie die wordt aangedreven door big data en machine learning.

De Vlaamse supercomputer BrENIAC © Ingrid Barcena, VSC-center

Nieuwe materialen gemaakt met een computer

Computationeel onderzoek in verschillende onderzoeksdomeinen is ontstaan als uitloper van theoretisch onderzoek, als hulpmiddel om om te gaan met zeer uitgebreide of zeer complexe berekeningen. Inmiddels is het die ondersteunende rol in verschillende domeinen ruim ontgroeit.

Eén zo'n domein met een lange computationele geschiedenis is het materiaalonderzoek. Binnen dit domein onderzoeken natuurkundigen, chemici en ingenieurs hoe vaste stoffen en moleculen zich gedragen. Dit doen ze op verschillende lengteschalen: van de macroscopische schaal van een tafel tot de microscopische schaal van individuele atomen en moleculen. Op die schaal wordt de wereld beschreven door de wetten van de kwantummechanica. Voor realistische moleculen en vaste stoffen zijn de implicaties van die wetten zo complex dat de oplossingen ervan enkel nog numeriek benaderd kunnen worden. Het is dan ook niet verwonderlijk dat kwantummechanische berekeningen een flinke portie van de rekenkracht op supercomputers in beslag nemen.

Steeds meer materialen hebben hun eigenschappen te danken aan goedgekozen individuele atomen en moleculen. De voorbeelden gaan van coatings voor zonnebrillen tot efficiënte zonnepanelen. Omdat we (nog) niet in staat zijn experimenteel alle materialen atoom per atoom op te bouwen, maakt dit experimenteel onderzoek extreem uitdagend. In simulaties is het juist wel eenvoudig om individuele atomen van plaats te veranderen of te vervangen door een ander element, waardoor de computationele materiaalonderzoeker de gewenste nieuwe materiaalcombinaties kan ontdekken en bestuderen. De experimentele onderzoeker kan daardoor ook meteen focussen op de synthese de juiste materiaalcombinaties. Naast het ontdekken van nieuwe materialen laten simulaties de computationele onderzoeker ook toe om de eigenschappen van nieuwe materialen te verklaren. Door verschillende structuurmodellen te simuleren en te vergelijken met de experimentele waarneming wordt, aan de hand van een duck-test ('If it looks like a duck, swims like a duck, and quacks like a duck, then it probably is a duck.'), het juiste structuurmodel bepaald. Dit model wordt dan verder bestudeert om het gedrag van het nieuwe materiaal te voorspellen en te verklaren.

Computationeel materiaalonderzoek is niet langer een werktuig dat snel tussendoor gebruikt kan worden, maar eerder een heel laboratorium vol experts met hun eigen unieke machinerie.

De complexiteit van de (kwantummechanische) berekeningen die worden gebruikt binnen computationeel onderzoek hebben echter ook nog andere gevolgen. Het zorgt ervoor dat er een diversificatie optreedt binnen het computationele onderzoek. Net zoals in het labo sommige onderzoekers zich specialiseren in de synthese van één type materiaal en anderen in het onderzoek van materialen met één specifieke experimentele techniek, zo ook specialiseren sommige computationele onderzoekers zich in het ontwikkelen van nieuwe algoritmen voor één specifieke toepassing, en anderen in het bestuderen van materialen via één specifieke soort simulaties. Computationeel materiaalonderzoek is hierdoor niet langer een werktuig dat snel tussendoor gebruikt kan worden, maar eerder een heel laboratorium vol experts met hun eigen unieke machinerie. De term machinerie mag u trouwens vrij letterlijk nemen, want net zoals experimentele onderzoekers een intuïtie ontwikkelen over de nukken van hun eigen toestel, zo moeten computationele onderzoekers een intuïtie ontwikkelen voor de nukken van hun stuk software of algoritme. De computationele onderzoeker is dan ook geen theoreet noch een experimentalist, maar een nieuw soort onderzoeker, zonder erlenmeyer of krijtje, maar met een supercomputer als trouwe compagnon.

Dr. Dr. Danny E.P. Vanpoucke is fysicus en chemicus. Als computationeel onderzoeker verbonden aan de UHasselt bestudeert hij materialen op atomaire schaal. Hij blogt op www.eoswetenschap.eu/danny-vanpoucke en dannyvanpoucke.be/blog-en/ .