Een weer- en klimaatmodel dat kunstmatige intelligentie (AI) en natuurkundige simulaties combineert, kan de beste reguliere computerprestaties evenaren met veel minder rekenkracht, zeggen onderzoekers van Google.
Onderzoekers van Google hebben een AI (kunstmatige intelligentie) gebouwd die volgens hen weer- en klimaatpatronen net zo goed kan voorspellen als de huidige natuurkundige modellen, met veel minder rekenkracht. Dat schrijven ze in een artikel in vakblad Nature.
Bestaande voorspellingen zijn gebaseerd op wiskundige modellen, uitgevoerd door krachtige supercomputers die deterministisch voorspellen wat er in de toekomst zal gebeuren. Sinds deze modellen in de jaren vijftig voor het eerst werden gebruikt, zijn ze steeds gedetailleerder geworden en hebben ze steeds meer computerkracht nodig.
‘Het ITER-uitstel is minder dramatisch dan het lijkt’
‘ITER tien jaar vertraagd’, kopten de media. Maar de momenten waar het bij deze kernfusiereactor écht om gaat worden veel minder uitgesteld.
Zwarte doos
Verschillende projecten zijn erop gericht om deze intensieve berekeningen te vervangen door minder veeleisende AI. Een voorbeeld is een DeepMind-tool die plaatselijk regen voorspelt op korte termijn. Maar net als de meeste AI-modellen zijn deze modellen een zwarte doos waarvan onduidelijk is hoe ze precies werken. Het onvermogen om de rekenmethoden te verklaren of te repliceren is problematisch. Klimaatwetenschappers wijzen er ook op dat als de modellen trainen met historische gegevens, ze moeite zullen hebben om de onbekende fenomenen te voorspellen die nu optreden als gevolg van klimaatverandering.
Nu hebben computerwetenschapper Dmitrii Kochkov van Google Research in Californië en zijn collega’s het model NeuralGCM ontwikkeld. Volgens hen vindt dat model een balans tussen de twee benaderingen.
Typische klimaatmodellen verdelen het aardoppervlak in een raster van cellen met een diameter tot 100 kilometer. Door de beperkingen in rekenkracht is het onpraktisch om hogere resoluties te simuleren. Verschijnselen zoals wolken, luchtturbulentie en convectie binnen die cellen worden slechts benaderd door computercode die voortdurend wordt aangepast om nauwkeuriger overeen te komen met waarnemingsgegevens. Deze benadering is erop gericht om de kleinschalige verschijnselen, die ongrijpbaar zijn voor het bredere natuurkundige model, in ieder geval deels vast te leggen.
Simulatiedagen
NeuralGCM wordt getraind om deze kleinschalige benadering over te nemen, waardoor het minder rekenintensief en nauwkeuriger wordt. In een artikel zeggen de onderzoekers dat het model 70 duizend simulatiedagen in 24 uur kan verwerken met behulp van een enkele tensor processing unit (TPU), een gespecialiseerde processor-chip. Ter vergelijking: het concurrerende model X-SHiELD gebruikt een supercomputer met duizenden processoren om slechts 19 dagen aan simulatie te verwerken.
Het artikel stelt ook dat NeuralGCM voorspellingen produceert met een nauwkeurigheid die vergelijkbaar is met, en soms zelfs beter dan, de beste modellen in zijn klasse.
Hybride aanpak
Klimaatwetenschapper Tim Palmer van de Universiteit van Oxford zegt dat het onderzoek een interessante poging is om een derde weg te vinden tussen pure natuurkunde en ondoorzichtige AI-benadering. ‘Ik voel me ongemakkelijk bij het idee dat we de natuurkundige vergelijkingen volledig loslaten en gewoon overgaan op een AI-systeem, dat zelfs de experts niet volledig begrijpen’, zegt hij.
Deze hybride aanpak zou kunnen leiden tot meer debat en onderzoek in de gemeenschap van klimaatmodellenbouwers. Maar alleen de tijd zal leren of modelleurs het wereldwijd zullen overnemen, zegt hij. ‘Het is een goede stap in de juiste richting. En het is het soort onderzoek dat we zouden moeten doen. Het is geweldig om al deze alternatieve methoden op tafel te zien liggen.’