De blog van The Write Mind

Recht op doel af met virtuele simulatie

Recht op doel af met virtuele simulatie
In deze Simsalabim post komen volgende onderwerpen aan bod:

Recht op doel af met virtuele simulatie

Zoals we in onze vorige bijdrage al schreven zijn er (afhankelijk van de mate waarin gecontroleerd wordt toegezien op het leerproces) algoritmen voor machinaal leren in verschillende soorten. In deze blog post staan we stil bij 3 technologische (r)evoluties die het mogelijk hebben gemaakt dat virtuele simulatie in steeds kortere tijd grotere hoeveelheden betrouwbare data aanlevert. Dat creëert opportuniteiten om met machinaal leren CAE processen een pak effectiever te maken, en recht op doel af te gaan: betere producten ontwerpen in minder tijd.

High-fidelity multifysica modellen

In het verleden werd de discussie rond digitale productontwikkeling wel eens overheerst door de vraag of virtuele simulatie het testen op prototypes ooit kon vervangen. De inmiddels legendarisch geworden uitspraak “Everybody believes the test results except the test engineer, and nobody believes the analysis results except the analysis engineer” vat die discussie heel goed samen.

Maar ondertussen is “realistic simulation” werkelijkheid geworden.  Geometrie wordt meer in detail gemodelleerd, rekenmodellen worden steeds fijnmaziger en algoritmen zijn dermate gesofisticeerd dat mechanische, akoestische, stromingsmechanische, elektromagnetische, … simulaties steeds nauwkeuriger worden.  Bovendien is het met een multifysica aanpak ook mogelijk geworden om de interactie tussen die verschillende domeinen in rekening te brengen, wat bijvoorbeeld van bijzonder belang is om om nieuwe medische en chirurgische methoden & materialen te ontwikkelen.

Dit alles sluit heel wat beter aan bij de realiteit, en heeft een boost gegeven aan virtuele simulatie binnen het productontwikkelingsproces. De keerzijde van de medaille is dat langere rekentijden niet te vermijden zijn, maar dit wordt gecompenseerd door de gigantische evoluties op het gebied van rekencapaciteit.

Virtuele simulatie met de snelheid van een F1 bolide

Virtuele simulatie levert niet enkel steeds nauwkeuriger resultaten aan, maar kan dat ook alsmaar sneller.  De sterke opkomst van High Performance Computing (HPC) heeft daar veel toe bijgedragen, waardoor het perfect haalbaar is om binnen een kort tijdsbestek een groot aantal virtuele experimenten uit te voeren

Principieel is HPC eenvoudig te begrijpen, vermits het niets anders is dan het opsplitsen van een rekenproces in een aantal deeltaken die door verschillende processoren gelijktijdig worden uitgevoerd. Uiteraard is de werkelijkheid wat complexer en moeten algoritmen worden aangepast om deze methodiek te ondersteunen. Maar hoe dan ook wordt er, afhankelijk van het aantal beschikbare processoren, een belangrijke tijdswinst geboekt.  Of anders gezegd: dankzij HPC kunnen binnen een zelfde tijdsbestek meer ontwerpvarianten worden doorgerekend.

Lange tijd is het gebruik van HPC voor virtuele simulatie beperkt gebleven tot grote ondernemingen die over de nodige budgetten beschikken om te investeren in supercomputers. Daar is het laatste decennium toch wel verandering in gekomen, nu HPC schaalbaar geworden is en perfect inzetbaar is zowel op interne als op cloud-gebaseerde infrastructuur.  Daarmee is HPC ook in het bereik gekomen van kleine en middelgrote ondernemingen, en zijn realistische simulaties op basis van gesofisticeerde multifysica modellen ook voor hen perfect haalbaar.

Ingenieus de ontwerpruimte bemonsteren

Dankzij HPC kunnen engineering teams niet alleen sneller realistische simulaties uitvoeren, maar kunnen zij vooral meer verschillende ontwerpvarianten doorrekenen binnen het beschikbare tijdsvenster. Dat is een cruciale factor om op basis van virtuele simulatie ontwerpbeslissingen te kunnen nemen vooraleer een eerste prototype beschikbaar is.

Maar toch blijft die aanpak er meestal een van trial-and-error.  Een initieel virtueel model wordt berekend en geëvalueerd, en op basis van ervaring worden dan iteratief ontwerpparameters aangepast om zo snel mogelijk de ontwerpdoelstellingen te realiseren. Dat vergt over het algemeen nogal wat giswerk, en garandeert geenszins dat binnen de toegemeten tijd de beoogde doelstellingen ook kunnen worden gehaald.

Het is hier dat PIDO technologie (waarbij PIDO staat voor Process Integration & Design Optimization) helpt om giswerk volledig te elimineren. Met PIDO software wordt in een eerste stap het initiële virtuele model geparametreerd, en kan een simulatie (of een reeks simulaties) volautomatisch worden gestart nadat voor de gekozen parameters specifieke waarden worden vastgelegd.

In een volgende stap worden Design of Experiments (DOE) technieken gebruikt om op basis van de geselecteerde ontwerpparameters (en de bijhorende grenswaarden) een reeks modelvarianten te genereren. Het uitgangspunt is om met een minimum aantal modelvarianten de volledige ontwerpruimte zo representatief mogelijk te bemonsteren, zodat een minimum aan goed gekozen virtuele experimenten toch een maximum aan bruikbare informatie oplevert.

Die aanpak verschilt wel heel sterk van de traditionele werkwijze waarbij door trial-and-error een virtueel model iteratief wordt aangepast om de ontwerpdoelstellingen te benaderen. Zelfs indien hierbij HPC zou worden ingezet blijft dit essentieel een sequentiële aanpak, waarbij elk virtueel experiment slechts wordt doorgerekend na evaluatie van een vorig experiment.

Door met DOE technieken een reeks experimenten vooraf te definiëren, hoeven die niet langer sequentieel te worden berekend maar kan dat parallel gebeuren. Dat zorgt er in de eerste plaats voor dat resultaten veel sneller ter beschikking komen van het engineering team. Bovendien bouwen DOE technieken, vanuit hun helikopterzicht, een beeld op van de volledige ontwerpruimte eerder dan zich te beperken tot één enkel ontwerppunt. Dat levert een pak extra informatie op die een dieper inzicht geeft in de ontwerpruimte.

Zo maakt een correlatieanalyse bijvoorbeeld snel duidelijk welke ontwerpparameters de grootste impact hebben op de ontwerpdoelstellingen, en welke parameters probleemloos veronachtzaamd kunnen worden tijdens het ontwikkelingsproces. Verder kunnen met de resultaten van virtuele experimenten ook surrogaatmodellen worden gebouwd.

Hoewel dergelijke surrogaatmodellen benaderend zijn, zijn ze toch bijzonder nuttig. Zo laten ze toe om snel wat-als-analyses uit te voeren. Op die manier kunnen in geen tijd voorspellingen worden gemaakt voor een combinatie van ontwerpparameters die niet werd berekend tijdens de originele DOE campagne, of kan bijvoorbeeld een snelle ontwerpoptimalisatie worden uitgevoerd. Dankzij deze aanpak kunnen 3D simulaties tot een strikt minimum worden beperkt, en kunnen bedrijven de ROI van hun hardware- en software-investeringen maximaliseren.

Daarmee is het pad geëffend om dieper in te gaan op machinaal leren in CAE

Deze 3 technologische (r)evoluties hebben het mogelijk gemaakt dat virtuele simulatie in steeds kortere tijd grotere hoeveelheden betrouwbare data aanlevert. Vaak ontbreekt het echter aan tijd en middelen om die vele waardevolle gegevens diepgaand te verwerken en maximaal in te zetten binnen het digitale productontwikkelingsproces. Net daarom kunnen zeer diverse technieken voor machinaal leren een innovatieve bijdrage leveren.

In een volgende bijdrage gaan we dieper in op adaptieve DOE technieken.  Lerend van de gegevens die worden aangeleverd door klassieke DOE methoden stellen zij ontwikkelingsteams in staat om sneller in te zoomen op oplossingen met het grootste verbeteringspotentieel.

Interessant? Vergeet deze Simsalabim post niet te delen:
Luc Meulewaeter Recht op doel af met virtuele simulatie
Ontdek aanverwante Simsalabim posts:
Luc MeulewaeterRecht op doel af met virtuele simulatie