Software: SimX - Nadelantrieb - Probabilistik - Sample-Methoden

Aus OptiYummy
Zur Navigation springenZur Suche springen

Sample-Methoden

Überblick

Als "Sample" bezeichnet man u.a. eine Stichprobe in der Marktforschung. Bei den Sampling-Verfahren der probabilistischen Simulation handelt es sich um stochastische Simulationen mit Zufallszahlen.

Jedes Modell-Exemplar innerhalb der zu simulierenden Stichprobe erhält einen eigenen Parameter-Satz. Die Parameterwerte jedes Modell-Exemplars werden aus den aktuellen Nennwerten und einer "erwürfelten" Abweichung vom Nennwert entsprechend der zugeordneten Verteilungsdichte-Funktionen ermittelt. Die Anzahl der zu simulierenden Modell-Exemplare entspricht dem Stichprobenumfang. Aus allen Simulationsläufen erhält man die Gesamtverteilung der Ausgangsgrößen (Restriktionen und Gütekriterien).

Dadurch kann man sich eine aufwändige und problemabhängige Herleitung der partiellen Ableitungen einer komplexen Toleranzkette ersparen. Mit der Sample-Methoden kann man also eine beliebige Toleranzverteilung simulieren. Die Genauigkeit des Verfahrens hängt entscheidend von der Anzahl der Modelldurchrechnungen (Stichprobenumfang) ab, die leider exponential zu der Anzahl der Toleranzen steigen muss. Diese Methode ist mit einem hohem Rechenaufwand verbunden, jedoch universell einsetzbar.

In OptiY sind mehrere unterschiedliche Verfahren implementiert. Diese unterscheiden sich vor allem dadurch, wie "intelligent" die Exemplare innerhalb einer Stichprobe "erwürfelt" werden.


Monte Carlo Sampling

  • "Gewürfelt" wird über die gesamte Toleranzbreite mit "echten" Zufallszahlen.
  • Der erforderliche Stichprobenumfang N für eine angestrebte "saubere" Verteilungsfunktion der Toleranzgrößen ist deshalb relativ hoch!
  • Erst bei einer Stichprobengröße von ca. N=1 000 000 konvergiert der Fehler dieser Toleranzsimulation gegen Null!
  • Bei N=50 wird eine Normalverteilung z.B. nur ungenau nachgebildet:
Software SimX - Nadelantrieb - Probabilistische Simulation - monte-carlo-sampling.gif

Latin Hypercube Sampling

  • Im Unterschied zum "Monte Carlo Sampling" wird die gesamte Toleranzbreite eines streuenden Paramters in Teilintervalle zerlegt.
  • Jedes Teilintervall wird je nach vorgegebener Verteilungsfunktion mit Zufallszahlen gefüllt.
  • Deshalb wird eine "saubere" Verteilungsfunktion mit relativ kleinem Stichprobenumfang erreicht (Beispiel Normalverteilung N=50):
Software SimX - Nadelantrieb - Probabilistische Simulation - latin-hypercube-sampling.gif

Sobol Sampling

  • Das Verfahren nutzt im Unterschied zur "reinen" Monte-Carlo-Simulation (1. Bild) eine Quasi-Zufallszahlen-Sequenz (2. Bild).
  • Durch Ausnutzung von Symmetriebeziehungen erfolgt eine gleichmäßigere Verteilung der Punktwolke im Parameterraum.
  • Damit benötigt das Verfahren für die gleiche Genauigkeit nur ca. 1/10 der Stichprobengröße.
Software SimX - Nadelantrieb - Probabilistische Simulation - monte-carlo-wolke.gif Software SimX - Nadelantrieb - Probabilistische Simulation - sobol-punktwolke.gif

Response Surface Methode (Virtuelle Stichprobe)

Als direktes Ergebnis der Stichproben-Simulation mittels Sampling-Methode liegt eine Punktwolke vor, welche die Verknüpfung zwischen den streuenden Entwurfsparametern und den Ergebnisgrößen (Gütekriterien, Restriktionen) repräsentiert:

  • Geht man davon aus, dass zwischen den Parametern und Ergebnisgrößen ein stetiger funktioneller Zusammenhang besteht, so kann man diesen durch eine Approximationsfunktion abbilden.
  • Im OptiY können Taylorreihen beliebiger Ordnung als Approximationsfunktion für jede Ergebnisgröße verwendet werden.
  • Durch Anwendung der Methode der kleinsten Fehlerquadrate werden die Parameter der Taylorreihen so bestimmt, dass die Approximationsfunktionen möglichst gut in die Punktwolke der "gesampelten" Stichprobe passen.
  • Die erforderliche Anzahl der Modellberechnungen M (=Stichprobengröße) ergibt sich aus der Anzahl n der stochastischen Variablen und der gewählten Ordnung O der Taylorreihe zu M=(n2-n)/2+O*n+1.

Die mittels dieser Ausgleichsrechnung ermittelten Ersatzfunktionen (eine Taylorreihe pro Ergebnisgröße), kann man für die statistische Auswertung als Grundlage für eine "virtuelle Stichprobe" benutzen. Man spricht auch von der "Response Surface Methode" (RSM), weil die Ersatzfunktionen wie Flächen über dem Paramterraum aufgespannt sind. Diese Funktionsflächen liefern ersatzweise die Systemantwort für die eingespeiste Parameter-Kombination.

  • Vorteile
    • Auf die Ersatzfunktionen werden die gleichen Sample-Methoden angewandt, wie zuvor auf das Originalmodell.
    • Der Umfang einer virtuellen Stichprobe kann sehr groß gewählt werden, da die Ersatzfunktionen um Größenordnungen schneller als die Originalmodelle rechnen.
    • Damit können statistischen Aussagen zu den Ersatzfunktionen praktisch mit beliebiger Genauigkeit gewonnen werden.
  • Nachteile
    • Die Genauigkeit der statistischen Aussagen wird durch die Genauigkeit der Approximationsfunktion bestimmt.
    • Die Residuen der Ausgleichsrechnung für eine vorliegende Stichprobe zeigen nur, wie genau die Punktwolke in die Ausgleichsfläche passt.
    • Informationen zur Nachbildung der Zwischenräume in der Punktwolke sind nur schwierig zu gewinnen.




--->> Hier geht es bald weiter !!!