Software: SimX - Nadelantrieb - Probabilistik - Latin-Hypercube: Unterschied zwischen den Versionen

Aus OptiYummy
Zur Navigation springenZur Suche springen
Zeile 16: Zeile 16:
** Falls es noch nicht geschehen ist: Man muss "Simulation" als Optimierungsverfahren wählen!  
** Falls es noch nicht geschehen ist: Man muss "Simulation" als Optimierungsverfahren wählen!  
** Damit wird nur 1 Stichprobe auf Basis der Versuchsplanung berechnet.  
** Damit wird nur 1 Stichprobe auf Basis der Versuchsplanung berechnet.  
== Visualisierung ==
Bei der Nutzung von Zufalls-Verfahren kann man bereits während der Simulation den Verlauf des Experiments beobachten:
* Wie in der Realität wird aus der gesamten Stichprobe ein Modell-Exemplar nach dem nächsten untersucht.
* Die generierten Werte der streuenden Parameter und die Ergebnisgrößen (Gütekriterien und Restriktionen) werden nach jedem einzelnen Simulationslauf aktualisiert ('''''Analyse - Histogramme''''').
* Die Ergebnisse werden umso genauer, je weiter man innerhalb der Stichprobe voranschreitet.
Während der Toleranz-Simulation sollte man folgende Analyse-Histogramme öffnen:
* Relative Toleranzen:
** Hier kann man man überprüfen, ob die prozentualen Streuungen sich in den vorgesehenen Grenzen bewegen.
** Man kann qualitativ beurteilen, ob der "reale" Stichproben-Umfang für eine "saubere" Verteilungsdichte ausreicht:





Version vom 26. November 2008, 14:50 Uhr

Latin Hypercube (Experimente)

Versuchsplanung

Das Latin Hypercube Sampling ist ein geeignetes Zufallsverfahren, um in unserem Beispiel mit akzeptablem Berechnungsaufwand hinreichend genaue und anschauliche Ergebnisse zu erhalten:

Software SimX - Nadelantrieb - Probabilistische Simulation - versuchsplanung latin-hypercube.gif
  • Der gewählte Stichprobenumfang von 400 ist ein guter Kompromiss zwischen Aufwand und Nutzen.
  • Der Zufallsgenerator soll Zufallszahlen in Abhängigkeit von der aktuellen Computer-Zeit liefern, d.h. bei jedem Experiment werden etwas andere Ergebnisse entstehen!
  • Wir nutzen die Möglichkeit der "virtuellen Stichprobe", indem wir dafür einen Umfang >0 angeben:
    • Auch die in der virtuellen Stichprobe erzeugten Datensätze müssen verwaltet werden.
    • Ein Umfang von 10000 ist ein günstiger Kompromiss zwischen Genauigkeit der statistischen Aussagen und Verarbeitungsaufwand für die Auswertung.
    • Für die zu approximierenden Taylorfunktionen wählen wir die Ordnung=2. Mit diesem quadratischen Ansatz können auch monotone Krümmungen im betrachteten Bereich des Parameterraumes nachgebildet werden. Man beachte, dass mittels der Taylorfunktionen nur der sehr kleine Streubereich um die Toleranzmittenwerte nachgebildet werden muss! Die globalen Nichtlinearitäten des Originalmodells spielen hier meist keine Rolle.
  • Hinweis
    • Falls es noch nicht geschehen ist: Man muss "Simulation" als Optimierungsverfahren wählen!
    • Damit wird nur 1 Stichprobe auf Basis der Versuchsplanung berechnet.


Visualisierung

Bei der Nutzung von Zufalls-Verfahren kann man bereits während der Simulation den Verlauf des Experiments beobachten:

  • Wie in der Realität wird aus der gesamten Stichprobe ein Modell-Exemplar nach dem nächsten untersucht.
  • Die generierten Werte der streuenden Parameter und die Ergebnisgrößen (Gütekriterien und Restriktionen) werden nach jedem einzelnen Simulationslauf aktualisiert (Analyse - Histogramme).
  • Die Ergebnisse werden umso genauer, je weiter man innerhalb der Stichprobe voranschreitet.

Während der Toleranz-Simulation sollte man folgende Analyse-Histogramme öffnen:

  • Relative Toleranzen:
    • Hier kann man man überprüfen, ob die prozentualen Streuungen sich in den vorgesehenen Grenzen bewegen.
    • Man kann qualitativ beurteilen, ob der "reale" Stichproben-Umfang für eine "saubere" Verteilungsdichte ausreicht:



--->> Hier geht es bald weiter!!!