Software: SimX - Nadelantrieb - Probabilistik - Latin-Hypercube

Aus OptiYummy
Zur Navigation springenZur Suche springen

Latin Hypercube (Experimente)

Versuchsplanung

Achtung: Falls es noch nicht geschehen ist - man muss Simulation als Optimierungsverfahren wählen!

Das Latin Hypercube Sampling ist ein geeignetes Zufallsverfahren, um in unserem Beispiel mit akzeptablem Berechnungsaufwand hinreichend genaue und anschauliche Ergebnisse zu erhalten:

Software SimX - Nadelantrieb - Probabilistische Simulation - versuchsplanung latin-hypercube.gif

Der gewählte Stichprobenumfang von 100 ist ein guter Kompromiss zwischen Berechnungsaufwand und Nutzen:

  • Die minimal erforderliche Anzahl der Modellberechnungen M (=Stichprobengröße) ergibt sich aus der Anzahl n der stochastischen Variablen und der gewählten Ordnung O der Polynom-Funktion zu M=(n²-n)/2+O*n+1.
  • Wir werden für die Ersatzfunktionen Polynome 2. Ordnung benutzen. Damit benötigt man im Beispiel M=20 Modellberechnungen. Dafür müsste das Modellverhalten jedoch exakt durch Polynom-Funktionen 2. Ordnung abbildbar sein! Mit einer größeren Stichprobe wird man praktisch immer genauer.
  • Der Zufallszahlengenerator produziert nach seiner Initialisierung immer die gleiche Sequenz von Zahlen. Indem man den Zeitpunkt dieser Initialisierung steuert, kann man unterschiedliche Effekte erzielen:
    1. Initialisiert
      Bewirkt eine Initialisierung mit dem Wert=1 beim Start einer jeden neuen Toleranz-Simulation, d.h. für die Berechnung jeder neuen Stichprobe. Bei gleichen Nennwerten erhält man also bei der Berechnung jeder Stichprobe exakt die gleichen Simulationsergebnisse.
    2. Zeitabhängig initialisiert
      Bewirkt eine Initialisierung mit einem Wert=f(Maschinenzeit) beim Start einer jeden neuen Toleranz-Simulation. Damit sind die Ergebnisse auch bei gleichen Nennwerten von Simulation zu Simulation unterschiedlich, weil der Startpunkt des Zufallsgenerators zeitabhängig ist. Dies widerspiegelt sicher am besten die praktisch mögliche Bandbreite von Stichproben-Ergebnissen.
    3. Nicht initialisiert
      Bewirkt eine einmalige Initialisierung mit dem Wert=1 beim Start des Programms OptiY. Startet man danach ein gespeichertes Experiment, so erzielt man damit immer die gleichen Ergebnisse. Damit lassen sich Toleranzbehaftete Experimente zu unterschiedlichen Zeiten auch auf unterschiedlichen Computern reproduzieren. Da die Zufallszahlen von allen vorhergehenden Vorgängen abhängig sind, erfordert eine Experiment-Reproduktion jedoch immer den vorherigen Neustart von OptiY!
  • Wir wählen die zeitabhängige Initialisierung, damit bei jedem Experiment etwas andere Ergebnisse entstehen!
  • Ein Virtueller Stichprobenumfang=100000 auf der aus der Approximationsfunktion gebildeten Antwortfläche ist ein Kompromiss zwischen Berechnungszeit und statistischer Genauigkeit.
Software SimX - Nadelantrieb - Probabilistische Simulation - versuchsplanung approximationsfunktionen.gif

Approximationsfunktion:

  • Die Auswahl der Approximationsfunktionen ("Antwortflächen") für die Durchführung der virtuellen Stichprobe ist eigentlich Bestandteil der Versuchsplanung.
  • Für jede Bewertungsgröße des Modells (Restriktion bzw. Gütekriterium) kann jedoch eine individuelle Approximationsfunktion gewählt werden.
  • Deshalb erfolgt für jede Bewertungsgröße getrennt die Wahl der Approximation. Im Beispiel wählen wir für alle Restriktionen einheitlich Polynomiale Approximation mit der Ordnung=2.
  • Mit diesem quadratischen Ansatz können auch monotone Krümmungen im betrachteten Bereich des Parameterraumes nachgebildet werden.
  • Polynom-Typ = Einheitliche Ordnung bedeutet dabei die Verwendung der gleichen Polynomordnung in Richtung der Koordinatenachse jeder Streuung. Die unterschiedliche Wirkung einer Streuung auf eine Restriktionsgröße könnte man durch unterschiedliche Polynomordnungen in jede Streuungsrichtung berücksichtigen.
  • Hinweis: Es muss hier nur der sehr kleine Streubereich um die Toleranzmittenwerte nachgebildet werden! Die globalen Nichtlinearitäten des Originalmodells spielen dabei meist keine Rolle.

Visualisierung und Interpretation

Bei der Nutzung von Sample-Verfahren kann man bereits während der Simulation den Verlauf des Experiments beobachten:

  • Dazu bildet man in Histogrammen die interessierenden streuenden Parameter und die daraus berechneten Bewertungsgrößen ab (Analyse > Statistische Versuchsplanung > Histogramme mit anschließendem Drag&Drop der darzustellenden Größen).
  • Wie in der Realität wird nach dem Start der Simulation aus der gesamten Stichprobe ein Modell-Exemplar nach dem nächsten untersucht.
  • Die generierten Histogramme der streuenden Parameter und die Ergebnisgrößen werden nach jedem einzelnen Simulationslauf aktualisiert.
  • Die Ergebnisse der Stichproben-Simulation werden umso genauer, je weiter man innerhalb der Stichprobe voranschreitet.

Man sollte folgende Analyse-Darstellungen öffnen:

Relative Toleranzen

In den Histogrammen kann man überprüfen, ob die prozentualen Streuungen sich in den vorgesehenen Grenzen bewegen. Dabei muss man beachten, dass es für Normalverteilungen keine festen Grenzen gibt und einige Exemplare der Stichprobe außerhalb der vorgegebenen Grenzen liegen werden! Im Verlaufe der Berechnung kann man qualitativ beurteilen, ob der "reale" Stichproben-Umfang für eine "saubere" Verteilungsdichte ausreicht. In den Histogrammen werden nur die Modellberechnungen der "realen" Stichprobe dargestellt:

Software SimX - Nadelantrieb - Probabilistische Simulation - histogramme rel toleranzen.gif

Unmittelbar nach der Simulation der "realen" Stichprobe werden die Übertragungsfunktionen (Antwortflächen) der Bewertungsgrößen auf Basis der gewählten Approximationsfunktionen berechnet. Mit diesem Ersatzmodell erfolgt dann die Simulation der "virtuellen" Stichprobe. Die Ergebnisse der anschließenden Probabilistik-Berechnung können danach als Analyse-Ergebnisse dargestellt werden:

  • Für jedes Histogramm öffnen wir die zugehörige Verteilungsdichte-Darstellung ( Analyse > Probabilistik > Verteilungsdichte ).
  • Die virtuelle Stichprobe wird mit diesen approximierten Antwortflächen berechnet und dargestellt.
  • Die Punkte der realen Stichprobe werden bei der Auswertung der virtuellen Stichprobe zusätzlich berücksichtigt. Die darin enthaltene Information geht somit nicht verloren.
  • Die Interpretation der infolge der großen virtuellen Stichprobe geglätteten Verteilungsdichten fällt im Vergleich zur realen Stichprobe wesentlich leichter.
  • Bei den statistischen Kenngrößen gibt es Abweichungen zwischen der realen und der virtuellen Stichprobe. Die Größe der Abweichungen wird im Wesentlichen durch den Umfang der realen Stichprobe bestimmt. Letztendlich bestimmt diese das Vertrauensintervall der statistischen Aussagen!
    Software SimX - Nadelantrieb - Probabilistische Simulation - verteilungsdichten rel tol virtuell.gif

Absolute Toleranz-Größen

Mit diesen Ausgangsgrößen des Simulationsmodells erhält man die Möglichkeit der Überprüfung, ob aus den relativen Toleranzen die Dichteverteilungen der zugehörigen Modell-Parameter richtig berechnet wurden:

Software SimX - Nadelantrieb - Probabilistische Simulation - histogramme abs toleranzen.gif

Hinweis: Im OptiY werden Ersatzfunktionen (Antwortflächen) nur für Bewertungsgrößen approximiert. Für alle anderen Größen des Experiment-Workflows stehen nur die Werte der "realen" Stichprobe zur Verfügung. Deren Streuung kann man in Histogrammen darstellen.

Restriktionsgrößen

Man erkennt in den entsprechenden Histogrammen schon während der Stichproben-Berechnung, in welchem Maße Restriktionen verletzt werden. Kritisch sind im Beispiel die Abschaltspannungen, welche im Beispiel über 800 V erreichen und wahrscheinlich zusammen mit Stromspitzen von ca. 4 A auftreten:

Software SimX - Nadelantrieb - Probabilistische Simulation - histogramme restriktionen.gif
  • In den Histogrammen und Verteilungsdichten sind Bereiche mit unzulässigen Werten markiert. So erhält man einen qualitativen Eindruck, in welchem Maße Restriktionen verletzt werden. Zusätzlich steht der Wert der Teilversagenswahrscheinlichkeit unterhalb der Grafik (bei den Verteilungsdichten zusammen mit der Gesamtversagenswahrscheinlichkeit).
    Software SimX - Nadelantrieb - Probabilistische Simulation - verteilungsdichten restriktionen.gif
  • Wie exakt die Approximationsfunktionen der Ausgangsgrößen an die Punkte der realen Stichprobe angepasst wurden, kann man mittels der Residual-Diagramme überprüfen (Analyse > Antwortflächen > Residuum Plot - Drag&Drop der Restriktionen/Gütekriterien):
    Software SimX - Nadelantrieb - Probabilistische Simulation - residual-plot.gif
  • Achtung: Nach einer Überarbeitung der Residuen-Darstellung scheint es ein Problem in der aktuellen OptiY-Version zu geben - vor der Neuberechnung der Ergebnisgrößen erscheinen zwar die leeren Diagramme für die darzustellenden Restriktionen/Gütekriterien, aber nach Berechnung der Antwortfläche verschwinden diese wieder und das Fenster ist komplett leer!
  • Residuen sind absolute Differenzen zwischen den Werten der realen Stichprobe (Simulationsergebnisse) und den aus der Approximationsfunktion (hier Polynom 2.Ordnung) für den gleichen Punkt berechneten Werten. Die Residuen sind somit ein Maß für die Qualität der Approximation.
  • Entscheidend sind nicht die Absolutwerte der Residuen, sondern die relativen Fehler in Bezug auf die Originalwerte der Stützstellen.
  • Die Approximation mittels einer Polynomfunktion ist ein robustes und schnelles Verfahren zum Bilden einer Ersatzfunktion auf Basis der vorhandenen Stützstellen. Man muss im Einzelfall jedoch überlegen, ob die Genauigkeit der Approximation ausreichend ist, weil immer ein gewisser Restfehler insbesondere bei stark nichtlinearen Abhängigkeiten existiert.

Erscheint der Approximationsfehler zu groß, so kann man anstatt eines Polynomansatzes den sogenannten Gauß-Prozess verwenden:

Software SimX - Nadelantrieb - Probabilistische Simulation - approximation durch gauss-prozess.gif
  • Der Gauß-Prozess, angewandt in der Geostatistik auch als Kriging bekannt, ist ein statistisches Verfahren, mit dem man Werte an Orten, für die keine Probe vorliegt, durch umliegende Messwerte interpolieren oder auch annähern kann.
  • Die Ermittlung einer Ersatzfunktion mittels Gauß-Prozess erfordert mehr Berechnungsaufwand als der Polynomansatz und muss nicht zu einer stabilen Lösung konvergieren.
  • Der Vorteil besteht jedoch darin, dass die vorhanden Stützstellen perfekt auf der gebildeten Ersatzfunktion liegen.
  • Im Rahmen dieser Übung soll der Gauß-Prozess mit den Standard-Einstellungen und der Polynomordnung=2 für alle Restriktionsgrößen benutzt werden.
  • Eine erneute Berechnung der Stützstellen mittels des SimulationX-Modells ist nicht erforderlich:
    1. Software OptiY - Button - response surface neu.gif Analyse > Antwortflächen > Neu Berechnen
    2. Software OptiY - Button - sensitivitaet neu.gif Analyse > Sensitivität > Neu Berechnen
    3. Software OptiY - Button - probabilistik neu.gif Analyse > Probabilistik > Neu Berechnen
  • Die Änderung der Probabilistik-Ergebnisse in den Verteilungsdichte-Diagrammen der Restriktionsgrößen ist gering und liegt bei ca. 10 Prozent (z.B. für die Versagenswahrscheinlichkeit).
  • Der Residuum-Plot zeigt, dass nun alle Stützstellen exakt auf der Ersatzfunktion liegen (Abweichung praktisch gleich Null):
    Software SimX - Nadelantrieb - Probabilistische Simulation - residual-plot gauss.gif
  • Hinweis: Eventuelle Abweichungen können jetzt trotzdem noch zwischen den Stützstellen existieren, falls die Interpolation nicht dem wahren Verlauf der Übertragungsfunktion unseres SimulationX-Modells entspricht!
Software SimX - Nadelantrieb - Probabilistische Simulation - histogramm praegung.gif

Die Praegung als Restriktionsgröße wurde bewusst nicht in die obigen Ergebnis-Fenster aufgenommen:

  • Auf den ersten Blick scheint es sich um eine ganz normale Verteilungsdichtefunktion zu handeln.
  • Beim genaueren Betrachten der statistischen Kenngrößen sieht man, dass hier die numerische Realisierung des plastischen Anschlages als elastisch-dämpfende Ersatzfunktion abgebildet wird.
  • Der ideale plastische Anschlag würde zu exakt Praegung=1 führen. Die von uns gewählte leichte Nachgiebigkeit für den Anschlag ergibt beim vollständigen Prägen immer Werte etwas größer als 1. Die resultierende "Eindringtiefe" der Nadel in den Anschlag steigt näherungsweise proportional zu deren Aufprall-Impuls. Für die berechneten Stützstellen kann problemlos eine hinreichend genaue Antwortfläche ermittelt werden.
  • Die Teilversagenswahrscheinlichkeit der virtuellen Stichprobe infolge "Nichtprägens" ist in unserem Beispiel deshalb Null:
    Software SimX - Nadelantrieb - Probabilistische Simulation - verteilungsdichte praegung.gif
  • Achtung: Würde man (wie in den ersten beiden Etappen) den Anschlag als starren Anschlag realisieren, so wäre der Wert der Praegung nur in der Größenordnung von 1e-8 größer als 1, wobei es sich hierbei vor allem um ein "Rauschen" der numerischen Lösung handelt:
    • Damit würde im Histogramm immer noch eine Teilversagenswahrscheinlichkeit von Null angezeigt.
    • Allerdings ergäbe sich eine mehr oder weniger "zufällige" Antwortfläche über diese verrauschten Abtaststellen.
    • Die virtuelle Stichprobe ermittelt dann auf Grund der unzureichenden Antwortfläche für die Prägung eine "zufällige" Teilversagenswahrscheinlichkeit.
      Software SimX - Nadelantrieb - Probabilistische Simulation - verteilungsdichte praegung starrer Anschlag.gif
    • Wie im zusätzlichen Verteilungsdichte-Diagramm für den starren Anschlag gezeigt, kann diese auch fast 50% betragen. Damit würde die berechnete Gesamtversagenswahrscheinlichkeit extrem verfälscht!
    • Wichtig: Wir setzen in solchen Fällen die zulässige Untergrenze für die Prägung dann auf einen Wert unterhalb der erzeugten Antwortfläche (z.B. auf 0.999), um korrekt den Wert Null zu erhalten.

Versagenswahrscheinlichkeit

Software SimX - Nadelantrieb - Probabilistische Simulation - versagen in nennwert-verlauf.gif

Die Teilversagenswahrscheinlichkeiten der einzelnen Restriktionsgrößen sagen nur etwas über die Größenordnung der gesamten Versagenswahrscheinlichkeit aus:

  • Die Gesamtversagenswahrscheinlichkeit (Ausschussquote) ist mindestens so groß wie die größte Teilversagenswahrscheinlichkeit.
  • Sie ist kleiner als die Summe aller Teilversagenswahrscheinlichkeiten, da sich deren Bereiche überlappen. Die Gesamtversagenswahrscheinlichkeit wird im OptiY-Explorer als Bestandteil der Gütekriterien aufgelistet, besitzt jedoch kein Eigenschaftsfeld:
    Software SimX - Nadelantrieb - Probabilistische Simulation - versagen in explorer.gif
  • Ihr Wert wird nach erst nach Abschluss der probabilistischen Simulation (einschließlich der virtuellen Stichprobe) berechnet.
  • Den Wert der Versagenswahrscheinlichkeit kann man sich in einem Nennwert-Verlauf-Fenster anzeigen lassen. Dazu muss man die Versagenswahrscheinlichkeit per Drag&Drop in den grafischen Ausgabe-Bereich von OptiY ziehen.

Im Normalfall kommt es nach einer Nennwert-Optimierung in mehr als der Hälfte der Einsatzfälle zu einem unzulässigem Lösungsverhalten. Im Beispiel sind es sogar ca. 80%. Das spricht nicht sehr für eine "optimale" Lösung". Da man aber bei einer Nennwert-Optimierung meist einige der zulässigen Grenzwerte ausreizt, ist dieses Ergebnis jedoch typisch!

Histogramm-Eigenschaften

  • Man kann mehrere Histogramme in einem Histogramm-Fenster darstellen.
  • Die X-Achse ist standardmäßig in 50 Bereiche (Balken) aufgeteilt.
  • Die Höhe der Balken repräsentiert auf der Y-Achse die anteilige Häufigkeit der Stichprobenpunkte im jeweiligen Intervall.
  • Weitere Informationen wie Mittelwert, Schiefe, Überhöhung, Varianz und Standardabweichung stehen zur Verfügung.
  • Bei Restriktionen wird auch die Teil-Versagenswahrscheinlichkeit bezüglich der dargestellten Restriktionsgröße angezeigt.
    Software SimX - Nadelantrieb - Probabilistische Simulation - histogramm-eigenschaft.gif
  • Bereiche mit Restriktionsverletzungen werden markiert.

Wählt man mit dem Cursor ein Histogramm aus, so erscheinen die Histogramm-Eigenschaften im Eigenschaftsfenster:

  • Die Eigenschaften beziehen sich auf alle Histogramme des gewählten Histogramm-Fensters, auch wenn der Name eines konkreten Histogramms angezeigt wird.
  • Man kann die Anzahl der Balken verändern.
  • Die Grenzen der X-Achse werden standardmäßig durch Auto-Skalierung=True ermittelt. Wählt man Auto-Skalierung=False, so kann man die Grenzen (Min, Max) für das gewählte Histogramm manuell einstellen.
    Software SimX - Nadelantrieb - Probabilistische Simulation - doe-tabelle auswahlliste.gif

DOE-Tabelle

  • DOE="Design of Experiments" (Versuchsplanung)
  • Analyse > Statistische Versuchsplanung > DOE-Tabelle listet für jede Modellrechnung (=1 Zeile) der realen Stichprobe eine Auswahl der im Workflow definierten Größen auf.
  • Die Auswahl erfolgt zuvor über eine Auswahl-Liste:
    Software SimX - Nadelantrieb - Probabilistische Simulation - doe-tabelle.gif
  • Die in der Tabelle markierte Zeile zeigt, dass hier eine hohe Abschaltspannung von 835 V in Kombination mit einem steifen Papier kP_relTol=1.65 und einem hohem Maximalstrom von 4.33 A auftritt.
  • Wenn man innerhalb dieser Tabelle eine Zeile mit Doppelklick auswählt (= Exemplar der realen Stichprobe), so wird der zugehörige Punkt in den im Folgenden beschriebenen Anthill-Plots hervorgehoben und es werden dort auch die "Koordinatenwerte" eingeblendet.
  • Über die Menü-Funktion Datei > Daten Export kann man die Datensätze der DOE-Tabelle bei Bedarf zur Weiterverarbeitung in eine Excel-Tabelle speichern (Achtung: in der DOE-Tabelle zuvor eine Zeile mit Klick der linken Maustaste auswählen!)

Anthill-Plot

Der "Ameisenhaufen" stand Pate für die Bezeichnung dieser Darstellform (Punktdiagramm), welche auch als Streudiagramm (engl. Scatterplot) bekannt ist. In OptiY existieren zwei Formen von Anthill-Plots. In beiden Formen werden nur Punkte der realen Stichprobe eingetragen:

Analyse > Cluster > 2D-Anthill-Plot:

  • Die X- und Y-Achse sind frei belegbar mit den im Workflow definierten Größen.
  • Jedes Exemplar der realen Stichprobe wird durch einen Punkt repräsentiert, der den Zusammenhang zwischen den beiden gewählten Größen verdeutlicht.
  • Sind Achsen mit Restriktionen belegt, so werden die Punkte mit unzulässigen Werten rot markiert:
    Software SimX - Nadelantrieb - Probabilistische Simulation - 2d-scatter-plot.gif

Im Beispiel erkennt man "Ausreißer" mit extremen Spannungswerten von bis zu 835 V:

  • Sucht man den zugehörigen Simulationslauf in der DOE-Tabelle, so erkennt man, dass diese hohe Abschaltspannung aus einem Maximalstrom von 4.33 A resultiert.
  • Startet man den zugehörigen Simulationslauf, so sieht man, dass es sich nicht um ein numerisches Problem bei der Modellberechnung handelt:
    Software SimX - Nadelantrieb - Probabilistische Simulation - ausreiszer in anthill.gif
  • Es entsteht kurz vor dem Abschalten eine Stromspitze, weil das Eisenmaterial infolge "unglücklicher" Umstände in die Sättigung gelangt. Solch ein "Ausreißer" muss also ernst genommen werden!

Analyse > Cluster > 3D-Anthill-Plot:

  • Es besteht auch die Möglichkeit, die Abhängigkeit einer Ergebnis-Größe (z.B. der Abschaltspannung) von zwei Streu-Größen darzustellen (z.B. Papiersteife und Federkonstante):
    Software SimX - Nadelantrieb - Probabilistische Simulation - 3d-scatter-plot.gif
  • Die X-, Y- und Z-Achse dieses 3D-Scatter-Plots sind frei belegbar mit den im Workflow definierten Größen.
  • Auch in diesem Diagramm wird die reale Stichprobe als Punktwolke dargestellt.
  • Im Beispiel erkennt man, dass Kombinationen von steiferem Papier und steiferer Feder zu einer höheren Abschaltspannung tendieren. Das würde man auf Grund von Vorüberlegungen auch erwarten.

Korrelationen

Es wird die Korrelation zwischen allen Streuungen und Restriktionen/Gütekriterien in Form von Korrelationskoeffizienten dargestellt. Im OptiY gibt es zwei Möglichkeiten der Darstellung:

Analyse > Statistische Versuchsplanung > Korrelationsmatrix:

Software SimX - Nadelantrieb - Probabilistische Simulation - korrelation-matrix.gif
  • Der Korrelationskoeffizient K mit einem Bereich von -1 bis +1 ist auch farblich gekennzeichnet:
    • |K|=0 → keine Korrelation mit der Toleranzgröße (weiß)
    • |K|=1 → starke Korrelation mit der Toleranzgröße (dunkelblau).
  • K ist ein dimensionsloses Maß für den Grad des linearen Zusammenhangs zwischen zwei Merkmalen:
    • Korrelationskoeffizienten sind nur gültig, wenn der Zusammenhang zwischen den betrachteten Größen linear ist!
    • Existiert ein nichtlinearer Zusammenhang, so ist der angezeigte Korrelationskoeffizient umso falscher, je stärker die Abweichung von einer Geraden ist.
    • Eine qualitative Abschätzung der Linearität kann man auf Basis der zugehörigen Anthill-Plots vornehmen. Im Beispiel kann man innerhalb des Streubereichs existierende Zusammenhänge zwischen den Größen hinreichend genau durch Ausgleichsgeraden abbilden (das wäre nicht mehr möglich z.B. bei einem zu schwach dimensionierten Antrieb, der teilweise das Papier nicht prägt!).

Hinweise zur Interpretation der Korrelationsmatrix:

  • Entlang der Diagonalen sind die einzelnen Streuungen als Histogramme eingetragen.
  • Die 2D-Anthill-Plots unterhalb der Diagonalen stellen den Zusammenhang zwischen jeweils zwei Streuungen dar.
  • Welche zwei Streuungen dies jeweils sind, ergibt sich durch Verfolgen der Spalte und Zeile bis zur Diagonalen.
  • Spiegelbildlich zu den 2D-Anthill-Plots befinden sich oberhalb die zugehörigen Korrelationskoeffizienten.

Analyse > Statistische Versuchsplanung > Korrelationstabelle:

  • Diese entspricht in ihrer Struktur der Korrelationsmatrix:
    Software SimX - Nadelantrieb - Probabilistische Simulation - korrelation-tabelle.gif
  • Dargestellt werden die konkreten Korrelationskoeffizienten. Entlang der Diagonalen ist K=1 (jede Größe bildet mit sich selbst eine Gerade y=x).
  • Hinweis: Korrelation bedeutet nicht "kausale Abhängigkeit"! In technischen Anwendungen verbergen sich aber dahinter häufig Ursache-Wirkungs-Beziehungen. Man erkennt auf Grund des Absolutwertes der Koeffizienten, in welchem Maße überhaupt ein Zusammenhang zwischen der Änderung zweier Größen bestehen könnte.
  • Uns interessieren hier nur die Zusammenhänge zwischen der Streuung der Eingangsgrößen und deren Auswirkung auf die Bewertungsgrößen:
    • Damit können wir uns auf die Auswertung des farblich markierten Viertels der Korrelationstabelle beschränken.
    • Betrachtet man nacheinander die einzelnen Toleranzgrößen, so kann man folgende Schlussfolgerungen ziehen:
    1. Temperatur des Spulendrahtes: korreliert am stärksten mit dessen Erwärmung (anscheinend, weil sich der ohmsche Widerstand des Drahtes linear mit der Temperatur ändert).
    2. Betriebsspannung: korreliert kaum mit den Bewertungsgrößen (anscheinend nur geringer Einfluss oder kein linearer Zusammenhang).
    3. Wirbelstroms: korreliert stark mit der Zykluszeit (je größer der Wirbelstrom, desto stärker die Abfallverzögerung - deshalb negativer Koeffizient!).
    4. Federkonstante: korreliert stark mit der Zykluszeit (negativer Wert bedeutet, dass eine härtere Feder die Zykluszeit verkleinert), korreliert aber auch relativ stark mit allen anderen Bewertungsgrößen.
    5. Papiersteife: korreliert sehr stark mit der Abschaltspannung und dem maximalem Spulenstrom (härteres Papier könnte also die Ursache für zu hohe Abschaltspannungen sein?).
    • Hinweis zur Praegung: Infolge der Verwendung eines elastisch-dämpfenden Ansatzes zur Nachbildung des ideal plastischen Stoßes wird in Abhängigkeit vom Aufschlag-Impuls eine entsprechende Eindringtiefe berechnet. Diese Eindringtiefe korreliert dann relativ stark mit allen Eingangsgrößen, welche den Aufschlag-Impuls beeinflussen. Die größte Korrelation besteht zur Federsteife (steifere Federn könnten also den Prägungsvorgang am stärksten negativ beeinflussen). Bei Verwendung des starren Anschlags würden die Korrelationen nur das nummerische Rauschen um den Idealwert=1 abbilden und wäre praktisch wertlos!

Widerspiegelung unterschiedlicher Korrelationskoeffizienten im Anthill-Plot:

  • Eine starke Korrelation besteht im Beispiel zwischen der Zykluszeit und der Federkonstante. Die starke Korrelation widerspiegelt sich im Diagramm, indem die Lösungspunkte relativ dicht entlang einer gedachten Ausgleichsgeraden angeordnet sind.
Software SimX - Nadelantrieb - Probabilistische Simulation - scatter-plot t kf.gif
  • Der Maximalwert des Stromes korreliert relativ stark mit der Papierfestigkeit. Der Anstieg dieser Ausgleichsgerade ist im Unterschied zum vorherigen Diagramm positiv:
Software SimX - Nadelantrieb - Probabilistische Simulation - scatter-plot i kp.gif
  • Kleine Korrelationskoeffizienten werden durch eine ausgedehnte Punktwolke repräsentiert (z.B. zwischen dem Wirbelstrom und der Drahterwärmung). Der Wert der Restriktionsgröße wird dann überwiegend von den anderen Streugrößen bestimmt!
Software SimX - Nadelantrieb - Probabilistische Simulation - scatter-plot-wolke.gif

Sensitivitäten

Auch wenn eine Ausgangsgröße sehr stark mit einer Eingangsgröße korreliert, kann der tatsächliche Einfluss dieser Eingangsgröße auf den Wert der Ausgangsgröße sehr gering sein! Deshalb ist das Erkennen von Korrelationen nur der erste Schritt, um diejenigen Eingangsgrößen zu finden, welche praktisch mit keiner Ausgangsgröße korrelieren. Im Beispiel scheint die Spulentemperatur solch eine "einflusslose" Eingangsgröße zu sein. Sie korreliert zwar mit der Erwärmung der Spule, diese Erwärmung (äußert sich wieder in der Spulentemperatur) wird aber die anderen Bewertungsgrößen kaum beeinflussen.

Den tatsächlichen Einfluss einer Streugröße erkennt man erst im Ergebnis einer Sensitivitätsanalyse. Dabei kann man zwei Arten von Sensitivitäten unterscheiden.

Lokale Sensitivität

Bei einer lokalen Sensitivitätsanalyse wird jeweils ein Parameter verändert. Alle anderen Parameter bleiben dabei konstant (Siehe "c.p." = ceteris paribus). In OptiY wird dafür das Schnittdiagramm bereitgestellt (Analyse > Antwortflächen > Schnittdiagramm):

  • Die Abhängigkeiten der Bewertungsgrößen (Restriktionen/Gütekriterien) von den Streuungen werden als Kurven dargestellt.
  • Die gewünschten Elemente muss man per Drag&Drop aus dem OptiY-Explorer in das anfangs leere Diagrammfenster ziehen:
    Software SimX - Nadelantrieb - Probabilistische Simulation - rsm-schnittdiagramm.gif
  • Hinweis: Je nach gewählter Approximationsfunktion können sich die konkreten Schnittverläufe insbesondere bei kleinen Funktionswert-Änderungen (auf der Y-Achse) stark unterscheiden. Beim Verwenden des Gauß-Prozesses können zusätzlich einzelne Störstellen (z.B. durch numerisches "Rauschen" infolge gestörter Ereignisbehandlungen bei Schaltvorgängen) als Peaks auf ansonsten stetigen Kurven abgebildet werden!
    Software SimX - Nadelantrieb - Probabilistische Simulation - istwert streuung.gif
  • Die Kurven-Verläufe gelten jeweils für die aktuellen Istwerte aller Streuungen. Diese werden im Schnittdiagramm als senkrechte Linien eingeblendet, wenn man dies in den Eigenschaften des Schnittdiagramms aktiviert:
    Software SimX - Nadelantrieb - Probabilistische Simulation - rsm-schnittdiagramm-eigenschaft.gif
  • Die zu den Istwerten gehörigen Werte der Bewertungsgrößen sind als Zahlenwerte eingeblendet.
  • Die Istwerte kann man im Eigenschaftsfenster der Streuungen verändern. Dazu selektiert man die entsprechende Streuung im Explorer, dort existiert im Eigenschaftsfenster unter der Rubrik Virtueller Entwurf der Eintrag Nennwert. Dabei handelt es sich um den "aktuellen Istwert" der Streuungsgröße auf dem "virtuellen" Ersatzmodell. Nach der Eingabe eines neuen "Ist"-Wertes werden alle Schnittdiagramme automatisch aktualisiert.
  • Prinzipiell kann man in den Schnittdiagrammen die roten Istwert-Linien auch mit der Maus verschieben. Damit ist jedoch nur ein grober qualitativer Eindruck möglich.

Lokale Sensitivität SL (Definition):

  • Partielle Ableitung der Approximationsfunktion einer Bewertungsgröße nach einer Streugröße im eingestellten Arbeitspunkt (Istwert).
  • Entspricht dem Anstieg der linearisierten Schnittfunktion im Arbeitspunkt.
  • Ist ein Maß dafür, wie empfindlich eine Bewertungsgröße auf die Änderung der betrachteten Streugröße reagiert.

Lokale Sensitivitäten kann man direkt aus dem Koeffizienten-Chart (Analyse > Antwortflächen > Koeffizient-Chart) ablesen, welches die Parameter des Polynom-Anteils der Approximationsfunktion enthält (X: partielle Ableitung 1. Ordnung, X^2: partielle Ableitung 2. Ordnung, X1*X2: partielle Kreuzableitung usw.):

Software SimX - Nadelantrieb - Probabilistische Simulation - coeff-chart tzyklus.gif
  • Die Ableitung 1. Ordnung entspricht der mittleren lokalen Sensitivität im betrachteten Toleranzbereich.
  • Dies soll am gleichen Beispiel der lokale Sensitivität SL der Zykluszeit in Hinblick auf die Streuung der Federkonstante demonstriert werden. Dazu öffnet man den Koeffizient-Chart für tZyklus.
  • kF_relTol=−0.002815 ist die partielle Ableitung erster Ordnung, allerdings nach der relativen Toleranzgröße.

Hinweis:

In obigen Schnittdiagrammen wird der Einfluss einer Streugröße auf jeweils eine Bewertungsgröße dargestellt. Die in OptiY bereitgestellten 3D-Antwortflächen berücksichtigen den Einfluss von zwei Streugrößen auf jeweils eine Bewertungsgröße. Diese Erweiterung des Schnittdiagramms kann im Spezialfall für die Anschauung nützlich sein. Auch die 3D-Antwortflächen werden bei der Änderung von Istwerten der Streugrößen aktualisiert. Im Folgenden sieht man die Analogie zum zuvor abgebildeten 3D-Anthill-Plot (Abschaltspannung in Abhängigkeit von Papier- und Federsteife):

Software SimX - Nadelantrieb - Probabilistische Simulation - 3d-antwortflaeche.gif

Globale Sensitivitäten

Mit der Sensibilitätsanalyse auf Basis der Schnittdiagramme ermittelten wir die lokalen Sensitivitäten als partielle Ableitung 1. Ordnung gemittelt über das jeweilige Streuintervall. Wie empfindlich das Systemverhalten auf die Änderung einer Streugröße reagiert, sagt noch nichts über den Einfluss einer Streuung im Vergleich zum Einfluss der anderen Streugrößen. Dafür muss man die sogenannte "globale Sensitivität" betrachten:

  • Wir wollen uns zuerst die zugehörigen Ergebnisse anschauen (Analyse > Sensitivität > Sensitivität-Chart). Es erscheint zuerst ein leeres Fenster, in das man die gewünschten Bewertungsgrößen (Restriktionen und Gütekriterien) per Drag&Drop aus dem Explorer hineinziehen kann. Für jede dieser Bewertungsgrößen wird dann ein Sensitivität-Chart (Pareto-Chart) in Bezug auf alle Streuungen generiert:
    Software SimX - Nadelantrieb - Probabilistische Simulation - sensitivity-chart.gif
    Software SimX - Nadelantrieb - Probabilistische Simulation - sensitivity-praegung.gif
  • Unter Pareto-Chart versteht man ein Balkendiagramm (Histogramm), das anzeigt, in welchem Maße ein bestimmtes Ergebnis (Effekt) durch eine bestimmte Ursache (Streuung) hervorgerufen wurde. Die Balken sind nach der Größe des Effektes geordnet.
  • Hinweis: Die Sensitivitäten der Praegung wurden in einem separatem Fenster dargestellt, weil diese vor allem die Eigenschaften des verwendeten Modellansatzes für den mechanischen Anschlag widerspiegeln!

Den Sensitivität-Charts kann man zwei wesentliche Informationen entnehmen:

  • 1. Welche Streuungen haben einen vernachlässigbaren Einfluss auf die betrachteten Bewertungsgrößen?
    • Im Beispiel existiert keine Streuung, welche auf sämtliche Bewertungsgrößen keinen Einfluss hat.
    • Die Streuung der Spulentemperatur hat nur Einfluss auf die Langzeit-Erwärmung der Spule. Das hatten wir bei der Nennwert-Optimierung bereits durch Annahme des Worst Case "Maximaltemperatur" berücksichtigt! Deshalb werden wir für die weiteren Untersuchungen die Streuung der Spulentemperatur vernachlässigen.
    • Der Wirbelstrom hat zwar nur Auswirkung auf die Zykluszeit. Da diese für uns jedoch ein sehr wichtiges Kriterium darstellt, sollte man die Wirbelstrom-Streuung im Folgenden nicht vernachlässigen.
    • Kleiner als 10% ist der Einfluss von Schwankungen der Betriebsspannung auf die Streuung aller Bewertungsgrößen. Deshalb kann man die Streuung der Betriebsspannung praktisch vernachlässigen.
    • Damit kann man bei einer anschließenden probabilistischen Optimierung den Simulationsaufwand durch Reduktion der zu berücksichtigenden Streuungen von 5 auf 3 entscheidend verringern.
  • 2. Existieren merkliche Interaktionen zwischen den Streuungen?
    • Es gibt Wechselwirkungen zwischen den Streugrößen, wenn die aktuellen Ist-Werte anderer Streugrößen den Einfluss der jeweils betrachteten Streugröße auf das Systemverhalten merklich verändern.
    • In den Sensitivität-Charts erkennt man das an einem merklichem Unterschied zwischen den Werten von Total- und Haupteffekt:

Haupteffekt:

Er repräsentiert den Haupteinfluss der betrachteten Streugröße Xi auf die Ausgangsgröße Y. Definiert ist er als Quotient aus der Varianz der durch Xi verursachten Streuung der Ausgangsgröße Var(Y|Xi) und der Varianz der durch alle Toleranzen X verursachten Streuung Var(Y|X)
SH = Var(Y|Xi) / Var(Y|X)

Totaleffekt:

Er setzt sich zusammen aus dem Haupteffekt und den Interaktionen zwischen den einzelnen Streugrößen (Xi, Xj)
ST = Var(Y|Xi) / Var(Y|X) + Var(Y|Xi,Xj) / Var(Y|X)
In OptiY wird die Interaktion durch paarweise Kombination aller Streugrößen berücksichtigt, da die gleichzeitige Berücksichtigung sämtlicher Streugrößen zu einem nicht beherrschbaren Berechnungsaufwand führt. Jedes Paar (Xi, Xj) wird als ein Glied dieser Summenformel berücksichtigt. Der Wert dieses Gliedes ist jeweils Null, wenn es keine Interaktion innerhalb des Streugrößen-Paares gibt.
Sind Interaktionen zwischen den Streugrößen vernachlässigbar, so hat dies insbesondere Bedeutung für die im folgenden Abschnitt beschriebenen Moment-Methoden. Man kann dann mit vereinfachten Funktionsansätzen arbeiten, welche einen geringeren Berechnungsaufwand erfordern.

Globale Sensitivität SG (Definition):

  • Quantifiziert (in %) die anteilige Wirkung einer Streugröße Xi auf die Streuung einer Ausgangsgröße Y.
  • Haupteffekt SH: Berücksichtigt nur die direkte Wirkung von Xi auf die Streuung von Y.
  • Totaleffekt ST: Berücksichtigt auch die indirekte Wirkung von Xi auf die Streuung von Y infolge der Änderung des Einflusses der anderen Streugrößen Xj.

Im Interaction-Chart wird für die ausgewählten Bewertungsgrößen nur der Anteil der indirekten Wirkungen geordnet nach der Größe des hervorgerufenen Effektes dargestellt:

Software SimX - Nadelantrieb - Probabilistische Simulation - interaction-chart.gif

Hinweis:

  • Die Größe der berechneten Interaktionen zwischen den Streuungen ist stark abhängig von der Genauigkeit der approximierten Antwortflächen.
  • Die Interaktion=0 für iMax und tZyklus wurde im Beispiel nur bei Benutzung des Gauß-Prozesses ermittelt. Bei Verwendung von Polynomen ergeben sich stattdessen Werte bis z.B. ca. 10%!

Die komplette Übersicht über alle Abhängigkeiten zwischen den Toleranzen und den Bewertungsgrößen erhält man über die Anzeige der Sensitivitäten-Tabelle. Darin sind für jede Bewertungsgröße jeweils die Werte des Haupt- und des Totaleffekts in Bezug zu jeder Toleranzgröße aufgelistet:

Software SimX - Nadelantrieb - Probabilistische Simulation - sensitivitaeten-tabelle.gif

Experiment-Ergebnisse

Für das eigene Nennwert-Optimum sind von den Teilnehmern der Lehrveranstaltung mit der Latin-Hypercube-Simulation folgende Fragen als Bestandteil der einzusendenden Lösung zu beantworten:

  1. Zwischen welchen Paaren "Streuung/Bewertungsgröße" (ohne Berücksichtigung von "Praegung"!) bestehen die 4 größten Korrelationen? Die zu den Paaren gehörenden Koeffizienten-Werte sind mit anzugeben.
  2. Welche 2 Streugrößen kann man auf Grund ihres geringen Effektes auf die Bewertungsgrößen vernachlässigen? Diese Wahl ist zu begründen.