Grundlagen: Probabilistik

Aus OptiYummy
Zur Navigation springenZur Suche springen

Dieses Kapitel wird zur Zeit erarbeitet


Zielstellung

Experimentell tätige Wissenschaftler unterliegen dem Zwang, ihre Experimente statistisch auszuwerten. Das dafür erforderliche mathematische Rüstzeug kann in dieser kurzen Einführung in die Probabilistik nicht vermittelt werden.

Im Blickfeld dieses Kapitel steht vor allem der Entwicklungsingenieur. Dieser benutzt für seine Berechnungen überwiegend "exakte" Nennwerte. Die Zulässigkeit von Toleranzen ermittelt er danach durch Analyse ihrer Grenzwerte. Damit soll z.B. die Montage oder Funktion auch unter den ungünstigsten Umständen zu 100% sichergestellt werden.

Dem Entwicklungsingenieur ist durchaus bewusst, dass Wahrscheinlichkeiten eine wichtige Rolle beim Auftreten unerwünschter Zustände in seinen Lösungen spielen. Leider sind Menschen (und damit auch Ingenieure) meist sogenannte "Wahrscheinlichkeitsidioten", die das Eintreten bestimmter Ereignisse entweder über- oder unterschätzen (zum "Idiotentest"Geburtstagsparadoxon).

Der Entwicklungsingenieur hat kaum die Zeit, sich die benötigten mathematischen Methoden tiefgründig anzueignen und sie auf seine Probleme analytisch anzuwenden. Er ist deshalb auf vorhandene Software-Pakete angewiesen, um seine Lösungen einer probabilistischen Analyse zu unterziehen.

Anliegen dieses Kapitels ist die Vermittlung des qualitativen Wissens zu den wahrscheinlichkeitstheoretischen Grundlagen, welche für die qualifizierte Anwendung von Probabilistik-Tools erforderlich ist.

Grundbegriffe

Nennwert

In Anlehnung an den Begriff Nennmaß soll unter Nennwert der geplante Wert für eine physikalisch-technische Größe im weitesten Sinne verstanden werden. Es handelt sich hierbei um einen idealisierten, "exakten Wert", z.B.:

Die idealisierten Nennwerte bilden die Grundlage bei der Entwicklung optimaler Lösung für technische Aufgabenstellungen. Dafür gibt es plausible Gründe:

  • Physikalische Effekte außerhalb der Quantenmechanik werden mathematisch als Verknüpfung zwischen den aktuellen Istwerten der beteiligten physikalischen Größen beschrieben (Klassische Physik).
  • Praktisch sämtliche CAE-Systeme arbeiten mit deterministischen Modellen (basieren auf Effekten der klassischen Physik und euklidischen Geometrie).
  • Deterministische Modelle erzeugen aus "exakten" Eingangsgrößen mittels eindeutiger Übertragungsfunktionen "exakte" Ausgangsgrößen:
Grundlagen Probabilistik - Nennwerte und determ-Modell.gif

Toleranz

Ein exakter Nennwert ist praktisch nie realisierbar. Deshalb muss für jeden Nennwert ein Wertebereich (Toleranzfeld) definiert werden, dessen Einhaltung garantiert, dass die Funktionalität der Lösung gewährleistet ist. Diesen zulässigen Wertebereich bezeichnet man auch kurz als Toleranz. Im Spezialfall (z.B. Press-Passungen) liegt der Nennwert außerhalb des Toleranzfeldes.

Man unterscheidet wie bei den "Nennwerten" unterschiedliche Toleranz-Typen:

  • Maßtoleranzen, Bauteil-Toleranzen (z.B. Kennwerte von einfachen elektronischen oder mechanischen Bauelementen)
  • Form- und Lagetoleranzen sowie Oberflächenangaben
  • Funktionale Toleranzen (Material-Kennlinien, Wandler-Kennfelder, Übertragungsfunktionen)

Handelt es sich um deterministische Modelle mit linearem Übertragungsverhalten, so können durch die Berechnung aller möglichen Kombinationen der Toleranzgrenzen von Xi die Minima/Maxima aller Yj bestimmt werden:

Grundlagen Probabilistik - Toleranzen und determ-Modell.gif

Streuungen

Toleranzangaben beziehen sich nur auf die zulässigen Grenzwerte für einen Nennwert. Die tatsächlich auftretenden Istwerte treten je nach Herkunft (z.B. Fertigungsverfahren, Umweltbedingungen, Alterung) innerhalb dieser Grenzwerte mit unterschiedlichen Verteilungsfunktionen auf. In Erweiterung des Toleranz-Begriffes wird für die statistische Analyse von Ausfallwahrscheinlichkeiten der Begriff der "Streuung" benutzt.

Eine Streuung ist definiert durch

  • die Toleranz (d.h. die Grenzwerte des Toleranzfeldes) und
  • die Verteilungsdichte-Funktion innerhalb des Toleranzfeldes (z.B. Gleich- oder Normalverteilung).

Eine Streuung enthält die Menge aller Werte für die zugehörige streuende Größe:

  • deterministische Modelle können jeweils nur ein einzelnes Exemplar (= ein Parametersatz) aus der gesamten Input-Streuung berechnen,
  • probabilistische Modelle sind erforderlich, um entsprechend der Verteilungsdichtefunktionen der Input-Streuungen das Verhalten aller möglichen Exemplare zu berechnen (Output-Streuungen):
Grundlagen Probabilistik - Streuungen und probabil-Modell.gif

Probabilistik

Probabilistik (auch als Wahrscheinlichkeitstheorie bezeichnet) ist aus der Untersuchung von Zufallsgeschehen hervorgegangen:

  • Die Wahrscheinlichkeitstheorie formalisiert die Modellierung und Simulation von Zufallsereignissen.
  • Gemeinsam mit der Statistik, die anhand von Beobachtungen zufälliger Vorgänge Aussagen über das zugrunde liegende Modell trifft, bildet sie das mathematische Teilgebiet der Stochastik.
  • Die Stochastik als Lehre von der Häufigkeit und Wahrscheinlichkeit ("Kunst des Vermutens") beschäftigt sich mit der Definition, Durchführung und Auswertung von Zufallsexperimenten.

Zumindest für den Ingenieur ist die Begriffsvielfalt zu den unterschiedlichen Aspekten der Stochastik verwirrend. Folgt man zu diesen Begriffen z.B. den Verlinkungen in der Wikipedia, so gewinnt man leider den Eindruck, dass viele unscharfe Überschneidungen und Querbezüge zwischen diesen Aspekten existieren. Deshalb wird hier eine pragmatische Sicht auf die Entwicklung, Simulation und Analyse probabilistischer Modelle vertreten:

  • Es wird bei der Berücksichtigung von Streuungen im Entwicklungsprozess durchgängig der Begriff "Probabilistik" verwendet, obwohl "Stochastik" zutreffender wäre.
  • Der Begriff "Stochastik" besitzt ein negatives Image im Sinne von Chaos, Unordnung und Zufall und sollte deshalb im Zusammenhang mit der Entwicklung hochwertiger Produkte vermieden werden.
  • Der Begriff "Probabilistik" impliziert dagegen sorgfältiges Arbeiten durch die Berücksichtigung von Wahrscheinlichkeiten (d.h. aller Eventualitäten) im Entwicklungsprozess.


Probabilistische Simulation

Modelle fuer die probabilistische Simulation

Die Eigenschaften technischer Systeme streuen in der Realität. Sie sind durch ihr Nennverhalten und eine stochastische Verteilung um dieses Nennverhalten gekennzeichnet:

  • Ursachen für die stochastische Verteilung der Systemeigenschaften sind z.B. Umwelteinflüsse, Fertigungsungenauigkeiten, Prozessunsicherheiten, Alterung und Verschleiß.
  • Diese realen Aspekte der Unsicherheit müssen bei der Beurteilung und bei der Auslegung technischer Systeme beachtet werden.
  • Mit deterministischer Simulation kann man das vollständige Systemverhalten nicht vorhersagen.
  • Erforderlich ist eine probabilistische Simulation. Aus den Streuungen der Eingangsgrößen werden dabei die Streuungen der Ausgangsgrößen berechnet.

Zur Simulation technischer Systeme, welche mit den Effekten der klassischen Physik modellierbar sind, entstehen im Entwurfsprozess ausschließlich deterministische Modelle:

  • Im Sinne der Effektivität sollten bereits entwickelte deterministische Modelle mit möglichst geringen Mehraufwand für die probabilistische Simulation nutzbar gemacht werden.
  • Die Berechnung der theoretisch unendlich vielen Parameter-Varianten eines Systems (z.B. durch "Erwürfeln" mit Monte-Carlo-Methoden) ist wegen des zeitlichen Aufwandes praktisch nicht möglich.
  • Die probabilistische Simulation auf Basis deterministischer Modelle kann nur durch die Berechnung geeigneter, repräsentativer Stichproben erfolgen.

Stochastische Verteilungen der Modellparameter

Unabhängig vom Verfahren der probabilistischen Simulation müssen die Streuungen der Inputgrößen entsprechend der realen Bedingungen definiert werden. Hier werden im Weiteren nur stetige Verteilungen mit unendlich vielen möglichen Zuständen innerhalb der Toleranzgrenzen betrachtet:

  • Im Beispiel ist die Verteilungsfunktion der Normalverteilung dargestellt. Die Toleranz T ist verknüpft mit der Standardabweichung über T = 6·σ:
.

Es existieren sehr viele spezielle Verteilungsfunktionen für die Beschreibung von Streuungen. Für die Beschreibung der streuenden Modellparameter von probabilistischen Modellen genügen im Sinne der Einfachheit und Allgemeingültig im Prinzip drei Formen stochastischer Verteilungen:

  1. Normalverteilung:
    • Verteilungen, die durch Überlagerung einer großen Zahl von unabhängigen Einflüssen entstehen, sind annähernd normalverteilt.
    • Die Abweichungen der (Mess)Werte vieler natur-, wirtschafts- und ingenieurswissenschaftlicher Vorgänge vom Mittelwert lassen sich deshalb durch die Normalverteilung in sehr guter Näherung beschreiben.
    • Die Toleranzen der Technik bezeichnen das Intervall der Abweichung ±3σ vom Mittelwert und enthalten damit 99,73% aller möglichen Werte:
      .
    • Wichtig: Das bedeutet, dass ca. 0,3% aller Istwerte einer normalverteilten Streuung außerhalb der Toleranzgrenzen liegen!
  2. Gleichverteilung:
    • Der Grundgedanke einer Gleichverteilung ist, dass es keine Präferenz gibt. Alle möglichen Istwerte sind innerhalb des Toleranzgrenzen gleich wahrscheinlich (Verteilungsdichte=konstant). Außerhalb der Toleranzgrenzen ist die Verteilungsdichte=0:
      .
    • Wenn man die Qualität der Verteilungsdichtefunktion nicht kennt, so sollte man nach dem Indifferenzprinzip von Laplace eine Gleichverteilung annehmen.
    • Dies betrifft z.B. Bereiche zulässiger Umgebungsbedingungen (z.B. wie Temperaur, Feuchte, Kräfte), falls man keine statistischen Informationen zu diesen besitzt.
  3. Statistische Kennzahlen (z.B. unter Nutzung der allgemeinen Lambda-Verteilung):
    • Besitzt man statistische Daten für eine Streuung, so kann der konkrete Verlauf der zugehörigen Verteilung durch die Momente der Verteilung in guter Näherung beschrieben werden:
      1. Erwartungswert
      2. Varianz
      3. Schiefe
      4. Kurtosis (Maß für Steilheit)
    • Diese Kennzahlen (Momente) können aus den statistischen Daten ermittelt werden.
    • Die Parameter der allgemeinen Lambda-Verteilung (Lambda1 ... Lambda4) werden anschließend durch Parameter-Identifikation automatisiert ermittelt.
    • Durch diese Parameter kann eine beliebige Verteilungsfunktion abgebildet werden. Dabei ist Lambda1 der Erwartungswert X und Lambda2 die Skalierung der Verteilung infolge der Toleranz T=2/Lambda2. Lamda3 und Lambda4 sind die Formfaktoren.
    • Bei symmetrischer Verteilung ergibt sich Lambda3=Lambda4. Umtauschen von Lambda3 und Lambda4 bedeutet eine Spiegelung der Verteilung um den Mittelpunkt.
.

Statistische Versuchsplanung (Design of Experiments DoE)

Statistische Versuchsplanung ermöglicht mit wenigen deterministischen Simulationen (= minimaler Stichprobenumfang) den Wirkzusammenhang zwischen Einflussfaktoren (= unabhängige Inputgrößen) und Zielgrößen (= abhängige Outputgrößen) hinreichend genau zu ermitteln:

  • Der erforderliche Umfang einer Stichprobe für das Erreichen einer gewünschten Ergebnis-Genauigkeit ist stark abhängig vom Vorwissen über die Eigenschaften des zu untersuchenden Systems (hier des deterministischen Modells)
  • Besitzt das zu untersuchende System eine stetige und nur leicht gekrümmte Übertragungsfunktion, so genügt ein relativ grobes Abtastraster im Streubereich der Input-Größen.
  • Je unstetiger und welliger die Übertragungsfunktion ist, desto enger muss die zu generierende Stichprobe den Streubereich abtasten.

Ersatzmodelle (Antwortflaechen)

Probabilistische Analyse

...