Reichel Mathematik 6, Schulbuch
187 5.6 Bedingte Wahrscheinlichkeit – Satz von BAYES 5 Bedingte Wahrscheinlichkeit – Satz von BAYES 1. Bedingte und unbedingte Wahrscheinlichkeiten unterscheiden Im Folgenden wollen wir einen – weitverbreiteten – Irrglauben aufdecken, der sich in Aussagen wie der folgenden äußert, wo Franz beim „Mensch-ärgere-dich-nicht“-Spiel meint: „Jetzt habe ich schon 20-mal vergeblich auf einen Sechser gewartet; jetzt muss er doch endlich kommen“. Will Franz damit ausdrücken, dass er es als ziemlich unwahrscheinlich ansieht, dass eine Wurfserie der Art „Erst beim 21. Mal kommt erstmals ein Sechser“ auftritt, dann hat er Recht. Die Wahrscheinlichkeit für ein solches Ereignis ist (5/6) 20 · 1/6 ≈ 0,004 . Begründe ! Wenn Franz damit aber ausdrücken will, dass wegen des langen Nichterscheinens des Sechsers dieser beim nächsten Wurf mit einer Wahrscheinlichkeit größer als 1/6 auftritt, so täuscht er sich gewaltig. Es war eine der Grundannahmen eines LAPLACE’schen Zufallsexperiments (und Würfeln ist ein solches), dass die Eintrittswahrscheinlichkeiten der Elementarereignisse bei jedem Versuch die gleichen sind, al- so vom Ausgang der vorangegangenen Versuche unabhängig sind. (Der Würfel hat kein Gedächtnis!) Hätte Franz eine zur obigen Aussage analoge Aussage nicht beim Würfeln, sondern beim Ziehen ohne Zurücklegen aus der unten gezeigten Urne gemacht, so hätte er Recht. Die Versuchsausgänge sind vom Ausgang der vorangegangenen Versuche abhängig. Das Ziehen einer „ 0 “ begünstigt beim nächsten Zug das Ziehen einer „ 1 “ ( = benachteiligt das Ziehen einer „ 0 “), und umgekehrt begünstigt das Ziehen einer „ 1 “ beim nächsten Zug das Ziehen einer „ 0 “ ( = benachteiligt das Ziehen einer „ 1 “). Die Einflussnahme eines Ereignisses auf die Wahrscheinlichkeit des Eintretens eines anderen Ereignis- ses drückt man durch die Schreibweise P (A 1 B) aus; man bezeichnet damit die Wahrscheinlichkeit für das Eintreten des Ereignisses A unter der Bedingung (Voraussetzung, Annahme, Hypothese), dass B be- reits eingetreten ist. Demgemäß liest man zB P (0 1 01) als „die Wahrscheinlichkeit P von 0 unter der Be- dingung 01 “. Oder ausführlicher gesprochen: P (0 1 01) ist die Wahrscheinlichkeit eine „ 0 “ zu ziehen unter der Voraussetzung, bereits die geordnete Stichprobe „ 01 “ gezogen zu haben. Erøäutere und vervoøøstän- dige Fig. 5.11! Fig. 5.11 0 (2) 1 (3) P (0 ‡ 0) = 1/4 P (0) =2/5 P (1 ‡ 0) =3/4 P (1) =3/5 P (0 ‡ 1) =2/4 P (1 ‡ 1) =2/4 P (0 ‡ 10) = ... P (1 ‡ 01) =2/3 P (0 ‡ 01) = 1/3 P (1 ‡ 00) = 1 P (0 ‡ 00) =0 0 1 0 0 0 0 … … … 0 0 1 1 1 1 1 1 In Verallgemeinerung dieser Überlegungen bezeichnet man die Wahrscheinlichkeit für das Eintreten von A unter der Bedingung (Voraussetzung, Annahme, Hypothese), dass B eintritt (eingetreten ist), als bedingte Wahrscheinlichkeit P(A 1 B) . Hat das Eintreten von B auf die Wahrscheinlichkeit des Eintretens von A keinen Einfluss, so schreibt man statt P (A 1 B) einfach P (A) und bezeichnet sie als unbedingte bzw. absolute Wahrscheinlichkeit . Mit diesen Wahrscheinlichkeiten hatten wir es beim Ziehen mit Zurücklegen zu tun. Erøäutere! Definition Das Ereignis A heißt vom Ereignis B stochastisch unabhängig , wenn giøt: P (A 1 B) = P (A) Beachte: Stochastische Abhängigkeit bedeutet nicht zwingend eine kausale Abhängigkeit (vgl. Buch 5. Kl. S. 153). Erøäutere! 5.6 S 193 F 5.11 Nur zu Prüfzwecken – Eigentum des Verlags öbv
Made with FlippingBook
RkJQdWJsaXNoZXIy ODE3MDE=