reden.arpa-docs.ch
Rektorats Reden © Prof. Schwinges

Wahrscheinlichkeit und Wissenschaft

Rektoratsrede

Prof. Dr. A. AIder
VERLAG PAUL HAUPT BERN 1953

Alle Rechte vorbehalten
Copyright 1953 by Paul Haupt Berne
Printed in Switzerland
Buchdruckerei Paul Haupt Bern

Wahrscheinlichkeit und Wissenschaft

Rektoratsrede von Prof. Dr. A. Alder

Die verhältnismäßig junge Wahrscheinlichkeitsrechnung hat durch den beispiellosen Aufschwung der statistischen Forschungsmethoden seit Beginn dieses Jahrhunderts, und ganz besonders in den letzten 20 Jahren, eine immer wachsende Bedeutung für die Entwicklung der Wissenschaft gewonnen.

Gerade die vielfachen Anwendungen der Wahrscheinlichkeitsrechnung in den verschiedensten Gebieten der Wissenschaft und des praktischen Lebens sind dazu angetan, das Interesse der Gebildeten an dieser Entwicklung wachzurufen. Die in den letzten Dezennien unternommenen Versuche der Axiomatisierung der Wahrscheinlichkeitsrechnung und die Anstrengungen der Philosophie zur Klärung des Begriffes beweisen aber, daß das stolze Gebäude noch lange nicht auf unerschütterlichen Grundlagen ruht, wie zum Beispiel die Geometrie.

Der Ausdruck «wahrscheinlich» wird im gewöhnlichen Sprachgebrauch vielfältig verwendet. Wenn an einem heissen Sommertag Wolken aufziehen, so sagen wir, es werde wahrscheinlich ein Gewitter geben. Diese Aussage gründen wir auf frühere Erfahrungen, weil uns bekannt ist, dass im Sommer, wenn es schwül ist und Wolken aufziehen, ein Gewitter ausbrechen kann. Mit unserer Wendung deuten wir also die Möglichkeit

eines Ereignisses an, ohne daß wir sagen können, ob es sicher eintritt.

In der Folge wollen wir uns mit dem Begriff der mathematischen Wahrscheinlichkeit eines Ereignisses beschäftigen und bewußt die philosophischen Theorien über den Begriff der Wahrscheinlichkeit aus unsern Betrachtungen weglassen. Wie wird nun die mathematische Wahrscheinlichkeit definiert?

Als klassische Definition der mathematischen Wahrscheinlichkeit bezeichnet man die von P. S. Laplace in seinem «Essai philosophique sur les probabilités» 1814 gegebene. Der Essai enthält die philosophischen Grundlagen zu seinem monumentalen Werk «Théorie analytique des probabilités», das 1812 erschienen war und dessen späteren Auflagen er als Einleitung beigegeben wurde. Im Abschnitt betitelt «Von der Wahrscheinlichkeit» gibt Laplace folgende Definition:

«Die Theorie des Zufalls besteht darin, alle Ereignisse gleicher Art auf eine gewisse Zahl gleichmöglicher Fälle zurückzuführen, d. h. solcher, über deren Existenz wir in gleichem Maße im Zweifel sind und in der Feststellung der Zahl der dem Ereignis günstigen Fälle, dessen Wahrscheinlichkeit man sucht. Das Verhältnis dieser Zahl zu derjenigen aller möglichen Fälle ist das Mass dieser Wahrscheinlichkeit, die daher einfach ein Bruch ist, in dessen Zähler die Zahl der dem Ereignis günstigen Fälle und in dessen Nenner die Zahl aller möglichen Fälle steht.»

Wenden wir diese Definition des Masses der Wahrscheinlichkeit, die in der Folge einfach als Definition der Wahrscheinlichkeit eines Ereignisses bezeichnet wurde, auf die Beantwortung der Frage an: «Welche Wahrscheinlichkeit besteht, mit einem Würfel in einem Wurf die Augenzahl «1» zu werfen?» Wir schließen dann wie folgt: Wenn der Würfel geworfen wird, so sind sechs Fälle möglich; einer davon ist dem Ereignis, die Zahl «1» zu werfen, günstig, also ist die Wahrscheinlichkeit der Augenzahl «1» W(1)= 1/6

Hält dieser Schluß der Kritik stand? Streng genommen nur dann, wenn ich weiss, dass der Würfel symmetrisch ist oder, wie man etwa auch sagt, ein «richtiger» Würfel ist. Richtig werde ich einen Würfel nennen, der aus vollständig homogenem Material erstellt ist und dessen Schwerpunkt im Mittelpunkt des Würfels liegt. Hat es einen Sinn von der Wahrscheinlichkeit eines einzigen Wurfes zu sprechen? Ist es nicht vielmehr so, daß ich mit dieser Aussage die Vorstellung verbinde, daß bei einer längern Serie von Würfen mit diesem Würfel etwa ein Sechstel davon die Zahl 1 und je ein Sechstel davon die übrigen Zahlen von 2 bis 6 zeigen wird?

Ist aber der Würfel nicht symmetrisch, was ergibt sich dann? Offenbar kann ich diesen Umstand von vornherein in keiner Weise berücksichtigen. Wir kommen hier auf eine Kernfrage der klassischen Wahrscheinlichkeitsdefinition zu sprechen, nämlich ob entschieden werden kann, daß Fälle gleichmöglich sind. Jakob Bernoulli (1654-1705) hat in seiner berühmten Ära conjectandi», die acht Jahre nach seinem Tode, 1713 von seinem Neffen Nicolaus Bernoulli veröffentlicht wurde, die sechs Fälle, die beim Werfen eines Würfels eintreten können, für gleichmöglich erklärt, «da wegen der gleichen Gestalt aller Flächen und wegen des gleichmäßig verteilten Gewichtes des Würfels» kein Grund dafür vorhanden sei, daß eine Würfelseite leichter als eine andere fallen sollte. Bei Laplace haben wir bereits gesehen, daß er Fälle als gleichmöglich bezeichnet, «über deren Existenz wir in gleichem Masse im Zweifel sind» (c'est-à-dire tels que nous soyons également indécis sur leur existence), während er an anderer Stelle sagt, man «habe keinen Grund zu glauben, einer der Fälle werde eher eintreten als die andern». Somit berufen sich beide auf das logische Prinzip des mangelnden Grundes, d. h. Fälle werden als gleichmöglich betrachtet, weil kein Grund erkennbar ist, der für ihre

ungleiche Realisierungsmöglichkeit spricht. Allerdings führt Bernoulli, wie wir gesehen haben, zugleich Gründe für das Bestehen der Gleichmöglichkeit an.

Dieses Prinzip des mangelnden Grundes ist oft kritisiert worden, und es hat zu falschen Resultaten geführt, die die Wahrscheinlichkeitsrechnung scharfer Kritik von Seiten der Philosophen, aber auch der Mathematiker ausgesetzt haben.

Wenn die Mathematiker im 17. und 18. Jahrhundert Fragen von Glücksspielen, wie das Werfen von Münzen oder Würfeln, das Ziehen von Karten aus einem Kartenspiel oder von Kugeln aus Urnen, behandelten, haben sie immer «idealisierte» Fälle vorausgesetzt, und so konnten sie denn auch mit Hilfe der Kombinatorik oder unter Anwendung von Differenzengleichungen sehr bemerkenswerte Resultate in der Lösung von Einzelfragen erzielen. Nur wurde allzu gerne vergessen, daß die Resultate sich auf gedachte Spiele, sogenannte «Modelle», bezogen. Wenn dann wirkliche Spiele oder statistische Reihen abweichende Resultate ergaben, so wurde daraus oft der unzulässige Schluss gezogen, die Theorie sei nicht richtig.

Noch eine Bemerkung zur klassischen Definition der Wahrscheinlichkeit. Sie bringt nicht nur Schwierigkeiten, wenn wir sie auf praktische Fälle anwenden wollen wegen der Gleichmöglichkeit der Ereignisse, sondern auch, wenn wir sie zur Bestimmung der sogenannten geometrischen Wahrscheinlichkeiten benützen wollen. Welche Wahrscheinlichkeit besteht zum Beispiel dafür, daß ein beliebig gewählter Punkt auf einer Strecke in einen bestimmten Abschnitt davon fällt? Eine Strecke hat bekanntlich unendlich viele Punkte und auch ein beliebiger Abschnitt von ihr. Die klassische Definition läßt uns hier also im Stich. Zu einer Lösung des Problems gelangen wir, wenn wir uns vorstellen, daß die Wahrscheinlichkeit für einen Punkt in einen gewissen Abschnitt einer Strecke zu fallen proportional

ihrer Länge sei. Ein besseres Bild ergibt sich, wenn wir annehmen, ähnlich wie in der klassischen Mechanik, daß die Wahrscheinlichkeit analog einer Masse verteilt sei. In der Mechanik setzen wir bekanntlich eine sogenannte Massendichte voraus, die wir durch eine Funktion darstellen können. Analog nehmen wir eine Wahrscheinlichkeitsdichte an, und nachher ist die Wahrscheinlichkeit in einem Intervall darstellbar durch ein Integral. Ist die Wahrscheinlichkeitsdichte überall dieselbe, so ist das Mass der Wahrscheinlichkeit eines Intervalles gleich seiner Länge. Also kommt nur einem Intervall eine Wahrscheinlichkeit zu, während die Wahrscheinlichkeit für einen Punkt gleich Null ist. Null hat hier aber nicht die Bedeutung der Unmöglichkeit, sondern sagt lediglich, daß es praktisch unmöglich ist, durch zufällige Auswahl von Punkten einer Strecke einen bestimmten Punkt zu treffen. Denken Sie an den Schützen, der mit seinem Geschoß das Zentrum der Scheibe zu treffen versucht. Das Geschoss hat einen gewissen Durchmesser, und deshalb kann er damit nicht einen Punkt treffen, sondern er trifft immer ein kleines Flächenstück.

Wenden wir uns nun noch den andern Definitionen der mathematischen Wahrscheinlichkeit, den Häufigkeitsdefinitionen, zu. Wir könnten sie auch die Definitionen der statistischen Theorie der Wahrscheinlichkeit nennen. Ihren Ursprung verdankt diese englischen und holländischen Mathematikern, die im 17. Jahrhundert aus statistischen Daten versuchten, Probleme der Bevölkerungstheorie zu lösen und die Berechnung von Leibrenten-Barwerten vorzunehmen.

Die Häufigkeitsdefinitionen haben ihren Ursprung in der Beobachtung von statistischen Reihen. Die eine stammt von R. von Mises der sie in zwei bedeutenden Werken entwickelt

hat, in «Wahrscheinlichkeit, Statistik und Wahrheit», 1928, und in «Wahrscheinlichkeitsrechnung und ihre Anwendung in der Statistik und theoretischen Physik», 1931. Er bezeichnet als Gegenstand seiner rationellen Wahrscheinlichkeitsrechnung Massenerscheinungen oder Wiederholungsvorgänge, bestehend aus sehr vielen Einzelelementen. Aus der Beobachtung von Würfen mit einer Münze oder besser gesagt einer symmetrischen Scheibe, deren eine Seite man «Schrift», deren andere man «Wappen» nennt und wobei man dem Ereignis «Schrift» die Zahl «1», dem Ereignis «Wappen» die Zahl «0» zuordnet, hat er das Bild einer regellosen Folge der Zahlen 1 und 0 gewonnen, zum Beispiel 1 1 0 0 0 1 1 1 0 1. Er verlangt nun, daß man sich eine solche Alternative — wie man die Folge von Elementen nennt, die nur zwei Merkmale aufweisen können — unbeschränkt fortsetzbar denke. Überdies müssen die relativen Häufigkeiten für das Auftreten der beiden Merkmale bestimmte Grenzwerte besitzen. Diese Grenzwerte bezeichnet er dann als die mathematischen Wahrscheinlichkeiten für das Auftreten der beiden Merkmale. Er stellt aber an seine Alternative noch die weitere Forderung, dass aus ihr durch sogenannte Stellenauswahl Teilfolgen gebildet werden können, in welchen die relativen Häufigkeiten für das Auftreten der beiden Merkmale wieder dieselben Grenzwerte besitzen wie in der ursprünglichen Folge. Für unsere Alternative ist es so, daß die relativen Häufigkeiten der beiden Merkmale nach dem Wert 1/2 streben müssen, je mehr die Zahl der Würfe vermehrt wird. Ferner müssen die Teilfolgen, die man zum Beispiel dadurch erhält, daß man jedes zweite Element auswählt, oder indem man jedes Element auswählt, das auf das zweimalige Eintreffen von Wappen folgt, denselben Grenzwert der relativen Häufigkeit haben.

Eine solche unendliche Folge von Elementen, die zwei Merkmale aufweisen, nennt von Mises ein Kollektiv, und die Forderung nach der Stellenauswahl nennt er das Regellosigkeitsaxiom oder auch das Prinzip vom ausgeschlossenen Spielsystem.

Was an der Konstruktion von Mises' besonders hervorgehoben werden muß ist, dass vorerst ein Kollektiv mit unendlich vielen Elementen vorliegen muss, bevor die Wahrscheinlichkeit eines Merkmals definiert werden kann. Sodann muss dieses Kollektiv gegen Stellenauswahl unempfindlich sein.

Es sei nur erwähnt daß sich auch Kollektive bilden lassen für Ereignisse mit mehr als zwei Merkmalen.

Wir haben hier den Versuch einer Axiomatisierung der Wahrscheinlichkeitsrechnung vor uns, der aber nicht als vollständig geglückt bezeichnet werden kann. In erster Linie muß gesagt werden, daß wir uns wohl ein Kollektiv mit unendlich vielen Elementen denken können, daß wir aber in der Wirklichkeit keine solchen haben. Was die Stellenauswahl anbetrifft, so murten wir ja viele solche Auswählen treffen, bevor wir entscheiden könnten, ob eine vorliegende unendliche Folge von Elementen ein Kollektiv darstellt oder nicht. Im übrigen ist von Mises von verschiedenen Seiten vorgeworfen worden, daß seine Theorie auf logische Widersprüche führe. Aus gegebenen Kollektivs lassen sich auf verschiedene Weise andere Kollektivs ableiten, und zwar durch Auswahl, Mischung, Teilung und Verbindung. Nach von Mises ist es Aufgabe der Wahrscheinlichkeitsrechnung, die Wahrscheinlichkeiten innerhalb eines abgeleiteten Kollektivs aus den gegebenen Wahrscheinlichkeiten der Ausgangskollektivs zu errechnen.

Sobald wir es mit statistischen Wahrscheinlichkeiten zu tun haben, tritt ein neues Element in den Kreis der Betrachtung.

Bei allen Glücksspielen und den in ihnen auftretenden Wahrscheinlichkeiten spielt die Zeit keine Rolle. Verfolgen wir aber statistische Beobachtungsreihen, so verlaufen diese in der Zeit. Wenn ich zum Beispiel untersuchen will, wie viele Personen aus einer Gesamtheit sterben, so muß ich festlegen, in welchem Zeitabschnitt ich die Gestorbenen auf die zu Beginn desselben Lebenden beziehen will. Wir gelangen damit ganz von selbst auf Verhältniszahlen, die sich in bezug auf ihre Beobachtungszeit unterscheiden. Wir wollen also annehmen, daß wir zum Beispiel die Männer eines bestimmten Alters während eines Jahres beobachten und in jedem Falle beobachten, ob ein Mann am Ende des Jahres noch am Leben ist oder nicht. Selbst wenn wir annehmen, daß es uns mit Hilfe eines medizinischen Experten möglich gewesen ist, ins einzelne gehende Angaben über die Gesundheit, über den Beruf, die Gewohnheiten, die materiellen Verhältnisse zu erhalten, ist es uns unmöglich, eine exakte Voraussage über Leben oder Tod eines bestimmten Mannes zu machen. Die Ursachen, die zum endgültigen Resultat führen, sind viel zu zahlreich und zu kompliziert, um irgendwelche genaue Berechnung zuzulassen. Selbst ein Beobachter, der über viel weitergehende biologische Kenntnisse verfügen würde, als es zurzeit möglich ist, müsste zum selben Schluss kommen, eben wegen der Vielzahl und der Unübersichtlichkeit der Ursachen, die am Werk sind. Wir befinden uns also vor derselben Situation wie im Falle unseres Würfels. Die Gesetze, die für das Geschehen wirksam sind, sind zu wenig bekannt. Aber selbst, wenn unser Wissen größer wäre, ist die Struktur der Fälle so verwickelt, daß eine individuelle Voraussage nicht möglich ist. In vielen andern Fällen befinden wir uns vor derselben Situation, daß im Einzelfall das, war wir Zufall nennen, herrscht.

Denken wir nur an die Messung einer physikalischen Größe,

zum Beispiel der Länge eines Stabes oder des Gewichtes eines Körpers. Mögen wir die äußern Umstände noch so gleichmässig als möglich halten, so werden doch zwei Beobachter nicht zum selben Resultat gelangen, ja ein und derselbe Beobachter wird bei jeder Messung ein etwas anderes Resultat erhalten. Diese Tatsache wird seit Laplace und Gauss der Wirkung einer großen Zahl kleiner störender Ursachen zugeschrieben, deren Zusammenwirken einen gewissen «Fehler» ergibt, der jede einzelne Messung beeinflußt. Der Betrag dieses Fehlers schwankt von einer Messung zur andern in unregelmäßiger Weise und verunmöglicht so, eine Voraussage über eine einzelne Messung zu machen.

Ganz ähnliche Verhältnisse treffen wir an, wenn wir Qualitätskontrollen von fabrizierten Artikeln vornehmen, handle es sich um die Länge von Schrauben, um das Gewicht eines Lebensmittels, das mit einer automatischen Waage gewogen wird, usw.

Alle die erwähnten Beispiele sind charakteristisch für große und einflußreiche Gruppen von Ereignissen, in welchen der Zufall wirkt. Sie werden denn auch in jüngerer Zeit zufallsartige Experimente (random experiments) genannt.

Kleine Variationen in den Anfangsbedingungen der beobachteten Ereignisse, die durch unsre Instrumente nicht festgestellt werden können, haben oft bedeutende Veränderungen im Endeffekt zur Folge. Der schwierige Charakter der die beobachteten Erscheinungen beherrschenden Gesetze kann exakte Berechnung praktisch oder theoretisch unmöglich machen. Unkontrollierbare Einflüsse durch kleine störende Faktoren können zu unregelmäßigen Abweichungen von einem vorausgesetzten «wahren Wert» führen.

Es ist klar, daß kein scharfer Unterschied zwischen diesen verschiedenen Arten von Zufälligkeit besteht. Es zeigt sich

aber, daß in all dieser Unregelmäßigkeit in den Schwankungen eine typische Form von Regelmäßigkeit hervortritt, die als Ausgangspunkt einer Definition der Wahrscheinlichkeit dienen kann.

Sobald wir nämlich unsere Aufmerksamkeit nicht auf den einzelnen Versuch richten, sondern auf die ganze Versuchsreihe, so ergibt sich eine äußerst interessante Erscheinung:

An Stelle des unregelmäßigen Verhaltens der einzelnen Ereignisse, zeigt das durchschnittliche Resultat einer langen Reihe zufallsartiger Experimente eine auffallende Regelmäßigkeit. Wir sollten dabei, wenn wir genau sein wollen, sagen, mit wenigen Ausnahmen.

Wenn wir daher die relative Häufigkeit eines Ereignisses verfolgen, so stellen wir in einer Versuchsreihe fest, daß mit wachsender Versuchszahl das Verhältnis m/n in der Regel die Tendenz hat, sich mehr oder weniger einem konstanten Wert zu nähern, wenn wir mit n die Zahl der Versuche und mit m die Zahl der durch ein bestimmtes Merkmal ausgezeichneten Versuche bezeichnen.

in dieser Beziehung sind von besonderem Interesse die von I. E. Kerrich, Senior Lecturer an der Universität Witwatersrand in Johannesburg, während seiner Internierung 1941 in einem Gefangenenlager in Hald in Dänemark ausgeführten 10000 Versuche mit einem kreisrunden Metallstückchen. Die eine Seite nannte er «Kopf», die andere «Zahl». Er bezeichnet mit m die Zahl der in n Würfen erschienene Anzahl «Kopf» und fand folgende Ergebnisse seiner Versuche 1:

Diese Stabilität der relativen Häufigkeit in einer langen Versuchsreihe eines vom Zufall abhängigen Ereignisses wurde schon oft nachgewiesen. Wir können daher mit Cramér 2 folgende Feststellung machen, obschon ja eine solche Aussage weder durch Versuche bewiesen noch widerlegt werden kann:

Jedem Ereignis E, welches mit einem zufallsartigen Experiment E verbunden ist, sollten wir eine Zahl P zuordnen können, so dass in einer langen Folge von Wiederholungen von E die relative Häufigkeit von E ungefähr gleich P ist.

Wir haben damit eine Umschreibung des Begriffes statistische Regelmäßigkeit gefunden, der die empirische Basis der Theorie der Statistik bildet.

Die vorstehende Formulierung ist zu wenig scharf. Zu einer Präzisierung gelangen wir, wenn wir eine mathematische Theorie der Erscheinungen, die statistische Regelmäßigkeit zeigen, entwickeln.

Bestätigt sich nämlich in einer gewissen Gruppe von beobachtbaren Vorgängen eine Regelmäßigkeit, so können wir versuchen, eine mathematische Theorie des Gegenstandes zu entwickeln. Diese Theorie kann als mathematisches Modell der empirischen Tatsachen angesehen werden, welche unsere Beobachtungen darstellen.

Man wählt als Ausgangspunkt einige der hauptsächlichsten und einfachsten Züge der im Beobachtungsmaterial festgestellten Regelmäßigkeit. Diese drücken wir in vereinfachter und idealisierter Form als mathematische Sätze aus, die wir als Axiome unserer Theorie zu Grunde legen. Von diesen Axiomen aus gewinnt man dann eine Anzahl Sätze durch rein logische Deduktion, ohne irgend welche weitere Bezugnahme auf die Erfahrung. Das logisch verträgliche System solcher, auf axiomatischer Grundlage gewonnenen Sätze bildet die mathematische Theorie.

Zwei klassische Beispiele dieser Art sind die Geometrie und die analytische Mechanik. Geometrie zum Beispiel ist ein System rein mathematischer Sätze, dazu bestimmt, ein mathematisches Modell einer Gruppe empirischer Tatsachen zu sein, die mit der Lage und der Gestalt der Körper im Raum zusammenhängen. Es beruht auf einer verhältnismäßig kleinen Zahl von Axiomen, die ohne Beweis eingeführt werden. Sind die Axiome einmal gewählt, so kann das ganze System der geometrischen Lehrsätze auf rein deduktivem Wege gewonnen werden. In der Wahl der Axiome ließen sich die Schöpfer von den Regelmäßigkeiten leiten, die ihnen die Erfahrung geliefert hatte.

In der Wahl der Axiome ist man in gewisser Weise frei, und so gibt es denn auch verschiedene Geometrien, die euklidische und die nicht-euklidischen. Jede davon ist auf ihrem eigenen Axiomensystem aufgebaut und bildet ein Gebäude von logisch widerspruchsfreien Sätzen.

In ähnlicher Weise bildet die analytische Mechanik ein mathematisches Modell für beobachtete Tatsachen, die mit dem Gleichgewicht und der Bewegung von Körpern zusammenhängen

Jeder Satz in einem solchen System ist wahr im mathematischen Sinn des Wortes, sobald er in logisch korrekter Weise von den Axiomen abgeleitet ist. Es muß aber mit aller Deutlichkeit hervorgehoben werden, daß kein einziger Satz einer solchen mathematischen Theorie etwas beweist über die wirklichen Dinge. Die Punkte, Geraden und Ebenen der reinen Geometrie sind nicht die Dinge, die wir aus der Erfahrung kennen. Die reine Theorie gehört allein der gedanklichen Sphäre an und handelt von abstrakten oder idealen Objekten, die vollständig definiert sind durch ihre Eigenschaften, die ihnen die Axiome verleihen. Für diese Dinge allein sind die Sätze der Theorie richtig und vollständig wahr. Aber kein Satz über solche rein begrifflichen Dinge kann je einen logischen Beweis für Eigenschaften der wahrnehmbaren Dinge unserer Erfahrung liefern. Mit mathematischen Argumenten ist es grundsätzlich unmöglich, physische Tatsachen zu beweisen.

Der Satz der euklidischen Geometrie, daß in einem Dreieck die Winkelsumme 180° ist, ist streng richtig für ein Dreieck, wie die reine Geometrie es definiert. Daraus folgt keineswegs, daß bei der Messung der Winkelsumme in einem wirklichen Dreieck sich 180 °ergibt, so wenig als aus den Sätzen der klassischen Mechanik abgeleitet werden kann, dass die Sonne und die Planeten notwendig sich in Übereinstimmung mit dem Newtonschen Gravitationsgesetz bewegen.

Gewisse Sätze einer mathematischen Theorie können aber an der Erfahrung überprüft werden. So kann der euklidische Satz von der Winkelsumme im Dreieck überprüft werden durch Messungen, die an wirklichen Dreiecken ausgeführt werden. Wenn wir mit Hilfe systematischer Überprüfung finden, daß die nachprüfbaren Konsequenzen einer Theorie mit genügender Genauigkeit mit den vorhandenen empirischen Tatsachen übereinstimmen, dann fühlen wir uns mehr oder weniger

berechtigt zu der Annahme, dass eine gewisse Ähnlichkeit zwischen unserer mathematischen Theorie und der Struktur der wahrnehmbaren Welt besteht. Wir nehmen dann weiter an, daß die Übereinstimmung zwischen Theorie und Erfahrung auch für künftige Ereignisse gültig sei und sogar für Konsequenzen der Theorie, die noch nicht der direkten Nachprüfung unterworfen wurden, und wir lassen unsere Handlungen durch diese Erwartung leiten. Obschon es keinen logischen Beweis gibt, daß die Winkelsumme in einem wirklichen Dreieck gleich 180° ist, halten wir es praktisch für sicher, daß unsere Messungen eine Winkelsumme ergeben, die ungefähr diesem Wert entspricht. Wir glauben aber auch, daß dieselbe praktische Übereinstimmung sich für irgend einen andern Satz der euklidischen Geometrie ergeben wird, wenn wir ihn durch Versuche überprüfen.

Die praktische Gewißheit, die wir von einem Satz der euklidischen Geometrie haben, wird verschieden sein von derjenigen über den zweiten Hauptsatz der Thermodynamik. Die «Güte» der Übereinstimmung, die wir vernünftigerweise erwarten, wird nicht immer dieselbe sein. Während in gewissen Fällen die feinsten Instrumente keine Abweichung von Theorie und Erfahrung aufzeigten, gibt es andere Fälle, in denen ein «Gesetz» nur für die Hauptzüge der beobachteten Tatsachen gilt, wobei die Abweichungen als «Fehler» oder «Störungen» bezeichnet werden.

Wenn eine mathematische Theorie eine mehr oder weniger beständige Übereinstimmung mit den Tatsachen ergibt, so gewinnt sie praktischen Wert, ganz unabhängig vom rein mathematischen Interesse, das sie verdient.

Der hauptsächliche Anwendungsbereich einer mathematischen Theorie dient der Beschreibung, der Analyse und der Voraussage.

Durch das kopernikanische System kann zum Beispiel die Menge der astronomischen Beobachtungen über die Bewegung der Planeten in gedrängter Form beschrieben werden.

Die Resultate einer Theorie werden als Werkzeuge einer wissenschaftlichen Analyse der beobachteten Erscheinungen verwendet. Das allgemeine Prinzip, das für diese Anwendungen leitend ist, kann etwa wie folgt formuliert werden: «Eine Theorie, welche mit der Wirklichkeit nicht gut übereinstimmt, muß abgeändert werden.» Soll der Einfluß eines besondern Faktors auf eine Erscheinung untersucht werden, so können wir zum Beispiel eine Theorie aufstellen, wonach dieser ohne Einfluß auf die Erscheinung ist und dann die Konsequenzen dieser Theorie mit unsern Beobachtungen vergleichen. Finden wir dabei in einem gewissen Punkt einen deutlichen Widerspruch zwischen Theorie und Erfahrung, so veranlasst uns das, unsere Theorie zu ergänzen, um den vernachlässigten Einfluss zu berücksichtigen.

Endlich können wir die Theorie dazu verwenden, um die Ereignisse vorauszusagen, die sich unter gegebenen Umständen ereignen. Ein Beispiel solcher Voraussage ist die Vorausberechnung einer Sonnenfinsternis durch einen Astronomen. Vorausberechnungen, aber viel weniger sichere, finden wir in der mathematischen Bevölkerungstheorie, in welcher Methoden entwickelt werden, um die zukünftige Bevölkerungszahl zu ermitteln.

Um nun zum mathematischen Begriff der Wahrscheinlichkeit auf statistischer Grundlage zu kommen, erinnern wir uns der von Kerrich mitgeteilten Zahlen. Folgen wir weiter Cramér so können wir sagen, dass die relative Häufigkeit in unserer Versuchsreihe mit zunehmender Versuchszahl mit praktisch genügender Gewißheit angenähert einer festen Zahl P

gleich ist (im Beispiel 0,507). In der mathematischen Theorie der Wahrscheinlichkeit deuten wir daher diese Zahl wie folgt:

Wenn von einem Ereignis E in bezug auf ein Experiment E gesagt wird, seine Wahrscheinlichkeit sei gleich P, dann hat das lediglich folgende Meinung: Es ist in einer langen Reihe von Wiederholungen des Experimentes E praktisch sicher, daß die relative Häufigkeit von E annähernd gleich P ist.

Die Zahl P, die hier als Wahrscheinlichkeit eingeführt wird, ist also nichts anderes als das begriffliche Gegenstück der empirischen relativen Häufigkeiten. Was besonders hervorgehoben werden muß, ist der Umstand, daß einmal die Art des zufallsartigen Experimentes E umschrieben werden muß und ferner das Ereignis E. (Zum Beispiel besteht bei den Untersuchungen von Kerrich E im Werfen der Metallscheibe, E im Nachobenliegen der Seite «Kopf».)

Es seien noch einige Bemerkungen hinsichtlich des Verhaltens der Zahl P gemacht. Relative Häufigkeiten sind echte Brüche, und daher muß die Wahrscheinlichkeit eines Ereignisses zwischen 0 und 1 liegen. Kann ein Ereignis E nie eintreten, so muß seine Wahrscheinlichkeit Null sein. Daraus kann nun nach der Häufigkeitstheorie nicht geschlossen werden, daß ein Ereignis, dessen Wahrscheinlichkeit Null ist, notwendig ein unmögliches Ereignis ist. Die Interpretation von P als relative Häufigkeit sagt dann nur, dass diese für große n näherungsweise gleich Null sei, so dass bei sehr langer Versuchsreihe das Ereignis E nur in einem sehr kleinen Prozentsatz aller Fälle eintreten wird. Wenn wir zum Beispiel 100mal eine Münze werfen, so wird eine ununterbrochene Folge von 20mal «Kopf» sehr unwahrscheinlich sein, noch unwahrscheinlicher 50mal nacheinander «Kopf». Die letztgenannte Wahrscheinlichkeit ist zum Beispiel 2 -50 = 10 -15 , eine Zahl also, die erst an der fünfzehnten Stelle nach dem Komma eine Eins hat.

Praktisch ist dieser Wert gleich Null, aber in einer sehr langen Versuchsserie von je 100 Würfen könnte das Ereignis doch einmal eintreten.

Wenn aber der Versuch nur einmal ausgeführt wird, so darf als praktisch sicher gelten, daß das Ereignis nicht eintritt.

Wir haben hier das Analogon zu unserer Feststellung hinsichtlich einer kontinuierlichen Wahrscheinlichkeitsverteilung bei Verwendung der klassischen Definition der Wahrscheinlichkeit, wo wir festgestellt haben, dass einem Punkt keine Wahrscheinlichkeit zukommt, daß dagegen eine Wahrscheinlichkeit dafür besteht, daß der Punkt in einem, wenn auch noch so kleinen, Intervall liegt.

Ganz ähnlich liegen die Verhältnisse, wenn das Ereignis gewiß ist, wenn es also bei jedem Versuch eintritt. So ist es zum Beispiel sicher, daß beim Spiel mit einem Würfel eine der sechs Würfelseiten nach oben zu liegen kommt. Die Möglichkeit, daß der Würfel auf einer Kante oder einer Ecke liegen bleibt, kann als praktisch ausgeschlossen gelten. Wenn wir wissen, daß P = 1 ist, so dürfen wir daraus aber nur schließen daß das Ereignis E in einer langen Versuchsreihe in fast allen Versuchen eintritt. Dasselbe gilt, wenn P sehr nahe an Eins liegt, wenn also gilt 1—ε <P <1, wo ε eine sehr kleine Zahl ist. Ist E ein Ereignis dieser Art, dann kann gesagt werden, dass in einem einzigen Versuch es praktisch sicher ist, daß E eintritt.

Auf diesen Grundannahmen baut Cramér dann seine Theorie auf, drei Axiomen auf, wobei er den Begriff der zufallsartigen Variablen verwendet, die er im allgemeinen Fall als Punkt oder Vektor in einem k-dimensionalen Raum deutet und die Wahrscheinlichkeit als Funktion auf einer Borel-Menge definiert. Wir wollen hier auf die sehr speziellen mathematischen Fragen nicht weiter eingehen.

Lediglich hinsichtlich der zufallsartigen Variabeln sei bemerkt, daß eine solche sich von einer gewöhnlichen Variabeln dadurch unterscheidet, daß sie jeden Wert nur mit einer gewissen Wahrscheinlichkeit annehmen kann. So bilden die Augenzahlen eines Würfels eine zufallsartige Variable, die nur die 6 Werte 1, 2, 3, 4, 5 und 6 annehmen kann, einen jeden mit der Wahrscheinlichkeit 1/6. Für die Wahrscheinlichkeitsrechnung und ihre Anwendung sind nun einige wenige Sätze von großer Bedeutung, und zwar unabhängig von der Definition der Wahrscheinlichkeit. In erster Linie ist der Satz von Bernoulli zu erwähnen, den dieser nach seinen eigenen Angaben in der «Ara conjectandi» nach mehr als zwanzigjährigen Bemühungen gefunden hat. Der Satz ist eine Bestätigung der intuitiven Vermutung, daß die relative Häufigkeit eines Ereignisses, für dessen Eintreffen eine feste Wahrscheinlichkeit besteht, in einer langen Reihe von Wiederholungen desselben Versuches, um beliebig wenig von dieser Wahrscheinlichkeit abweicht. Dies ist die moderne Formulierung des Satzes. Bernoulli selbst hat ihn etwas anders formuliert. Der Satz ist als das Gesetz der grossen Zahlen bezeichnet worden. Es muß aber ausdrücklich festgehalten werden, daß wesentliche Voraussetzung ist, dass die Wahrscheinlichkeit P für das Eintreffen des Ereignisses, das man beliebig oft wiederholt, konstant sei.

Das einfachste Modell für solche wiederholten und voneinander unabhängigen Versuche bilden die Züge aus einer Urne mit weissen und schwarzen Kugeln, die in einem konstanten Mischungsverhältnis p : q stehen, p entspricht dabei der Wahrscheinlichkeit des Ereignisses E. Pro Zug wird eine Kugel gezogen und nachher wieder zurückgelegt. Vor jedem weiteren Zug wird die Urne gut durchgemischt. Ist die Wahrscheinlichkeit des Ereignisses E also p = 1/2, dann liefert dieses Urnenschema die nämliche Verteilung für die gezogenen Kugeln, wie

die Verteilung für «Kopf» und «Zahl» bei der Ausführung derselben Zahl von Würfen mit einer Münze. Die Gesamtheit der Wahrscheinlichkeiten, die den möglichen Ergebnissen einer Versuchsreihe zugeordnet ist, heißt ihre Verteilung. Insbesondere heisst die Verteilung, die den Ergebnissen einer Alternative zugeordnet ist, die Binomialverteilung und ein an sich einfacher mathematischer Ausdruck gestattet, die Wahrscheinlichkeit für jedes beliebige Ergebnis zu berechnen (vgl. die Figur am Schluß).

Aus der Binomialverteilung lässt sich die Normalverteilung gewinnen, etwa auch Gaußsche oder Laplacesche Verteilung genannt. Gauss hat sie für seine Theorie der Beobachtungsfehler hergeleitet, und lange Zeit glaubten die. Statistiker, jede statistische Verteilung lasse sich durch die Normalverteilung darstellen. Besonders Messungen von Körperlängen und Brustumfängen lassen sich recht gut durch die Normalverteilung darstellen. Auch bei geodätischen und bei physikalischen Messungen ist das Gaußsche Fehlergesetz zutreffend. Bekanntlich liegt ihm die Annahme zu Grunde, daß eine große Zahl von unabhängigen Elementarfehlern wirksam sei, die sowohl positiv als auch negativ sein können und wobei die kleinen Fehler überwiegen. Der Gedanke ist reizvoll, dass bei einer statistischen Verteilung, die der Normalverteilung folgt, die Abweichungen vom Mittelwert als Meßfehler betrachtet werden können. Es ist dann gerade so, wie wenn die Individuen, die vom Mittelwert abweichen, falsch gemessen worden wären.

Eine Verteilung, die immer mehr an Bedeutung gewonnen hat, ist die sogenannte Poissonsche Verteilung. Vom französischen Mathematiker D. S. Poisson (1781-1840) durch Grenzübergang aus der Binomialverteilung gewonnen, ging sie mit der Bezeichnung «Das Gesetz der kleinen Zahlen» in die Fachliteratur ein. Sie lieferte die Darstellung für die Verhältnisse

sogenannter seltener Ereignisse, wie zum Beispiel für die Todesfälle in der preußischen Armee durch Hufschlag, von Selbstmorden unter Kindern, von Drillingsgeburten. Sie erwies sich als zutreffend in der Feuerversicherung oder in der Krankenversicherung für gewisse Krankheiten. Heute hat sie an Bedeutung dadurch gewonnen, daß man sie verwendet für die Darstellung von diskontinuierlichen zufallsartigen, zeitlichen Vorgängen, wie den Zerfall radioaktiver Substanzen, die Zahl von Anrufen oder von falschen Verbindungen in einer Telephonzentrale. Aber auch für die Darstellung von zufälligen Verteilungen von Punkten im Raum kann die Poissonsche Verteilung verwendet werden, so für die Verteilung von Einschlägen von Fliegerbomben oder von Bakterien auf einer Petri-Platte.

Alle Verteilungen sind durch sogenannte Parameter charakterisiert. die drei erwähnten durch den Durchschnitt und die Streuung.

Wenden wir uns nun der Frage der wissenschaftlichen Bedeutung der Wahrscheinlichkeitstheorie zu.

Von überragender Bedeutung ist die Wahrscheinlichkeitsrechnung für die Entwicklung der modernen statistischen Prüfverfahren. In vielen Fällen stellt sich das Problem wie folgt: Wir haben eine Reihe von n beobachteten Werten einer Variablen zur Verfügung, eine sogenannte Stichprobe. Die Stichprobe denken wir uns entstanden durch zufällige Auswahl aus einer aus unendlich vielen Elementen bestehenden Grundgesamtheit. Wir möchten nun entscheiden, ob diese Variable mit guten Gründen als zufallsartige Variable betrachtet werden kann mit einer Wahrscheinlichkeitsverteilung von gegebenen Eigenschaften. In gewissen Fällen ist die hypothetische Verteilung der Grundgesamtheit vollständig gegeben. Wir können zum Beispiel fragen, ob unsere Stichprobe durch zufallsartige

Ziehungen aus einer Grundgesamtheit gewonnen wurde, die normal verteilt ist, deren Durchschnitt also Null und deren Streuung 1 ist, entsprechend der standardisierten Normalverteilung. In andern Fällen kennen wir eine gewisse Klasse von Verteilungen, und wir fragen uns, ob unsere Stichprobe aus einer Grundgesamtheit gezogen wurde, deren Verteilung zu der gegebenen Klasse gehört.

Den Mathematikern ist es gelungen, die Verteilungen für gewisse Parameter in Stichproben aus Grundgesamtheiten mit gegebenen Verteilungen zu finden. So ist zum Beispiel bekannt, daß die Durchschnitte von Stichproben aus einer normal verteilten Grundgesamtheit ebenfalls normal verteilt sind mit demselben Durchschnitt wie die Grundgesamtheit und mit 1 einer Streuung, die proportional — der Streuung der Grundgesamtheit ist, wobei mit N die Zahl der Versuche bzw. Beobachtungen in der Stichprobe bezeichnet wird. Es läßt sich nun die Wahrscheinlichkeit angeben, mit welcher die Durchschnitte aus Stichproben gleichen Umfanges innerhalb vorgegebene Schranken fallen. Da ich die Verteilungsfunktion kenne, so kann ich das Intervall berechnen, in welchem zum Beispiel 95 % oder 99 % oder 999 %0 der Werte der Durchschnitte aus den Stichproben liegen müssen. Das Ereignis, dessen Wahrscheinlichkeit ich hier kenne, ist eine Stichprobe, deren Durchschnitt in einem gegebenen Intervall liegt. Da dafür eine Wahrscheinlichkeit nahe «1» besteht, so wird das Ereignis bei einem Versuch fast sicher eintreten. Liegt der in der Stichprobe beobachtete Durchschnitt außerhalb, so sagt man, die Abweichung sei wesentlich und verwirft die Annahme, daß die Stichprobe aus der hypothetischen Grundgesamtheit stamme. Der Wert der Schranke, die sogenannte Sicherheitsschwelle,

ist Ermessensfrage. Man wählt sie in der Regel so, dass, 5 % bzw. 1 % in gewissen Fällen 1 %0 der Stichproben größere Werte für den Durchschnitt ergeben. Eine Sicherheitsschwelle von 5 % bedeutet daher, daß auf 20 Stichproben gleichen Umfangs eine einen größern Unterschied aufweisen wird. Er wird darin als wesentlicher Unterschied betrachtet, obschon er nur zufällig sein kann. Bei 1 % nehme ich in Kauf, auf 100 Stichproben ein Fehlurteil zu fällen.

Der Zürcher Astronom Wolf hat 20000 Versuche mit zwei Würfeln gemacht 3. Der eine davon, als weisser bezeichnet, wies folgende Augenzahlen auf: 1 2 3 4 5 6 3250 3445 2899 2837 3643 3926 Es stellt sich nun die Frage: Weichen die beobachteten Häufigkeiten nur zufällig von den theoretischen ab, oder sind die Abweichungen wesentlich, d. h. war der Würfel nicht «richtig»? Ein idealer Würfel müßte ja jede Augenzahl 3333mal zeigen. Die Frage kann einwandfrei beantwortet werden. Mit Hilfe des beobachteten Durchschnitts der Augenzahlen, der 3,59780 ist gegenüber 3,5 für einen idealen Würfel und mit der Streuung = 0,012, lässt sich die Abweichung des beobachteten Durchschnitts vom theoretischen für die standardisierte Normalverteilung mit Hilfe einer Tafel berechnen. Sie ergibt sich zu x = 8,15, d. h. die Abweichung ist 8,15mal so gross wie die Streuung der Verteilung der Stichprobe. Nun ist für die standardisierte Normalverteilung mit einer Wahrscheinlichkeit von 0,01 oder 1 % nur eine Abweichung von x = 2,576 zu erwarten. Eine Serie von 20000 Würfen eines idealen Würfels mit einer Abweichung vom 8,15fachen der Streuung wird also

viel seltener als einmal in 100 Serien eintreten. Der weisse Würfel war daher nicht einwandfrei, d. h. er wich zu sehr von einem idealen ab.

Mit Hilfe derselben Tafel können wir auch die Zahl der Würfe angeben, die notwendig ist, damit mit einer Wahrscheinlichkeit von 99 % angenommen werden kann, daß die Abweichung vom Durchschnitt in 99 von 100 Serien zwischen 3,4 und 3,6 liegen soll. Wir können somit die Zahl der Würfe für eine Serie berechnen, die genügt, um den Würfel zu prüfen. Sie ergibt sich zu N = 1935. Dabei haben wir zu erwarten, daß wir in je 100 Fällen einmal einen Würfel als schlecht beurteilen, trotzdem er einwandfrei ist, lediglich weil die Abweichung vom Mittelwert größer als ± 0,1 ausfällt, was ja durchaus möglich ist. Sie haben hier ein Beispiel dafür, wie ein Fabrikant von Würfeln die Qualität seiner Produktion überprüfen kann.

Von großer Bedeutung sind die Methoden der Wahrscheinlichkeitsrechnung für die Ausgleichung von Sterbetafeln, insbesondere für die Beurteilung der Güte der Ausgleichung. Hier ist der sogenannte Chiquadrat-Test von grösster Wichtigkeit. Er stammt von Karl Pearson, dem bedeutenden englischen Statistiker, und dient zur Überprüfung einer Hypothese. Es ist Pearson gelungen, zu zeigen, daß in großen Stichproben die Verteilung von x 2 unabhängig ist von der Verteilung der Grundgesamtheit. Auch hier gelingt es nun, Schranken anzugeben, innerhalb welcher x 2 für Stichproben gegebenen Umfanges liegen muß. Ich kann dann wiederum entscheiden, ob meine Stichprobe aus einer gegebenen Grundgesamtheit stammt oder nicht.

Ich möchte in diesem Zusammenhang auf eine besonders interessante Anwendung dieses Verfahrens für die Beurteilung der Sterblichkeitsunterschiede in der schweizerischen Bevölkerung nach Regionen aufmerksam machen. In verdienstvoller

Weise hat das Eidgenössische Statistische Amt sechs regionale Sterbetafeln aufgestellt, für die Bevölkerung der deutsch- und der französischsprachigen Kantone und für den Kanton Tessin. Dabei zeigten sich nun erhebliche Unterschiede, sowohl in den mittleren Lebenserwartungen als auch im Verlauf der einjährigen Sterbewahrscheinlichkeiten 4.

Als Hauptmerkmal ergab sich bei einem Vergleich der verschiedenen Sterbetafeln bis ins sechste Lebensjahrzehnt hinein eine niedrigere Sterblichkeit der Deutschschweizer beiderlei Geschlechts. Nachher ist die Sterblichkeit bei beiden Geschlechtern in den übrigen Landesteilen niedriger, insbesondere im Tessin. Bemerkenswert hoch ist die Sterblichkeit der Welschschweizer beider Geschlechter zwischen den Altern 20 und 60.

Prof. Wegmüller hat nun, mit Hilfe des x 2 -Testes untersucht, ob diese Sterblichkeitsunterschiede zufällig sind oder gesichert 5.

Statistisch gesicherte Unterschiede ergeben sich zwischen den deutsch- und den französisch-sprachigen Kantonen bei den 0- bis 4jährigen Knaben und den 0- bis 9jährigen Mädchen. Als wesentlich stellte sich die Übersterblichkeit im französischen Landesteil für die 25- bis 54jährigen Männer heraus und für die 15- bis 49jährigen Frauen, mit Ausnahme der beiden Altersgruppen der 30- bis 34-, bzw. 40- bis 44jährigen. Ebenso zwischen den deutsch-sprachigen Kantonen und dem Kanton

Tessin in den Altern 0-4 und 70-79 bei beiden Geschlechtern. Zwischen den französisch-sprachigen Kantonen und dem Kanton Tessin in den Altern 55-59 und 70-74 für das weibliche Geschlecht.

Über die Gründe, welche die Sterblichkeitsunterschiede zwischen den Landesteilen hervorrufen, erhält man durch die Betrachtung der Todesursachen einigen Aufschluß. Die höhere Säuglingssterblichkeit der Westschweiz und des Tessins kann nicht einer bestimmten Todesursache zugeschrieben werden; es handelt sich um eine allgemeine Erhöhung dieser Sterblichkeit. Die hohe Mortalität der 20- bis 60jährigen Westschweizer ist vornehmlich eine Folge der Tuberkulose und der Selbstmorde, zu denen häufigere Sterbefälle, verursacht durch Rheuma, Störungen des Stoffwechsels und der inneren Sekretion, sowie von Krankheiten der Harn- und Geschlechtsorgane treten. Bei den über 60jährigen Deutschschweizern sind die Todesfälle infolge Krebs, Arteriosklerose, Hirnschlag und Altersschwäche häufiger als in der übrigen Schweiz. Die tieferen Gründe der regionalen Sterblichkeitsunterschiede lassen sich kaum nur statistisch fassen und messen. Klimatische und topographische Eigenheiten eines Gebietes, seine wirtschaftliche und soziale Struktur, die Lebensweise der Bevölkerung, Erdverhältnisse und andere Einflüsse sind ebenfalls von Bedeutung.

Wir haben hier ein interessantes Beispiel dafür, wie die auf der Wahrscheinlichkeitsrechnung fußende mathematische Statistik zur Klärung von Verhältnissen beiträgt, die ohne sie gar nicht befriedigend entschieden werden könnten.

Denken wir überdies an die ausgedehnte Verwendung der Wahrscheinlichkeitstheorie in der modernen Physik, in der Quantentheorie und in der Thermodynamik, so erkennen wir ihre ausserordentliche Bedeutung für die gesamte Entwicklung

der wissenschaftlichen Erkenntnis. Dabei wird diese Bedeutung keineswegs beeinträchtigt durch den Umstand, dass über die Definition des Begriffes noch keine Einigkeit unter den Wissenschaftern herrscht. Es darf als ein Glück bezeichnet werden, daß für die Anwendung der Theorie die Definition des Begriffes ohne besondere Bedeutung ist. Der kritische Geist der Wissenschaft wird vielleicht einmal eine vollständige Klärung des Begriffes der mathematischen Wahrscheinlichkeit bringen. Wenn wir berücksichtigen, daß die Lehre von der Wahrscheinlichkeit ein noch verhältnismäßig junger Zweig der mathematischen Wissenschaft ist, und wenn wir bedenken, wie lange es brauchte, bis die Geometrie von Euklid axiomatisiert wurde, dann dürfen wir der weiteren Entwicklung zuversichtlich entgegenblicken. In dieser Zuversicht werden wir bestärkt, wenn wir uns vergegenwärtigen, was dieser junge Zweig der Wissenschaft durch die Methoden der mathematischen Statistik zur Förderung vieler andern Wissenschaften und der wissenschaftlichen Schlußweise bereits beigetragen hat.

Poisson'sche Verteilung Binomialverteilung