Archive for the ‘Allgemein’ Category

Endlich komme ich zur Normalverteilung und wie diese

[…] mit dem Fortschreiten der Menschheit in eine ganz wunderbare Zukunft zu tun hat.

Aber bevor ich weiterschreibe møchte ich darauf hinweisen, dass ich die Argumente ueber die ich hier schreibe von woanders (mehr oder weniger direkt aus dem dortigen Punkt 2) uebernommen habe. Natuerlich mit Modifikationen und ein paar anderen (auch weiterfuehrenden) Quellen. Ehre wem Ehre gebuehrt heiszt es ja so schøn, nicht wahr.

Ich erwaehnte letztes Mal, dass die Verteilung der Ergebnisse von Intelligenztests auf eine Normalverteilung projiziert wird mit einem Mittelwert von 100 und einer Standardabweichung von 15. Das ist also im Grenzfall unendlich vieler Menschen eine klar definierte Funktion.

Ich erwaehnte im ersten Beitrag dieser Serie, dass der Fortschritt der Menschheit (im Gegensatz zur Aufrechterhaltung des zugrundeliegenden Wohlstands!) von besonders schlauen Menschen abhaengig ist.
Da kønnte man annehmen, dass der Fortschritt schneller fortschreitet, wenn wir viel mehr wirklich schlaue Leute haben. Ob das gut oder schlecht ist, ist eine ganz andere Frage und soll hier nicht diskutiert werden … meine Meinung in ganz kurz: „JA, das ist gut, ABER …“.
Aber wie schlau ist denn eigentlich „wirklich schlau“?

Das Problem ist nun, dass spezifische, allgemein als wirklich schlau anerkannte, Individuen nicht unbedingt Intelligenztests gemacht haben. Dies gilt natuerlich insb. fuer historische Figuren, als es diese Tests noch nicht gab. Man kann das aber prinzipiell abschaetzen und hierbei kam mir ein Text zugute, auf den mich die „obskure Quelle“ vom letzten Mal aufmerksam machte. .oO(Da sieht man mal wieder, wie wichtig es ist, auch die Quellen seiner Quellen zu checken.)
Besagter Text ist: Anne Roe, The making of a scientist, Dodd, Mead & Company, 1953 … und ’ne Kopie zu finden war erstaunlich einfach und es wundert mich ueberhaupt nicht, dass es dort war (man beachte, dass das auf der selben Domain liegt, auf der obiger Artikel publiziert wurde, von dem ich die Argumente fuer diesen Beitrag hier klaute der mich zu diesem Beitrag inspirierte). Wieauchimmer, man wenn man in diesem Buch zur Tabelle auf Seite 155 (Seite 81 in der PDF-Datei) schaut, dann sieht man Abschaetzungen der IQ’s prominenter historischer Figuren.

An dieser Tabelle møchte ich besonders herausheben, dass die dort aufgefuehrten Personen ohne Zweifel als unheimlich wichtig fuer den Fortschritt der Menschheit, und damit unseren heutigen zugrundeliegenden Wohlstand, anerkannt sind.
Wenn man sich die IQ’s anschaut, dann sieht man, dass da keiner unter 160 liegt … und das ist der Wert, den ich nehme ich als Grundlage fuer die weitere Diskussion bzgl. der Anzahl „wirklich schlauer Leute“ nehme.

Wie viele sind das denn nun ganz konkret? Nun ja, ganz konkret kann das niemand sagen weil wir ja keine Messdaten haben. Und selbst wenn wir die haetten, so ist es schwierig IQ-Tests zu erstellen fuer Menschen mit besonders hohem IQ. Aber wenn wir davon ausgehen, dass die obige Definition bzgl. der Verteilung der IQ-Punkte richtig ist, dann kønnen wir das zumindest abschaetzen.
Ein Wert von 160 ist vier Standardabweichungen vom Mittelwert entfernt. Da die Funktion der Normalverteilung bekannt ist, muss man also nur das Integral von 160 bis Unendlich berechnen um den Anteil wirklich schlauer Menschen zu erhalten … super einfach wa … die Løsung des Integrals steht im Bronstein … oder auch bei der Wikipedia.

Dummerweise enthaelt die Stammfunktion die Fehlerfunktion. Diese hat einen spezifischen IQ-Wert als Argument und enthaelt dann ein weiteres Integral in welchem dieser Wert als obere Grenze des Integrals genommen wird. Immer noch erstmal easy-peasy, nicht wahr. Dummerweise ist dieses Integral (im Wesentlichen) die Fehlerfunktion selber … oder anders: die Fehlerfunktion kann nicht mittles elementaren Funktionen ausgedrueckt werden … Verdammt!

Das kann man aber (sehr genau) abschaetzen und gluecklicherweise haben andere Menschen das  schon mal fuer ein paar IQ-Werte getan. Ich verlasse mich darauf und sehe, dass nur eine von 31,574 Personen einen IQ hat, der vier Standardabweichungen ueber dem Mittelwert liegt. Man beachte, dass man den dort angegebenen Wert verdoppeln muss, denn ich bin ja nur an vier Standardabweichungen UEBER dem Mittelwert intessiert.

Das ist ’ne nette Zahl, aber auch nur ’ne Obergrenze. Leider kommt hinzu, dass die Wahrscheinlichkeit fuer noch schlauere Menschen nichtlineaer abnimmt. Einen Kopernikus oder Buffon kann ich prinzipiell in Stendal finden, aber nur _einen_, nicht Beide. Fuer Kepler oder Gay-Lussac braucht es schon ein Berlin (wieder nur fuer Einen der Beiden). Und fuer Newton oder Laplace muss man dann ganz China absuchen (dito) … Und Leibniz IQ wurde mit 205 abgeschaetzt … HA! War mir schon immer klar, das Newton ein intellektuelles Leichtgewicht war im Vergleich zu Leibniz!
Das muss jetzt fuer alle Werte dazwischen gemacht werden und schwupps hat man den Anteil wirklich schlauer Menschen … … … mich duenkt ich erwaehnte bereits die Schwierigkeiten das Integral der Normalverteilung selbst fuer konkrete IQ-Werte zu løsen … *seufz*.

Gluecklicherweise ist ein anderer Weg viel einfacher: ich kann das Ganze auch einfach simulieren! Die Simulation sieht dann so aus, dass ich zufaellig IQ-Werte aus einem „Beutel“ ziehe und dann schaue wie viele davon grøszer als 160 sind. In dem „Beutel“ sind die IQ-Werte normal verteilt. Ich ziehe da also den IQ-Wert 100 am haeufigsten heraus und nach „unendlich vielen“ Ziehungen habe ich ca. 31,574 mal mehr Werte die kleiner sind als 160.

In diesem Bild versuche ich die Problemstellung nochmals im Gesamten zu veranschaulichen.

Ich habe zwei Mal jeweils 100 Millionen „Ziehungen“ aus dem „IQ-Werte-Beutel“ gemacht. Beim ersten Mal habe ich die komplette Verteilung notiert (schwarze Kurve/Balken) und beim zweiten Mal nur wenn ein Wert grøszer oder gleich 145 war (rote Kurve/Balken). Warum ich schon aber einem IQ -Wert von 145 schaue wird beim naechsten Mal klar.
Im oberen Bild, mit einer linearen Ordinate, sieht man, dass die gesamte Verteilung (schwarze Kurve) die charakteristische Glockenkurve ergibt. Man sieht auch, dass man im IQ-Bereich der hier von Interesse ist (rote, ausgefuellte Kurve) nix sieht. Die Gruende schrieb ich oben nieder.
Stellt man das Ganze mit einer logarithmischen Ordinate dar, tritt die Information die im roten Bereich liegt viel besser hervor. Es zeigt sich ganz deutlich, warum man bei einer linearen Darstellung nichts sieht, denn die Anzahl der Ziehungen mit einem IQ von 160 betraegt nicht einmal 1000.

Ich habe hier mit Absicht zwei Simulationen gemacht, um zu zeigen, dass das statistisch zwar alles ganz klar ist, aber bei realen endlichen Ereignissen Schwankungen in dem Bereich durchaus relevant sind. 100 Millionen entspricht fast der Anzahl der Menschen in Dtschl. Bei der einen Simulation habe ich aber 10 Ereignisse mit einem IQ-Wert von 175 und bei der anderen 13. Ich denke, dass es doch einen gewaltigen Unterschied macht, ob man 13 Keplers hat oder nur 10. Was natuerlich weniger an dem Unterschied von 30 % liegt, sondern an der „Gewaltigkeit“ eines Keplers.
Bei nur 100 Millionen „Ziehungen“ war dann auch noch kein Laplace dabei.

Wieauchimmer, da hier noch kein Laplace dabei war, habe ich die Simulation nochmals durchgefuehrt fuer die gesamte Menschheit … 8 Milliarden Ereignisse insgesamt … aber weil der Artikel schon so lang ist, muesst ihr, meine lieben Leserinnen und Leser, darauf bis zum naechsten Mal warten.

Zu allem Gesagten kann man immer Gegenargumente bringen. Wenn die richtig sind, dann kønnen die zwei Folgen haben:
1.: eine Modifikation der Ergebnisse, wobei die urspruengliche Interpretation aber grundsaetzlich „ueberlebt“.
2.: eine Argumentation die darlegt, dass Schritte in der urspruenglichen Interpretation derart falsch sind, dass Letztere nicht haltbar ist.

Beides ist wichtig und Teil des wissenschaftlichen Diskurses und Fortschritts.

Den besten Einwand bzgl. der Ergebnisse von Sandberg, Drexler und Ord, habe ich hier gefunden.

Beim Artikel von SDO fand ich den (mglw. etwas provozierenden) Titel durchaus angebracht. Das ist beim verlinkten Einwand mitnichten der Fall. Ja, die dortigen Ergbnisse sind deutlich optmistischer bzgl. mehr als einer Zivilisation in unserer Galaxis. Aber auch diese Rechnungen kommen zu dem Schluss, dass es eine ueber 6-prozentige Wahrscheinlichkeit gibt, dass wir allein sind. Und 6 % ist (zumindest fuer mich als Physiker) ziemlich hoch.

Somit faellt der Einspruch unter Erstens, denn das urspruengliche Ergebniss …

[t]he Fermi observation […] provides only very weak evidence about whether we will soon go extinct or whether interstellar communication or travel is impossible

… bleibt im Grunde erhalten.

Der Vollstaendigkeit halber, und weil es das Richtige ist, wollte ich aber wenigstens mal erwaehnen, dass es Einwaende bzgl. der Argumente SDO’s gibt.

Es ist ja bekannt, dass die Intelligenz normalverteilt ist. Der Mittelwert liegt bei 100 und die Standardabweichung betraegt 15 Punkte.

Ach so, bevor ich fortfahre: wie (fast) immer laeszt die dtsch. Wikipedia sehr zu wuenschen uebrig. Deswegen ist so ziemlich alles was ich hier bespreche mehr oder weniger dem entsprechenden englischen Wikipediaartikel entnommen.

Bevor ich beim naechsten Mal dann endlich das bespreche, was ich eigentlich besprechen wollte, møchte ich hier ein paar wichtige Dinge anreiszen. Fuer eine volle Diskussion bin ich nicht qualifiziert.

Mir ist sehr bewusst, dass der IQ auf individuellem Niveau ein eher grobes „Messinstrument“ ist. Dennoch zeigt es gar nicht mal all zu schlecht in die richtige Richtung. Denn wenn man ehrlich ist, so erwartet man nicht, dass jemand mit einem IQ von 85 Professor fuer theoretische Physik wird, selbst wenn bei einem anderen Test ein IQ von 96 heraus kommt. Aber so Aussagen wie „Wenn das Baby gestillt wird, dann erhøht das den IQ im Schnitt um drei Punkte“ sind albern und groszer Quatsch auf individuellem (!) Niveau.

Eine andere Sache ist, dass es verschiedene Intelligenztests gibt. Das macht aber im Grunde nix, denn das Ergebnis jedes Intelligenztests, die Verteilung der (testabhaengigen) IQ-Werte, wird auf die oben erwaehnte Normalverteilung projiziert.
In der Praxis hat man also bspw. mehrere Fragen mit mehreren Antworten (von denen auch mehrere richtig sein kønnen). Jede richtige Antwort gibt einen Pluspunkt, jede falsche Antwort gibt einen Minuspunkt. Am Ende hat man eine Verteilung bei der die geringste Gesamtpunktzahl ich sag jetzt Mal 23 Punkte und die høchste Gesamtpunktzahl 69 Punkte sind. Das hat nun aber nix mit dem ganz oben erwaehnten „Mittelwert von 100, Standardabweichung von 15“ zu tun. An der Stelle kommt es dann zu besagter Projektion auf diese Normalverteilung.

Dann ist es so, dass zumindest frueher viele IQ-Tests zu viel kulturelles (Hintergrund)Wissen voraussetzten. Als (schlechtes) Beispiel kønnte ich mich selbst nehmen. Mein Vokabular englischer Vokabeln ist nicht grosz genug, um bei Wortassoziationsaufgaben gut abzuschneiden. Ich muesste da dann natuerlich dtsch. Wortassoziationsaufgaben vorgelegt bekommen, aber dies verdeutlicht den kulturellen Aspekt von Fragen eigtl. ganz gut denke ich.

Und letztlich ist da auch noch der Fakt, dass es verschiedene „Intelligenzen“ gibt. Man denke bspw. an sprachliche, mathematische oder soziale Intelligenz. Wenn man das genauer untersucht, gibt es Menschen die wirklich gut sind bei der einen Sache, aber normalverteilt bei den anderen. Das ist aber laenglich durchzufuehren und wuerde (so weit ich das verstanden habe) letztlich dennoch zu einer erhøhten Gesamtpunktzahl fuehren.

Auf gesellschaftlichem Niveau hingegen ist die IQ-Verteilung, also NICHT nur der Durchschnittswert (!), durchaus von Interesse. Und genau deswegen ist das Thema in der Wissenschaft leider „entzuendet“.
Aufgrund verschiedenster historischer Ursachen ist es naemlich so, dass bestimmte Gruppierungen von Menschen in Intelligenztests im Durchschnitt weniger Punkte erhalten, als die „weisze Ober- und Mittelschicht“.
DAS ist meiner Meinung nach ganz stark den schlechten Lebensumstaenden geschuldet. Zum Beispiel ist seit langem bekannt … *hust*, […]

[…] that there is a straight-line relationship between the amount of lead in the body and careful measures of disturbed behavior and learning problems.

Wer lebt nun in bleiverseuchten Umgebungen, in Windrichtung der Fabrikschornsteine? Richtig! NICHT die weisze Ober- und Mittelklasse. Natuerlich ist das nicht nur Blei sondern es gibt da ganz viele andere Sachen mit aehnlichen (oft noch nicht mal erforschten) Effekten. Und das beschraenkt sich nicht nur auf Chemikalien, sondern auch auf soziologische Aspekte wie schlechte Schulen oder dass man als Kind arbeiten gehen muss (zu Letzterem siehe auch (mal wieder) viele Seiten in Marx‘ Das Kapital).

Diese Luecke in den IQ-Werten, oder richtiger: dieser Unterschied in der Verteilung der IQ-Werte verschiedener gesellschaftlicher Gruppierungen, wird nun (natuerlich) von menschenverachtenden Spinnern genommen um zu sagen, dass bspw. nicht-weisze oder arme Menschen genetisch minderwertig seien.
Deswegen ist entsprechende grosz angelegte Forschung diesbezueglich verpønt und findet nicht statt. Anstatt das zu machen um die Ursachen fuer den IQ-Abstand besser zu verstehen und zu beseitigen.

Einschub: Forschung die letzten Jahrzehnte zeigt, dass besagter IQ-Abstand zwischen farbigen und weiszen Gemeinschaften in den USA stetig geringer wird. Das ist natuerlich auf die allgemein besseren Lebensumstaende (verglichen mit den 40’er, 50’er, 60’er Jahren) zurueck zu fuehren und entbløszt die menschenverachtenden Spinner als genau solche.

Achtung: das heiszt nicht, dass Intelligenz NICHT von den Genen abhaengt. Dem ist mit ziemlicher Sicherheit so. Hier Ich schrieb bzgl. der Ashkenazijuden etwas dazu und um uns herum sehen wir ja selber, dass schlaue Menschen oft auch schlaue Kinder haben. Aber das ist natuerlich nicht Alles, denn selbst wenn jemand keine schlauen Eltern hat, kann ein Individuum in der groszen Genverteilungslotterie gut abgeschnitten haben. Und Letztere sind ja u.A. worauf ich hinaus will mit dieser kleinen Serie.

Soweit zu den Sachen die mindestens kurz angesprochen werden muessen, wann immer man IQ-Verteilungen diskutieren will.

Wie ich nunmal bin, versuchte ich also Rohdaten von grosz angelegten Intelligenzverteilungsuntersuchungen zu finden. Ich dachte mir, dass es die doch geben muss. So sehr wie die linke Seite des politischen Spektrums eben solche verteufelt … bzw. so sehr wie die rechte Seite des politischen Spektrums versucht ihren menchenverachtenden Dreck damit zu rechtfertigen.

Aber da ist nuescht! Oder fast nix.

Es gibt alte Buecher, aus der Zeit als die ganze Forschung darum am Entstehen begriffen war. Und da findet man dann auch mal eine IQ-Verteilungen (Bild #2). Aber die Daten darin lassen sehr zu wuenschen uebrig. Zum Ersten, weil es nicht die Rohdaten an sich sind (die Kultur Messdaten zu teilen ist ja selbst heute nicht weit verbreitet … *seufz*). Zum Zweiten, weil alle oben erwaehnten Unzulaenglichkeiten des kulturellen Hintergrundwissens noch nicht bekannt waren und man versuchte die intrinsischen Fehler zu vermeiden. Und zum Dritten weil die Untersuchungen eher limitiert waren (es ist halt nur eine Studie pro Buch). Deswegen vermied ich solche alten Buecher.

Aus neuerer Zeit gibt es das OpenPsychometrics Projekt. Der Test und die Daten sind neuerer Natur und die Rohdaten sind verfuegbar und beinhalten mittlerweile ueber 3000 Teilnehmer (die Statistik waere also ganz gut). Aber auf der Testseite steht zu Recht:

WARNING: Every on-line IQ test is bad

… … … *seufz*.

Dann fand ich heraus, dass U.S. Bureau of Labor Statistics Querschnitssuntersuchungen macht. Und eine davon ist die National Longitudinal Survey Youth, 1979, mit ueber zehntausend Teilnehmern aus allen gesellschaftlichen Bereichen. Das ist zwar schon ein bisschen her, aber nicht all zu lange … und die Rohdaten sind verfuegbar … Hurra.
Es dauerte ein Weile, bis ich verstanden hatte, wie die Daten aufgebaut sind und wie deren Nutzergrenzschnitt zu bedienen ist … aber so ist das ja immer und was mache ich nicht alles, um an Rohdaten zu kommen.

Es stellte sich dann leider heraus, dass weniger als 1000 Leute IQ-Tests gemacht hatten … im Grunde genommen war das also auch nur eine Untersuchung … *seufz*.
Bei der (gleichen) Querschnitssuntersuchung aber im Jahre 1996 gab es dann gar keine IQ-Tests mehr … *doppelseufz* … das waere doch mal voll interessant gewesen.

Meine Suche fuehrte mich zu immer obskureren (wenn auch durchaus interessanten) Quellen (der Direklink funktioniert ohne, dass man da ein Profil haben muss). Aber auch dort wird nur auf ganz wenige, ziemlich alte und limitierte Untersuchungen (natuerlich ohne Rohdaten) verwiesen.

Das scheint also ein systemisches Problem zu sein, ich denke verursacht durch oben angesprochenes Tabu derartiger Forschung. Nach Stunden der erfolglosen Recherche sah ich ein, dass ich so nicht weiterkomme, um meine urspruengliche Aufgabenstellung zu bearbeiten.

Zum Glueck ist das nicht streng nøtig, da ja die Ergebnissse von Intelligenztests ohnehin auf eine klar definierte Verteilung projiziert werden. Das worauf ich eigentlich hinaus will, kann ich also auch mittels einer Simulation veranschaulichen. Aber dazu mehr beim naechsten Mal.

Hier wies ich darauf hin, dass die Krabben irgend ein wichtiges Geheimnis kennen, weswegen Verkrabbisierung bereits mindestens fuenf Mal unabhaengig voneinander im Laufe der Evolution auf diesem Planeten stattgefunden hat. Nun bin ich neulich drauf aufmerksam geworden, dass Knurrhaehne, aktiv daran arbeiten zur Krabbenform ueberzugehen:

Lizenz: gemeinfrei, Urheber: NOAA’s Fisheries Collection; Collection of Brandi Noble, Quelle (Achtung, das ist NICHT die Originalquelle; Letztere ist dort angegeben, fuehrt aber in eine der vielen Sackgassen des Internets).

Man beachte die (teilweise) zu Krabbenfueszen umevolutionierten Brustflossen!

Ich sag doch, dass da was im Busch ist! … Oder vielmehr im Wasser. Und deswegen verbleibe ich auch heute wieder mit dem was im Titel dieses Beitrags steht.

Beim letzten Mal erwaehnte ich, dass fuer die Parameter der Drake-Gleichung derartig unterschiedliche Werte geschaetzt werden, dass man da urst krass verschiedene Resultate heraus bekommt. Das geht von einem leeren Universum (von uns mal abgesehen) bis zu so vielen auszerirdischen Zivilisationen, dass die sich fast schon gegenseitig auf die Fuesze treten. Die Literatur (meist die populaere, aber oft genug auch die wissenschaftliche) tendiert zu Letzterem — und das ist ja das Fermi Paradoxon.

Nun ist es aber so, dass bei der Berechnung von N, der Anzahl der Zivilisationen in unserer Galaxis, immer punktgenaue Werte fuer die Parameter genommen werden. Manchmal nehmen die Autoren dann noch andere (punktgenaue) Werte um zu zeigen wie unsicher die Rechnung ist. Das løst dann zwar nicht das Paradoxon, soll aber als ein Ausdruck fuer unser (wissenschaftliches) Unwissen angesehen werden. Und das ist eigentlich auch genau der richtige Weg … nur ist das nicht die richtige Herangehensweise, denn ein paar Werte in einer Gleichung zu aendern ist nicht systematisch.

Sandberg, A., Drexler, E. und Ord, T. (hiernach nur als SDO abgekuerzt) schauten sich unser Unwissen bzgl. der Parameter deswegen mal sytematisch an und meiner Meinung nach ist der Titel ihres Artikels mit „Dissolving the Fermi Paradox“ recht passend gewaehlt … wenn auch etwas provozierend, aber mich duenkt, dass das kalkuliert war (Wortspielkasse).
Als eine Nebenbemerkung: ich weisz nicht, wie ich arXiv-Artikel zitieren soll, auszer, dass ich den Link setze (in welchem die DOI steht fuer den Fall, dass der Link mal stirbt).

Aber der Reihe nach. SDO argumentieren, dass wir nicht nur irgendwelche zufaelligen Werte in die Drake-Gleichung einsetzen kønnen um irgendwas „zu zeigen“. Vielmehr sollten alle bisher publizierten Werte fuer die Parameter in ihrer Gesamtheit betrachtet werden. Dann ist der Unterschied in diesen Werten ein Ausdruck fuer unsere (wissenschaftliche) Unsicherheit. In den (zum Artikel) zusaetzlichen Dateien gibt es eine Tabelle, in der SDO alle (wissenschaftlichen) Quellen fuer die Parameter angeben, die sie finden konnten. Und die Unterschiede kønnen schon gewaltig sein. So gehen bspw. die Abschaetzungen fuer die durchschnittliche Lebensdauer einer Zivilisation von 45 Jahren bis 1 Milliarde Jahre. Oder die Werte bzgl. des Anteils der Planeten in der habitablen Zone mit Leben geht von 10-30 (!) bis 1. Ersteres ist echt urst krass klein, aber Letzteres bedeutet, dass Leben im Wesentlichen garantiert ist auf jedem Planeten der sich dafuer eignet. Andere Parameter hingegen haben eine viel kleinere Unsicherheit; die Schaetzungen der Sternentstehungsrate liegt bspw. zwischen 1 und 50 Sternen pro Jahr.

Das sind aber nur die Extremwerte. In viele Abschaetzungen findet man sehr aehnliche Werte fuer die Parameter. Das ist dann natuerlich Ausdruck fuer eine gewisse (wissenschaftliche) „Sicherheit“. Nicht unbedingt im Sinne von vorhandenen Messungen (die ohnehin nicht durchgefuehrt werden kønnen) aber im Sinne der Abschaetzungen eines Spock die Captain Kirk den sicheren Fakten anderer vorzieht. Nehmen wir bspw. nochmals die Werte fuer die Entstehung von Leben. Der extrem kleine Wert von 10-30 wird nur ein Mal angegeben. Hingegen wird in 17 Faellen abgeschaetzt, dass die Entstehung von Leben (beinahe) garantiert ist. Und dann natuerlich die Werte dazwischen.

In der Statistik spricht man von Sachen wie Varianz, Mittelwert und Median einer Verteilung. Man beachte, dass, abhaengig von der Art der Verteilung, solche Werte nicht immer angegeben oder gar definiert werden kønnen. Aber die Werte der Parameter der Drake-Gleichung sind logarithmisch normalverteilt (das bedeutet, dass der Logarithmus der Werte genommen wird und dann sind diese (logarithmierten) Werte normalverteilt) und da ist das alles kein Problem.
Damit kann man dann aber stochastische Modelle erstellen, in denen unsere Unsicherheit modelliert werden kann und wie sich das auf N auswirkt.

Was mit „unsicherheit modellieren“ gemeint ist, møchte ich eine mehr intuitive Erklaerung des Prozesses geben (um dann die rigorose statistische Modellierung SOD zu ueberlassen).

Wir wissen nicht, welche Werte fuer die Paramter „richtig“ sind. Und wie oben erwaehnt werden dann oft ganz andere Werte genommen, welche ein  vøllig unterschiedliches Resultat zur Folge haben. Dieses wird dann im Umkehrschluss angesehen als „Beweis“, dass die Drake Gleichung nicht brauchbar ist.
Was aber, wenn wir nicht nur eine Rechnung, sondern eine Million Rechnungen machen? Und jedes Mal waehlen wir aus allen publizierten Werten (inklusive derjenigen die mehrfach auftauchen!) zufaellig aus, welcher denn fuer eine gegebene Rechnung benutzt werden soll. Dieser Prozess des „zufaelligen Ziehens“ von (publizierten) Werten modelliert auf eine gewisse Weise unsere Unsicherheit bzgl. der Parameter. Und weil wir das eine Million mal machen, kønnen wir statistische Aussagen ueber unsere Unsicherheit bzgl. N modellieren. Ich komme darauf nochmal zurueck, weil ich ja noch den Bogen kriegen muss, warum dies das Paradoxon aufløst.

Das habe ich mal gemacht und die Frage war dann: wie oft erhalten wir mittels dieser Methode „vertraute“ Resultate fuer N und wie oft Werte die ein leeres Universum bedeuten? Das Ergbniss meiner Rechnungen sieht man hier:

Man beachte, dass die Abzsisse logarithmisch ist. Sonst benutze ich die nicht-logarithmischen Werte (in diesem Fall fuer N) um die Achse zu beschriften und variiere den Abstand der kleinen Teilstriche entsprechend. Dieses mal benutze ich den logarithmierten Wert, also den Exponenten der Grøszenordnung des Wertes (vulgo, das „hoch y“ in „x mal zehn hoch y“). Von Strich zu Strich steigert sich der Wert von N also um einen Faktor zehn (!) auch wenn das linear aussieht!
Ich musste das so machen, weil es sonst nicht so schick ausgesehen haette, denn ich wollte das Ausmasz zeigen, ueber wie viele Grøszenordnungen sich N strecken kann. Und eigentlich geht das noch 15 Grøszenordnungen runter, denn die kleinsten Werten haben einen Exponenten von -65.

Das Maximum dieser Verteilung (jaja … da ist noch ein Nebenbuckel aber ich irgnoriere den mal) liegt bei 100 Zivilisationen in der Galaxis. Sehr haeufig erhaelt man sogar deutlich høhere Werte; bspw. eine Million oder gar eine Milliarde Zivilisationen in unserer Galaxis. Zunachst kønnte man da denken, dass das dann doch genau wieder das Fermi Paradoxon ist und in dem Sinne stimmt das auch, aber dann ignoriert man das, was Links des Peaks ist.

Die blaue Linie bei 100 markiert unsere (einzige) „Messung“: eine Zivilisation in unserer Galaxis. Und man sieht, dass die Wahrscheinlichkeit dort und auch bei Werten noch weiter links davon erstaunlich hoch ist. Geht man noch weiter zur (oliv)gruenen Linie, dann sind wir schon bei einem komplett leeren (observierbaren) Universum.

Kurze Abschweifung: New Horizons hat nicht nur ein paar Bilder vom Pluto gemacht (auch wenn mir scheint, dass dies das Einzige ist, was in der Øffentlichkeit wahrgenommen wird), sondern hat neben der Kamera auch noch ein paar andere Messinstrumente fuer uns mitgenommen. Eines davon hat gemessen, wie dunkel das Weltall denn eigentlich ist.
Das ist wichtig, denn in der Umgebung der Erde kann man das nicht machen. Hier gibt es total viel Staub und deswegen „glitzert und blinkert“ das auf allen Bildern von Messinstrumenten in der Naehe der Sonne (Naehe muss in diesem Satz gesamtsonnensystemtechnisch interpretiert werden). Das fuehrt dann dazu, dass man ganz schwache, weit entfernte Galaxien nicht sehen kann, weil die schwaecher leuchten als das „glitzern und blinken“. Aber wenn man weisz, wie stark das „glitzern und blinken“ ist, dann kann man aus der Anzahl der weit entfernten Galaxien die wir sehen abschaetzen, wie viele Galaxien wir nicht sehen kønnen.
Vor ein paar Jahren haben das mal ein paar Leute gemacht und die kamen zu dem Schluss, dass wir ca. 90 % der Galaxien nicht sehen. Die geschaetzte Zahl aller Galaxien im Universum lag dann (plusminus) bei 2 mal 10 hoch 12.
New Horizons hat nun, fern abseits des „Glitters“ im inneren Sonnensystems, festgestellt, dass das Universum deutlich dunkler ist als erwartet. Das wiederum bedeutet, dass es deutlich weniger unentdeckte Galaxien gibt. Man nimmt jetzt an, dass nur ungefaehr die Haelfte aller Galaxien nicht gesehen werden kønnen. Damit nimmt die Anzahl aller Galaxien im Universum um eine Grøszenordnung auf (plusminus) ca. 2 mal 10 hoch 11 ab.
Aber genug der Abschweifungen. Ich wollte nur kurz sagen wo der Wert des (oliv)gruenen Striches herkommt, weil das coole Wissenschaft (Wortspielkasse) ist.

Jedenfalls sehen wir im obigen Histogramm, dass selbst bei der (oliv)gruenen Linie noch ein betraechtliches „Signal“ ist! Die kumulative Wahrscheinlichkeit verdeutlicht besser, was dieses „Signal“ eigentlich bedeutet:

Die hier zu sehende Kurve stellt dar, wie grosz die Wahrscheinlichkeit ist, ein N zu erhalten welches kleiner oder gleich dem Wert auf der Abzisse ist. Man summiert also alle individuellen Wahrscheinlichkeiten (die einzelnen Balken im Histogramm) bis zu dem gegebenen N auf.

Wenn wir nun den Wert bei N = 100 ablesen, so erhalten wir eine kumulative Wahrscheinlichkeit von fast 31 %. So weit, so gut, aber was bedeutet das eigentlich? … Dafuer muss ich etwas weiter ausholen.

Um es gleich zu sagen: dieses Resultat bedeutet NICHT, dass wir mit einer Wahrscheinlichkeit von 31 % allein sind in unserer Galaxis.
Aber wie oben erwaehnt kennen wir die genauen Werte fuer die Parameter der Drake-Gleichung nicht. Unsere Unsicherheit drueckt sich in den verschiedenen (publizierten) Werten aus. Einige werden sicher naeher an der Wahrheit liegen als andere. Aber das wissen wir eben nicht. Bei den 1 Million Berechnungen wurde diese Unsicherheit „implementiert“, indem Werte zufaellig ausgewaehlt wurden und das hat das oben praesentierte Histogramm zur Folge.
Die kumulative Wahrscheinlichkeit (die ja aus dem Histogramm folgt) sagt uns nun, dass bei unserem derzeitgen Wissensstand, oder vielmehr bei unserer derzeitigen Unsicherheit bzgl. der Parameter, wir uns nicht wundern sollten, dass wir keine galaktischen Nachbarn sehen … oder høren? … aber Radiowellen sind ja auch nur elektromagnetische Wellen, also ist „Sehen“ gar nicht so verkehrt. Wieauchimmer, Letzteres ist die „Fermi Beobachtung“ und diese liegt absolut innerhalb dessen was zu erwarten ist, bei adaequater Betrachtung unserer Unsicherheiten.
Im Wesentlichen ist das das gleiche Argument, warum Physiker zehn Fantastilliarden Messungen machen bevor wir  eine Entdeckung verkuenden. Selbst dann, wenn nach der 23. Messungen schon klar ist, was man vor sich hat. Eben um den „Raum der Møglichkeiten“ weiter einzuschraenken — oder anders: um unsere Unsicherheiten kleiner zu machen.

Aber mich duenkt SDO druecken das besser aus (alle Hervorhebungen von mir):

[…] this conclusion does not mean that we are alone (in our galaxy or observable universe), just that this is very scientifically plausible and should not surprise us. It is a statement about our state of knowledge, rather than a new measurement.

Und das ist dann auch die Aufløsung des Paradoxons! Denn …

[t]he Fermi observation […] provides only very weak evidence about whether we will soon go extinct or whether interstellar communication or travel is impossible.

Die Fermi Beobachtung ist unser (einziger) Messwert, der im Zusammenhang mit punktgenauen Angaben fuer die Parameter der Drake-Gleichung oft als Paradoxon interpretiert wird. Und dieses Paradoxon wird oft genug maximal fatalistisch interpretiert. Nur die Interpretation als Paradoxon ist bereits falsch, denn wenn man die Unsicherheiten ordentlich mit einbezieht, dann ist das ueberhaupt kein Paradoxon. Vielmehr ist die Fermi Beobachtung einfach nur eine weitere, gar nicht mal so unwahrscheinliche Møglichkeit in Raum aller Møglichkeiten. Oder anders (und wieder besser) in den Worten von SDO:

While using point-estimates in the Drake equation frequently generates estimates of N that would produce a Fermi paradox, this is just an artefact of the overconfidence implicit in treating them as having no uncertainty.

Und das finde ich natuerlich ziemlich knorke, wenn wir nicht alle garantiert sterben muessen.

Die obigen Berechnungen sind nur eine ganz krude Implementierung unserer Unsicherheit in die Diskussion rund um die Ergebnisse der Drake-Gleichung. SDO haben das dann noch rigoros mathematisch behandelt und kommen (bei unserem derzeitigen (Un)Wissensstand) auf gar noch deutlich høhere Wahrscheinlichkeiten, fuer das keiner-da-zum-spielen-Szenario.

Wobei zu sagen ist, dass diese Erkentniss nicht an und fuer sich neu ist. Im wissenschaftlichen (im Gegensatz zum populaeren) Diskurs wurde die Møglichkeit dass N = 1 ist immer als ein wahrscheinliches Resultat akzeptiert.

Zum Abschluss des Artikels møchte ich dann noch sagen, dass das obige Ergebniss auch komplett anders interpretiert werden kann: (sehr) grosze Werte liegen mit guten Wahrscheinlichkeiten innerhalb des Møglichkeitraumes und wir sollten absolut Lauschen ob einer unserer Nachbarn „Hallo“ sagt :)

Eigentlich wollte ich was ueber die Normalverteilung schreiben und wie das mit dem Fortschreiten der Menschheit in eine ganz wunderbare Zukunft zu tun hat.

Dummerweise geht das nur, wenn man ueber die Anzahl wirklich intelligenter Menschen redet. Selbstverstaendlich tragen alle Maedchen und Jungs, Maenner und Frauen (und alle nichtbinaeren Leute natuerlich auch) dazu bei, dass es den Menschen um sie herum gut geht … das ist wichtig fuer so eine Art grundlegenden Wohlstand. Aber es braucht nun mal einen Gauss, Goethe, Gates etc. pp. um neue Ideen zu entwickeln und eben _voran_ zu schreiten … was ueber die Menschheitsgeschichte gesehen als eine Rueckkopplung immer einen gehobenden grundlegenden Wohlstand zur Folge hatte … trotz aller furchtbaren Sachen die dabei auch geschehen … aber ach, ich will hier eigentlich gar nicht in eine derartige Richtung abschweifen.

Aber wenn man ueber die Intelligenz von Menschen redet … neee … das ist ja genau das Problem! Es gibt dazu nix handfestes! Und schon gar nicht in neuerer Zeit.
Aber ich greife vor. deswegen nochmal von vorne.

Meine zwei Einschuebe von neulich lieszen mich etwas unbefriedigt zurueck. Ich wollte klar machen, dass allgemeine Bildung extrem wichtig ist. Nicht nur fuer das Individuum oder besagten grundlegenden Wohlstand, sondern eben gesehen auf unsere gesamte Spezies und hunderte, ja tausende Jahre zurueck geschaut bzw. in die Zukunft projiziert.

Aber dann ist es eigentlich so, dass Bildung nur eine Art „Stellvertreter“ fuer ein viel unklareres Konzept ist. Dieses Konzept habe ich auch bereits angesprochen: Wohlstand.  Eine Erhøhung des Wohlstands, ob zeitlich und ørtlich lokal, oder global gesehen, geht immer mit einer Erhøhung des Bildungsniveaus einher. Aber auch das ist nur ein Stellvertreter fuer ein noch unklareres Konzept: Fortschritt.

Das Bildungsniveau ist (trotz aller Kritik) messbar auf dem individuellen, gesellschaftlichem, und globalen Level. Zensuren sagen zwar laengst nicht alles, sind aber i.A. doch korelliert mit spaeteren Lebenslaeufen. Auf „høheren“ Ebenen waeren konkrete Messgrøszen dann bspw. die Anzahl der Studienabschluesse, die Anzahl wissenschaftlicher Artikel oder (*schauder*) Patente pro Land und Jahrzehnt.
Das ist alles ganz und gar nicht „unkompliziert geradeaus“, aber man sieht zumindest statistisch robuste Korrelationen zwischen diesen Messgrøszen und der Anzahl der (weiterfuehrenden) Schulen und Schuljahre.

Wohlstand zu messen wird dann schon deutlich schwieriger. Das Bruttoinlandsprodukt ist gar nicht mal so schlecht. Dennoch muss man nur mal in die USA oder nach Sachsen schauen um zu sehen, wie wenig Wohlstand in groszen Gebieten und bei vielen Menschen vorhanden ist, trotz eines richtig guten Bruttoinlandsprodukts. Dennoch, auch fuer die allermeisten Menschen in diesen Bevølkerungsgruppen kommt der Strom zuverlaessig aus der Steckdose und das Wasser aus der Wand … verglichen mit all zu vielen nicht-„westlichen“ Laendern ist das ein immenser Wohlstand.

Und wo kommt der ganze Wohlstand heutzutage her? Na ganz klar, weil ein paar Individuen sich hingesetzt haben und erkannt haben, dass sich die Erde um die Sonne bewegt, dass ’ne Dampfmaschine benutzt werden kann um Minen zu entwaessern, dass man Stickstoff aus der Luft ziehen kann um damit Duenger herzustellen, dass man mittels abgestorbener Krankheitserreger Menschen immun machen kann gegen furchtbare Krankheiten, dass Halbleiter ganz toll sind um elektrisches Zeug zu schalten usw. usf. ueber viele Jahrtausende.

Aber wie zum Teufel soll man das messen? „Smart“phones sind definitiv Wohlstand, aber auch Fortschritt? Das Internet (was ist das eigentlich?) ist sicherlich Fortschritt, aber wie viele „Schritte“ hat es die Menschheit denn voran gebracht? Der Transistor und Strom (aus der Steckdose) sind definitiv als Fortschritt zu erkennen und diese zwei haben die Menschheit gewaltig viele Schritte voran gebracht. Aber was „messe“ ich denn da eigentlich und wie ist die Skala eingeteilt?

Ach du meine Nase!

Wir wollen Fortschritt, dass Konzept ist aber nicht klar definiert und kann somit nicht gemessen werden. Wir (als Menschheit) sind deswegen auf andere Konzepte ausgewichen und haben uns dann (als Menschheit) die Scheuklappen aufgesetzt und nur diese diskutiert.

Durch die Rueckkopplungsschleifen zwischen diesen drei Dingen wird es aber noch viel komplizierter.
James Clerk Maxwell konnte sich nur Gedanken um die Natur elektromagnetischer Wellen machen (Fortschritt), weil er die nøtige Bildung dafuer hatte. Und die nøtige Bildung hatte er nur, weil er nicht auf dem Feld Weizen anbauen mussten (Wohlstand). Er musste keinen Weizen anbauen, weil (nicht nur) die agrartechnischen Produktionsmethoden so viel besser waren als waehrend des rømischen Reiches.

Bildung zeugt Fortschritt zeugt Wohlstand zeugt Bildung … oder: Fortschritt zeugt Wohlstand zeugt Bildung zeugt Fortschritt … oder: Wohlstand zeugt Bildung zeugt Fortschritt zeugt Wohlstand.

Soweit ganz kurz zu den Sachen die diesem Artikel dieser kleinen Serie hier zugrunde liegen. Dieses ganze Themengebiet schwirrt mir schon seit vielen Jahren durch den Kopf. Meist im Zusammenhang mit, wohlwollend ausgedrueckt, eher konservativen Meinungen. In der direkten Form waeren solche Meinungen von der Art „Die Faulen sind selber Schuld, dass es denen so schlecht geht“. Aber sehr oft trifft man besagte Meinungen auch in der hinterhaeltigen Form an wie beispielsweise: „Wenn viele Leute die Homoehe nicht wollen, sollte man das dann gesetzlich verankern?“ … also im Sinne dessen, dass man Bevølkerungsgruppen die nicht sowieso schon am Reichtum teilhaben, die Teilnahme an besagtem Reichtum doch lieber nicht erlauben sollte … nur halt derart ausgedrueckt, dass es den Anschein hat, als ob der Rest der Bevølkerung das auch meint; deswegen „hinterhaeltig“.

Meine Antwort zu all diesen konservativen Meinungen ist: damit die Menschheit zu den Sternen gelangen kann, muss die Lebenssituation (a.k.a. Wohlstand) aller (!) Menschen verbessert werden. Dies nicht nur auf globalem, sondern auch auf lokalem, ja individuellem Niveau.
Der Grund ist, dass ich ueberzeugt bin, dass es immer noch viel zu viele Menschen wie Srinivasa Ramanujan gibt, nur dass auf diese niemand durch Zufall aufmerksam wird. Deswegen muessen sie ihr Potential benutzen um zu ueberleben anstatt den Warpantrieb zu erfinden. Etwas tangential, aber dies doch betreffend, frage ich mich bspw., wie viele „Verbrecherkønige“ eigentlich wirklich schlaue Menschen sind, die einfach nur ganz unten auf die Welt kamen und das der einzige realistische Ausweg war? … *seufz*.

Das ginge alles ganz einfach zu beweisen, wenn man zeigen kønnte, dass es urst viele wirklich schlaue Menschen in furchtbaren Lebensumstaenden gibt, und der Menschheit am besten geholfen waere, wenn man sich nicht auf zufaellige Entdeckungen durch Maezenin und Maezen verlaeszt. Wie soll man aber die Exzistenz von etwas beweisen, was es _offiziell_ gar nicht gibt?
Selbstverstaendlich gibt es diese intelligenten Menschen in furchtbaren Lebensumstaenden. Rein statistisch muss das schon so sein und die vielen Anekdoten tun ihr Uebriges um auf deren Vorhandensein zu schlieszen. Aber _offiziell_ gibt es diese Menschen erst, wenn sie bspw. in einer Studierendenstatistik auftreten oder wissenschaftiche Artikel verøffentlichen. Dies geschieht aber so oft nicht, weil die Lebensumstaende das nicht zulassen. Ergo, muessen wir die Lebensumstaende aller Menschen verbessern, weil wir begabte Individuen eben NICHT gezielt førdern kønnen, bevor diese „erkannt“ sind. Die Lebensumstaende aller werden aber nicht gehoben, weil das nicht als notwendig anerkannt ist fuer den Fortschritt (durchaus aus moralischen Gruenden aber mehr auch nicht). Somit bleiben begabte Menschen in besagten Lebensumstaenden  … da schlieszt sich der Kreis.

Und damit komme ich zum ganz konkreten Problem was ich im allerersten Satz dieses Artikels anriss. Damit das aber keine rein theoretische Diskussion wird, wollte ich es ueber einen ganz pragmatischen Ansatz versuchen: Fortschritt haengt von wirklich schlauen Leuten ab, von denen gibt es aber nicht so viele. Schlauheit messen wir nun ueber den „IQ“ (jaja, das Fass mache ich naechstes Mal ganz kurz auf … und dann ganz schnell wieder zu), und wenn wir den Durchschnitts-IQ aller Menschen erhøhen (bspw. durch Masznahmen welche die Lebensumstaende verbessern), dann fuehrt dies zu ueberproportional mehr wirklich schlauen Mensche und somit geht es schneller voran.

Dummerweise ist die Vermesung der Intelligenz ein schwieriges und  entzuendetes Thema in der Wissenschaft und Gesellschaft … aber ich møchte an dieser Stelle abbrechen, denn der Text hier ist schon wieder so lang. Ach verdammt … das sollte doch nur ein Artikel werden (siehe ganz oben) und nun wird’s doch wieder ’ne (kurze) Serie … nun ja, so ist das eben.

Eines der voll tollsten Weihnachtsgeschenke ever:

Foto nicht von mir aber mit Erlaubnis hier wiedergegeben.

Urst voll geil wa! Ein Original (!!!) der Philosophiæ Naturalis Principia Mathematica!
Es war aber die zweite, erweiterte Ausgabe. Habe ich sofort daran erkannt, weil darin auch Leibniz Darstellung der Infinitesimalrechnung aufgenommen war.

Freitags versuche ich immer ein Flash T-Shirt anzuziehen. Aus Prinzip und weil’s mein Lieblingssuperheld ist.
Dies im Speziellen hat nur aeuszerst periphaer mit dem Thema dieses Artikels zu tun: „Das dauert mir zu lange! Das muss doch schneller gehen!“ … Aber i.A. passt das schon … … … wobei „aueszerst peripher“ sinnlos ist, denn die Peripherie ist ja schon der aeuszere Rand einer Zone.

Ein ganz anderer Anfang: heute plaudere ich mal etwas aus dem Naehkaestchen und versuche mehrere Wochen des freudigen Programmierens und Problemløsens in nur diesen einen Beitrag zu packen, ohne all zu technisch zu werden.

Die neulich beschriebene Idee, das Kevin-Bacon-Problem in Vektoren zu fassen, ist streng genommen nicht nøtig um das Linknetzwerk zu durchschreiten. Es reicht vøllig, dass das alles in den Speicher passt und dann kann man (wie im verlinkten Artikel gesagt) mittels Fallunterscheidungen schon ’ne ganze Menge machen.

Nachdem ich die Titel zu Zahlen transformiert hatte, habe ich einen derartigen Algorithmus mal schnell implementiert um zu sehen, wie lange der denn braucht … und der brauchte so ca. 53 Jahre!

Wait! What!? Wenn ich mich richtig erinnere, dann hatte der Code noch nicht mal alle Analyseteile, welche noch mehr Zeit benøtigt haetten.
Dies war natuerlich zu viel und ich musste eine (mathematische) Løsung finden, welche dann hoffentlich nicht so viel Zeit braucht. Das ist das, was ich beim letzten Mal beschrieb.
Dieser „Vektorcode“, brauchte in Python 3.7.3 ca. vier Minuten um das Linknetzwerk einer Seite zu analysieren. Das war zwar besser, aber fuer alle ca. 6 Millionen Seiten waeren das immer noch 45 Jahre, die mein Rechner durchgehend haette laufen muessen. … Verdammt!

Da daemmerte mir, dass ich wohl nicht umhin komme, dass ganze in C zu schreiben.
Davor versuche ich mich immer zu druecken. Der Grund ist (wie an anderer Stelle bereits (indirekt) erwaehnt), dass ich mich da um grundlegende Sachen wie Speicherverwaltung selber kuemmern muss. Und wenn da was schief geht, dann bekomme ich das mitunter gar nicht mit, weil ich keine Ahnung von C habe.

Hinzu kam, dass die aeuszerste Ordnungsstruktur, das Lexikon (das „Dictionary“ oder die „Lokomotive“ (wie ich es an anderer Stelle nenne), welche die vielen „Waggons“ mit den ganzen Links „zieht“) in der Form gar nicht existiert in C. Zumindest nicht in der einfach zu verstehenden, einfach zu handhabenden und vielseitig anwendbaren Form wie in Python.
Und das ist ein riesiges Problem, denn auf jedem Linklevel, muss ich in besagtem Lexikon tausend-, millionen-, ja fast zweihundertmillionenmal nachschauen welcher Titel welche Links (die „Ausgaenge“ zum naechsten Linklevel) hat. Und das ganze dann noch mal ca. 6 Millionen Titel.
Deswegen muss so ein Lexikon effizient und gut in the gesamte Sprache integriert sein. Ich meine tatsaechlich die Programmiersprache an sich (und Dictionaries sind extrem gut in Python integriert), denn hierbei wird verdammt gute Speicherverwaltung benøtigt!

Zum Glueck hatte ich schonmal was von Hashtabellen gehørt. Hashtabellen sind sowas wie ein Lexikon — ein „Ausgangswert“ (hier die Titel) wird irgendwas zugeordnet. Dabei kann es aber zu sogenannten Kollisionen kommen. Das waren dann bei ein und demselben Ausgangswert mehrere Zuordnungen. Beim Lexikon nehme man das Wort „Wurzel“. Das kønnte die Wurzel einer Pflanze sein oder die Wurzel einer Zahl.
Hashtabellen løsen dieses Problem (muessen sie ja, denn ansonsten wuerden sie nicht benutzt werden) aber Kollisionsvermeidung fuehrt dazu, dass der Zugriff in Hashtabellen unter Umstaenden sehr langsam sein kann. Das ist ein riesiges Problem denn, wie bereits erwaehnt, muss ich urst oft in dieser Hashtabelle nachschlagen.
Vor allen Dingen ist die zeitraubende Kollisionsvermeidung ein unnøtiger Prozess in meinem Fall, weil ich nach der „Verzahlung“ eindeutige „Ausgangswerte“ habe und es niemals zu Kollisionen kommen kann.

Dazu kam, dass es auch solche Hashtabellen nicht „fertig aus der Tuete“ in C gibt und ich das selber programmieren musste.
Aber die 45 Jahre Laufzeit waren mir zu viel. Und deswegen machte ich mich auf, mir das Ganze mal anzuschauen. Zunaechst etwas zøgerlich, ja gar etwas aengstlich, aber dann immer enthusiastischer. Ich fand ein paar extrem gute Erklaerungen im Netz und die dortigen Løsungen schaffte ich fuer mein Problem zu modifizieren. Das war spannend!

Dann implementierte ich den beim letzten Mal vorgestellten Vektoralgorithmus und das ging ganz toll. Anstatt ca. 4 Minuten pro Titel brauchte ich nur noch 3.2 Sekunden (! … !!! … !!!einseinself) pro Titel … wait! WHAT?! … Anstatt 45 Jahre wuerde ich fuer alle ca. 6 Millionen Titel dann nur noch ca. 7 Monate brauchen!

JIPPIE!!!!! Damit wurde das Projekt ganz konkret durchfuehrbar.

Nun war besagte Zeit aber immer noch ohne die eigentliche Analyse.
Doch dann erinnerte ich mich, dass Computer heutzutage ja Mehrkernprozessoren haben, von denen meistens nur einer ausgelastet ist und der Rest Pause macht. Und die Macht dieser restlichen Kerne wollte ich auch nutzen. Das Ganze kønnte man auf deutsch „simultaner Mehrfadenbetrieb“ nennen, aber ich denke nicht, dass das irgendwer sagt. Deswegen benutze ich den englischen Begriff multithreading.
Wusste ich wie das zu programmieren ist? Die Antwort ist ein klares „Nein“. Aber das war super interessant und zunaechst etwas zøgerlich, ja gar etwas aengstlich, aber dann immer enthusiastischer machte ich mich daran die technische Seite des multithreading besser zu verstehen und zu implementieren.

Das hørt sich jetzt komplizierter an als es ist. Beim multithreading ist es eigentlich nur so, dass der Computer auf Kern #1 das Linknetzwerk von Titel 516 (als Beispiel) durchsucht, auf Kern #2 das von Titel 517, auf Kern #3 das von Titel 518 usw.
Dabei muss man im Wesentlichen darauf achten, dass bestimmte Ressourcen von allen „Threads“ benutzt werden. Beim Lesen ist das nicht so tragisch, da kann der Thread auf Kern #2 warten bis der Thread auf Kern #1 fertig ist. Beim Schreiben ist das aber von ganz erheblicher Bedeutung. Klar, wird da auch gewartet, aber der thread auf Kern #2 kønnte Information ueberschreiben, die der Thread auf Kern #1 (oder Kern #3 usw.) noch braucht.
Das wird oft dadurch geløst, dass man schaut welche Ressource gerade von welchem Thread „in Benutzung“ ist und die darf dann von keinem anderen Thread „angefasst“ werden. Das ist aber URST krass zeitraubend, weil dann ja wieder alle Prozessoren Pause machen bis die Ressource frei ist. Deswegen musste ich die Teile des Vektoralgorithmus welche von allen Threads benutzt werden auf andere weise „threadsicher“ machen. Die Løsung war, dass jeder Thread seine eigenen Vektoren bekommt und dann war es technisch nur noch eine kleine Herausforderung, dass die Zuteilung der Vektoren zu den richtigen Threads automatisch geschieht (weil das ja ca. 6 Millionen mal gemacht werden muss).

Lange Rede kurzer Sinn, nach der Hashtabelle implementierte ich dann das multithreading.
Nun ist es aber so, dass multithreading extra „Betriebskosten“ (diesmal nicht in Form von Speicher aber in Form von Prozessorzyklen und damit „Rechenzeit“) verursacht. Threadsicherheit ist der Teil der Kosten ueber den ich Kontrolle hatte. Das allermeiste geschieht intern und ich habe absolut keine Ahnung, was das alles ist.
Jedenfalls fuehrt das dazu, dass man die Zeit mit zwei Kernen nicht einfach nur halbieren kann. Aber bei 2 Kernen brauchte ich nur noch 2.8 Sekunden pro Titel. Und mit drei Kernen gar nur 2.2 Sekunden pro Titel. Die Benutzung von 4 Kernen bringt keine weitere Verbesserung, machte meinen Rechner aber urst traege. Das lag natuerlich daran, dass ich nur 4 Kerne habe und auf einem muss ja auch das Betriebssystem laufen.
Drei Theads, und ca. 5 Monate Rechenzeit, sollen es also sein.

Danach „stolperte“ ich ueber eine Kuriositaet, die ich mir nicht erklaeren kann. Dafuer muss ich aber etwas ausholen.

Die Werte der einzelnen Elemente in den Vektoren sind ja nur Null und Eins, nix anderes. Aber soweit habe ich den Algorithmus derart implementiert, dass ich diese als eben das — richtige Zahlen — ansehe, die auch den Wert 23517 annehmen kønnten. Damit folgen die mehrere Bytes Speicherbedarf „richtiger“ Zahlen. Weil es aber nur Nullen und Einsen sind, kønnte der Datentyp (und damit die „Betriebskosten“) dieser Werte auch anders sein.

Also spielte ich mal mit ein paar anderen Datentypen herum und es stellte sich dann heraus, dass ich mit der Verwendung des Datentyps char die Rechenzeit auf nur 1.5 Sekunden pro Titel reduzieren konnte. Das entspricht ein bisschen weniger als ca. 3 1/2 Monate fuer die komplette Wikipedia.
Der Nachteil von char ist, dass da dann halt nur kleine Zahlen rein passen, die nicht mehr als dieses eine Byte brauchen. Zum Glueck sind Null und Eins so klein, dass es kleiner nicht geht.

Superduper … doch dann ging mir auf, dass ich die Analyse der Linklevel ja noch gar nicht implementiert hatte. Das ging aber schnell reinzuhacken und die benøtigte Zeit erhøhte sich (bei der Verwendung von char und drei Threads) um nur 0.15 Sekunden pro Titel. Selbst bei fast 6 Millionen Titeln verlaengerte sich damit die erwartete Gesamtrechenzeit auf nur etwas mehr als ca. 3 1/2 Monate.

Lange Rede kurzer Sinn: nach einigen Wochen hatte ich es nicht nur geschafft die technische Løsung des Kevin-Bacon-Problems ganz konkret in Code zu fassen, sondern ich konnte durch gezielte „Tricks und Kniffe“ die Gesamtrechenzeit von urspruenglich ca. 50 Jahren auf nur 3 1/2 Monate reduzieren.

Da fuehlte ich mich ungefaehr so:

URST! KRASS! … WIE TOLL DOCH ICH BIN! … wa! … Es gibt nichts was ich nicht kann … ICH … BIN … GOTT!

Und deswegen wollte ich das hier mal (trotz der Laenge) wenigstens in der kuerzest møglichen Form mit so wenigen (konkret) technischen Ausfuehrungen wie møglich, hingeschrieben haben.

Dreieinhalbe Monate also. Sagen wir vier, vielleicht fuenf, denn es kønnte ja mittendrin was schief gehen und dann muss ich Teile nochmal machen.

… … … aber Moment … im Buero stehen doch zwei Rechner rum, die sonst nix zu tun haben … … …

… … … hmmmmmmmm … … …

… … … hmmmm hmmmm hmmmm … … …

… … … ca. 7 Wochen spaeter … … …

Die Ergebnisse sind hier!

Aber dazu mehr ab dem naechsten Mal.

Die Drake-Gleichung

… wird genommen um N,

[…] the number of civilizations in our galaxy with which communication might be possible […]

zu berechnen, als Produkt aus (alle Parameter sind anzusehen als Durchschnittswerte):
– der Rate der Sternenentstehung in unserer Galaxis, R*;
– dem Anteil der Sterne die Planeten haben, fp;
– der Anzahl der Planeten in der habitablen Zone, ne („e“ fuer „Erde“);
– der Anteil der Planeten mit Leben, fl,
– der Anteil der Planeten mit intelligentem Leben, fi;
– der Anteil der Zivilisationen mit (der Faehigkeit zu bzw. Interesse an) interstellarer Kommunikation, fc; und
– der Lebensdauer einer solchen Zivilisation, L.

Abhaengig von den Werten der Variablen kønnen da Werte von N bei rauskommen, die sich ueber hundert (!) Grøszenordnungen (!!!) unterscheiden. Das wird dann ab und zu auch kritisert, aber dafuer kann die Gleichung nix. Die ist nie dafuer gedacht gewesen um etwas exakt zu berechnen sondern zur Diskussion.
Einige der Werte kennen wir (mittlerweile) ziemlich genau (alle die mit Astronomie zu tun haben). Ueber andere wiederum wissen wir (fast) ueberhaupt nichts (alle die mit Biologie und Soziologie zu tun haben).

Im Laufe der Jahre hat die Mehrzahl der Leute, die sich darueber Gedanken gemacht haben, relativ hohe Werte fuer N ausgerechnet. Das bedeutet, dass es nach deren Berechnungen ziemlich viele Aliens um uns herum geben muesste. Und das ist das Fermi Paradoxon: wenn es so viele Aliens gibt, warum sehen wir von denen nix?

Deswegen wird spekuliert, was denn der grosze Filter sein kønnte, der diese Kommunikation von uns weg haelt?
Dadurch, dass wir (wie erwaehnt) mittlerweile ziemlich gut die astronomischen Parameter kennen, kønnten das nur noch die biologischen (also die Entstehung von Leben oder der „Aufstieg“ zur Intelligenz) oder soziologischen (Faehigkeit und Interesse an Kommunikation bzw. Lebensdauer einer Zivilisation) sein.

Sehr oft kann man das dazu zusammenfassen, dass das ja alles grundlegende physikalisch/biologische Konzepte sind, die ueberall im Universum gleich sind. Und selbst wenn wir da keine direkten Messwerte haben, kønnen wir ja von dem einen Messwert (die Erde/Menschheit) extrapolieren.
Auf dieser Basis argumentiert Whitmire, D. P. im International Journal of Astrobiology , 18 (2), 2019, pp. 183 – 188 in seinem Artikel mit dem Titel „Implication of our technological species being first and early„:

We argue […] that the Principle of Mediocrity implies that we are typical in technological age […].

Und das ist eine angebrachte, wohlerprobte und nicht zu beanstandende wissenschaftliche Herangehensweise — wir nehmen an, dass wir (und alles um uns herum) voll durchschnittlich sind. Mit Hilfe logischer und statistischer Argumente kommt Whitmire dann zum logischen Schluss:

[…] that the typical technological species has a short lifetime and that their extinction coincides with the extinction of their planetary biosphere.

Wie gesagt, das hier ist der Teil in dem alle sterben.

Eine Modifikation waere die sogenannte Dark Forest Theorie. Im Wesentlichen besagt diese, dass um uns herum keiner „Hallo“ ruft, weil das ja wer høren kønnte, der diese Wesen dann ausløscht, bzw. dass Logik diktiert, dass wenn wir einen Nachbarn høren der „Hallo“ sagt, wir den sofort umbringen muessen (was dann der Zirkel zum ersten Teil des Satzes ist), wenn wir als Zivilisation langfristig ueberleben wollen.
Dies ist natuerlich eine sehr anthropomorphe Sichtweise, aber Logik gilt doch ueberall im Universum.

Lange Rede kurzer Sinn: das Paradoxon løst sich auf, wenn man annimmt, dass alle intelligenten Zivilisationen schnell sterben und niemals die Sterne erreichen … Das ist schon ein bisschen deprimierend muss ich sagen.

Aber wie immer: (more) Science to the Rescue … beim naechsten Mal.

Die Mensch-Computer-Schnittstellen werden immer besser. Lochkarten waren eine massive Verbesserung gegenueber dem Umstecken von Kabeln. Wobei natuerlich cool ist, dass der Beruf des Programmierers damals als inhaerent weiblich angesehen war. Interessant, wie sich die Zeiten aendern. Aber ich schweife ab.

Noch besser waren dann Tastaturen und heutzutage geben die User ihren Taschencomputern oft viel mehr Liebe als anderen Menschen, denn Erstere werden ja permanent gestreichelt, und Letztere nicht so oft.
In Star Trek reden alle nur noch mit Computern, so wunderschøn ausgedrueckt in dieser klassischen Szene, und dort bewegen wir uns mit schnellen Schritten hin (ab 1:18 geht die Demonstration los).

Aber trotz ausgeklugelter Technik wie Spracherkennung, so wird die Interaktion mit Computern doch im Allgemeinen als emotionslos dargestellt und angenommen. Zum Einen, weil Computer „Gefuehle nicht kønnen“, aber zum anderen auch, weil man die Maschinen nicht mit ambivalenten Dingen verwirren møchte … hier frage ich mich, warum wir das aber unseren Mitmenschen zutrauen?

Wieauchimmer, ganz gut zusammen fasst dieser Artikel ein paar der ueblichen (und wichtigen) Punkte bezueglich der „Computer kønnen kein Mitgefuehl (und werden das auch niemals kønnen)“.

Das ist ein extrem wichtiges Thema, denn so ziemlich alle (!) Berufe haengen daran. Nicht nur Lehrer und Krankenschwestern (und -brueder), sondern natuerlich auch die Polizei und auch der Chef auf dem Bau! Das ist immer und ueberall so praesent und krass wichtig, dass wir uns (als Individuen) ueber schlechte Chefs aufregen, bzw. (als Gesellschaft) diese fundamentale Faehigkeit zur Empathie einer ganz spezifischen Berufsgruppe versuchen abzuerziehen. Letzteres damit Soldaten ungestørt ihrer „Arbeit“ nachgehen kønnen; und in den allermeisten Faellen klappt das (zum Glueck) nicht.

Aber da wird natuerlich dran geforscht und es gibt gute Ideen (nur ein Beispiel) wie man an die Sache heran gehen kann. Solche Ideen gehen von dem aus, was wir ueber die Entwicklung kleiner Kinder wissen und legen dar, wie dieses „Geruest“ (welches von der Natur wohlerprobt ist) auf Maschinen uebertragen werden kann.

Tja … da geht sie hin, unsere Menschlichkeit … oder vielmehr erweitern wir „unsere“ Menschlichkeit und ich denke, dass dies ein richtiger Schritt in die Richtung ist, nicht zu Bueroklammern reduziert zu werden.