Archive for März, 2022

Ich weisz, dass ihr, meine lieben Leserinnen und Leser ganz gespannt auf die Ergebnisse wartet. Aber ihr seht ja auch, dass ich z.Z. ein bisschen mit anderen Projekten abgelenkt bin.

Weil ich das Kevin Bacon Projekt nicht ganz ruhen lassen will, habe ich mir gedacht zwei kurze Beitraege bezueglich den Daten die ich eingesammelt habe zu schreiben. Mich duenkt dass ich das in diesem sehr detaillierten und technischen Beitrag bereits erwaehnte.

Bisher ging es aber nur um das (super spannende und interessante) „Vorspiel“ … also die Erklaerung was ich eigentlich gemacht habe, um das Linknetzwerk der Wikipedia zu analysieren … abgesehen von der Analyse die nicht das „Abschreiten“ des Linknetzwerks benøtigte.
Dies wurde dann alles in ein Programm implementiert und besagtes Programm lieferte die gewuenschten Resultate — die oben erwaehnten eingesammelten Daten. Drei dieser Grøszen sind einfach zu verstehen. Die vierte erhaelt ihren eigenen (kurzen) Beitrag.

Am anschaulichsten scheint mir zu sein, den Prozess des „Abschreitens“ des Linknetzwerks nochmal durchzugehen und fuer jede Grøsze zu besprechen.

Am Anfang nehme ich einen Wikipediabeitrag (oder Titel wie ich es auch nenne). Dieser ist auf Linklevel 0 und hat eine gewisse Anzahl Links als „Ausgaenge“ zum Linklevel 1. Die _totale_ Anzahl dieser Links notiere ich mir fuer Linklevel 0. Als Beispiel nehme ich an, dass es 23 Ausgaenge waren zu 23 verschiedenen Wikipediaseiten.

Linklevel 1 besteht nun aus ALLEN diesen 23 Seiten. Diese 23 Seiten haben INSGESAMT wieder eine gewisse Anzahl Links. Nehmen wir als Beispiel an, dass es im Durchschnitt 10 Links pro Seite sind. Damit is die _totale_ Anzahl Links fuer Linklevel 1 zu Linklevel 2, fuer diesen ganz spezifischen, am Anfang gewaehlten, Wikipediabetrag, 230.
Nun nehmen wir weiter an, dass 5 von den 23 Seiten jeweils einmal auf besagten urspruenglichen Wikipediabetrag zurueck verlinken. Das hat zwei Folgen.
Zum Einen sehe ich ein Zurueckverlinken-zum-Ursprung als Selbstreferenz und die Summe aller Selbstrefrenzen notiere ich mir pro Linklevel. Das machte ich auch schon bei Linklevel 0, aber dort ist die Anzahl der Selbstreferenzen meist Null.
Zum Zweiten folge ich nur Links zu Seiten die ich vorher noch nicht besucht habe. Als Beispiel nehme ich an, dass die restlichen 225 Links alle zu verschiedenen Seiten gehen. Diese Zahl, die Anzahl aller _neuen_ (einzigartigen) Links, notiere ich mir auch per Linklevel (und urspruenglichen Wikipediabetrag).

Auf Linklevel 2 habe ich nun 225 Seiten. Ich nehme wieder 10 Links pro Seite (im Durchschnitt) an. Das macht dann 2250 _totale_ Links auf Linklevel 2. Desweiteren nehme ich an, dass da 50 Selbsreferenzen dabei sind. Auszerdem sehe ich, dass fuer dieses Fantasiebeispiel im Schnitt jede Seite auf Linklevel 2 eine Seite zitiert, die ich schonmal auf Linklevel 1 besucht habe. Das waeren also 225 „Zurueckverlinkungen“, die NICHT zum Urpsrung gehen (und somit keine Selbstreferenzen sind) denen ich aber ebenso nicht folge, damit ich nicht in Schleifen gerate. Die Anzahl der _neuen_ (einzigartigen) Links ist also: 2250 Links – 50 Selbstreferenzen – 225 Zurueckverlinkungen = 1975 Links

Auf Linklevel 3 habe ich nun 1975 Seite und das Spiel geht immer weiter, so lange, bis es keine Verlinkungen (oder Ausgaenge) mehr, zu Seiten auf denen ich noch nicht war, gibt .

In Tabellenform sieht das Fantasiebeispiel so aus:

Linkleveltotale LinksSumme der Selbstreferenzenneue Links
023023
12305225
22250501975
75101
76000

Das Ganze geschieht nun fuer alle (beinahe) 6 Millionen Wikipediatitel und wie die Verteilung dieser Grøszen pro Linklevel aussieht ist das, was mich interessiert. Aber das soll genug sein fuer heute.

Heute mal in kurz eine Leseempfehlung: The Lessons of Lucasfilm’s Habitat. Dort schreiben zwei der Schøpfer des allerersten groszformatigen (mehr als 10-tausend Spieler) MMORPG ueber ihre Erfahrungen.

Eigentlich gebe ich fuer solche Artikel keine Leseempfehlungen. Weder ist das extra dolle spannend, noch super gut geschrieben (es ist normal gut geschrieben), und auch nicht besonders wichtig. Aber fuer Gamer und Leute die mit Technik (und insb. Programmieren) zu tun haben ist das eine schøne Erinnerung, sich mal zu besinnen, wie das frueher war.

In den technischen Teilen (die nicht so schwer verdaulich sind) wird auf Sachen eingegangen, die wir mittlerweile als einfach gegeben hinnehmen.
Es war bspw. laengst nicht immer so, dass alle Computer mit allen anderen „sprechen“ konnten. Jedes Netzwerk, oder jeder Computerhersteller, hatte eigene Protokolle wie die Bits ausgetauscht (und strukturiert) werden muessen. Zum Zeitpunkt als Habitat lief, wurden bereits seit laengerer Zeit allgemeine Protokolle diskutiert und entwickelt. Schon „komisch“ zu sehen, dass auch mal andere Sachen als TCP/IP ernsthaft in Betracht gezogen wurden, als die Sprache des Internets (auch wenn ich das schon vorher wusste, aber eher auf einem abstrakten Niveau).
Eine (andere) witzige Sache ist, dass die Autoren den Lesern objektorientiertes Programmieren versuchen schmackhaft zu machen. Ich wusste, dass es das nicht immer gab. Ich wusste aber nicht, dass die Speicherverwaltung bei objektorientierten Sprachen auch mitbedacht werden muss … krassomat … so viele Sachen sind mir nicht bekannt und vor mir „versteckt“, damit mein Leben und Arbeiten mit den Maschinen einfacher ist.
Und natuerlich ist die Beschreibung des Arbeitens mit damals cooler und weitverbreiteter, aber dennoch sehr beschraenkter Hardware durchaus interessant mal zu lesen. Ich wusste gar nicht, dass zehntausende Menschen mit dem Commodore 64 ins Internet (damals natuerlich noch nicht das WWW) gegangen sind. Mir war zwar bewusst, dass das ging, aber nicht wie relativ einfach das gewesen sein muss, dass das nicht nur ’ne handvoll Hacker geschafft haben.
Als Letztes sei diesbezueglich erwaehnt, dass es cool ist zu sehen, dass viele der Vorschlaege von damals wirklich umgesetzt wurden … die haben getraeumt und deren Traeume sind wahr geworden

Fuer Gamer eher von Interesse sind die Anekdoten, wie sich diese erste aller wirklich groszen online-gaming-Gemeinschaften verhalten und entwickelt hat. Es gab bspw. damals schon Trolle, die alle einfach so umgebracht haben. Im Gegenzug ist da dann aber auch der griechisch-orthodoxe Priester (in echt jetzt), der dem ganz prinzipiell entgegen stand und dann eine der allerersten Onlinereligionen gegruendet hat (die wohl auch ein relativer Erfolg war).
Auch schøn zu lesen war, wie unterschiedlich Konflikte geløst werden kønnen und ich frage mich, ob da heutige Communities nicht viel von lernen kønnten.

Wieauchimmer, viel Spasz beim lesen (und ich ermuntere nochmals, sich durch die eher technischen Abschnitte durchzubeiszen)

Heute schreibe ich dann endlich mal worauf ich eigentlich hinaus wollte mit der ganzen Serie.

Als kurze Wiederholung: beim letzten Mal simulierte ich den IQ von 100 Millionen Personen und zeigte die Verteilung mit linearer und logarithmischer Ordinate. Ersteres verdeutlichte sehr gut, dass extrem wenige Menschen wirklich schlau sind weil man im Bereich ab einem IQ von 160 nix sieht bei linearer Ordinate. Letzteres zeigte, dass es da aber dennoch ein „Signal“ gibt.
Ich schloss beim letzten Mal dann ab, dass bei der Simulation noch kein Laplace dabei war (IQ = 190) und ich die Simulation deswegen nochmal durchfuehrte mit 8 Milliarden „Menschen“.

Hier ist das Ergebniss im relevanten Bereich (plus eine Standaradabweichung nach link):

Das was hier zu sehen ist, ist der gesamte rote Bereich, der beim letzten Mal in der linearen Darstellung (fast) nicht zu sehen war. Und obwohl das Maximum der Glockenkurve die Skala der Ordinatenachse gar nicht mehr „nach oben zieht“ so macht sich  der relevante Bereich ab einem IQ von 160 gerade so „bemerkbar“.
Weltweit sollten wir fast 72-tausend Kopernikuesse haben, ungefaehr 800 Keplers und sogar 4 Laplaces (oder 3 Laplaces und 1 Newton) … ich frage mich, wie viele davon gerade versuchen im laendlichen Indien oder China in ’nem Reisfeld ihr Abendbrot anzubauen … Einen Leibniz sehe ich immer noch nicht.

Nun muss ich etwas ausholen, um dann direkt zu meinem eigentlichen Argument ueber zu gehen.

Auch wenn ich meine, dass …

[…] so Aussagen wie „Wenn das Baby gestillt wird, dann erhøht das den IQ im Schnitt um drei Punkte“ […] albern und groszer Quatsch auf individuellem (!) Niveau [sind]

… so ist hierbei zu beachten, dass ich explizit „auf individuellem (!) Niveau“ schreibe. Auf gesamtgesellschaftlichem Niveau scheint das naemlich durchaus zu stimmen (Kapitel 9 ist eine Rundschau ueber mehrere Studien diesbezueglich). Und da scheint sogar ein Effekt uebrig zu bleiben, wenn man die offensichtlichsten Størfaktoren (bspw. die Intelligenz der Mutter oder das Einkommen der Familie) „herausrechnet“.

Es kønnte also unter Umstaenden extrem einfach sein, die Intelligenz der Gesamtbevølkerung positiv zu beeinflussen. Man kønnte bspw. Vaetern und Muettern nach der Geburt eines Kindes gesetzlich lohnarbeitsfreie Zeit zugestehen.
Der Einfachheit halber nehme ich mal, dass das Stillen den IQ im Durchschnitt um 5 Punkte erhøht. Anschaulich gesagt bedeutet dies ganz einfach, dass sich der Mittelwert der Normalverteilung um 5 Punkte nach rechts verschiebt. Das wiederum bedeutet dann, dass im relevanten Bereich der besonders schlauen Menschen, die hier blauen dargestellten Anteile  hinzu kommen:

Anstatt 4 Laplaces haben wir nun 33! Und endlich auch einen Leibniz (naja fast, die Verschiebung der Verteilung fuehrt zu einem Ereignis bei einem IQ von 202).

Und nun kønnte man ueberlegen, ob mglw. taegliches frisches Obst im Kindergarten und in der Schule auch einen +5 Punkte Effekt hat. Und Aha! Kindergarten! Das macht vielleicht auch nochmal +5 Punkte. Oder da war doch auch was mit Blei. Das kønnte man doch endlich mal aus dem Flugbenzin (zugegeben fuer kleine Flugzeuge mit Kolbenmotor) und der Umwelt an sich (gesetzlich) entfernen … kein Blei im Blut hat einen Effekt von 10 IQ Punkten!!! (Anmerkung: hach ist das schøn, wenn die Resultate øffentlicher Forschung ohne Umstaende auch der Øffentlichkeit zur Verfuegung stehen) … das ist uebrigens auch meine grøszte Sorge wenn Solarzellen sich immer weiter verbreiten, denn die enthalten ein paar Gramm Blei (Punkt 22.1) … andererseits arbeitet die Industrie wohl bereits daran dies deutlich (oder gar komplett) zu reduzieren … aber ich schweife ab.

Natuerlich kann man die Intelligenz auf diese Art und Weise nicht bis ins Unendliche erhøhen. Aber mich duenkt, dass +15 Punkte durchaus møglich sind ohne all zu exotische Masznahmen. Bspw. indem wir einen mitteleuropaeischen Lebensstandard ueberall verwirklichen … ohne dabei den Planeten kaputt zu machen, denn dann bringen +15 IQ Punkte auch nix mehr.
Ich habe da mal ein Diagramm vorbereitet:

Wait! What? Es gibt pløtzlich ueber 2 Millionen Kopernikuesse, ueber 70-tausend Keplers und fast 1000 Laplaces? … … … Ich sagte ja schon in einem frueheren Beitrag, dass sich das nichtlinear verhaelt … Aber Moment, das wird noch besser, denn im Leibniz-IQ Bereich (200 Punkte und mehr; ist in meinen Daten, aber auszerhalb des Diagramms) gibt es nun auch pløtzlich fast 100 Ereignisse! … … … Moment nochmal. Wenn wir fuer Leibniz ganze IQ-Bereiche nehmen, dann sollten wir das auch fuer die anderen machen.

 Kopernikuesse
154-168
Keplers
169-183
Laplaces
184-198
Leibnize
>199
normal1,424,89519,5191190
+5 Punkte4,804,335
x3 zu normal
90,695
(fast) x5 zu normal
686
(fast) x6 zu normal
1
To Infinity …
+15 punkte39,630,210
x28 zu normal
1,424,895
x73 zu normal
19,519
x164 (!) zu normal
119
… and Beyond!

O! M! F! F! G! … das ist ja wohl mal voll krass, was eine relativ saubere Umwelt und die Kapitalisten gesetzlich weitestgehend dazu zu zwingen die Menschen auch als solche zu behandeln (mitteleuropaeisches Niveau eben), doch fuer krasse Auswirkungen haette!

Bei so vielen wirklich schlauen Menschen die nicht als Kind an Durchfall verrecken oder als Jugendlicher zum „Verbrecherkønig“ werden, braeuchten wir uns ueberhaupt keine Sorgen um die Umwelt machen! Denn irgend einer von denen wuerde schon auf die Løsung kommen, wie man es schafft, dass beim Flugzeug anstatt Kohlendioxid warmer Bluemchenduft aus den Turbinen kommt. Und der Warpantrieb wuerde dann vielleicht auch nicht mehr lange auf sich warten lassen.

So! Und das ist der Grund, warum ich da vier Artikel drueber geschrieben habe!

DAS REGT MICH NAEMLICH SO SCHEISZVERDAMMT UND KACKNOCHMAL AUF, DASS WIR DAS NOCH NICHT LAENGST GETAN HABEN SONDERN LIEBER DIE OFFENSICHTLICH-DUMM-WIE-BROT-SCHEISZKAPITALISTEN WEITERMACHEN LASSEN WIE BISHER, NUR DAMIT DIE IHRE MACHT BEHALTEN KØNNEN!

Und das ist eigentlich das worauf ich bei meinen Einschueben zum Gebrauch gewisser Wørter in meiner Kevin Bacon Reihe hinaus wollte.

Ich nehme an, dass es klar ist was ich sagen will. Ich denke, dass das Argument an sich relativ einfach zu verstehen ist. Es „versteckt sich“ nur in ’ner relativ komplizierten Mathematik und kleinen Haeufigkeiten. Es hilft auch nicht, dass sich immer alle nur auf den Mittelwert konzentrieren, dass so getan wird als seien super schlaue Leute was ganz Besonderes deren Existenz nicht in unserer Hand liegt (sondern in der Hand eines „Gottes“) und dass das Thema Intelligenz so „vergiftet“ ist.

Aber nun habe ich das wenigstens alles mal angerissen und ihr, meine lieben Leserinnen und Leser, kønnt in Ruhe drueber nachdenken.

… dass moderater Alkoholkonsum gut fuer einen ist.

Die gute Nachricht (sollte frei zugaenglich sein) ist, dass sich nach mehreren Jahrzehnten, in denen selbst die WHO den moderaten Konsum von Alkohol empfohlen hat, wohl bei den Verantwortlichen endlich ankommt, dass dem nicht so ist. An anderer Stelle werde ich ein bisschen genauer darauf eingehen, dass dieser Mythos schon ein bisschen laenger etwas suspekt aussah.

Wieauchimmer, das „Mehr“ im Titel kommt daher, weil ich dazu in 2018 schonmal was schrieb. Ich stolperte jetzt aber ueber einen wirklich tollen und interessanten Artikel von Holmes, M. V. et al., mit dem Titel „Association between alcohol and cardiovascular disease: Mendelian randomisation analysis based on individual participant data“ (sollte auch frei sein) in BMJ, 2014; 349:g4164.
Das lohnt sich schon allein wg. des „et al.“ mal draufzuklicken, denn das geht ueber 2 Seiten (jaja, ist ja nix gegen Artikel in der Teilchenphysik). In dem Fall ist das wichtig, denn es zeigt indirekt, wie viele Daten weltweit fuer diese Studie gesammelt wurden.

Nun muss ich etwas weiter ausholen.
Das Problem mit vielen medizinischen Studien ist, dass man keine randomisierte, kontrollierte Studie durchfuehren kann. Ein Grund beim Alkohol ist ethischer Natur: man kann niemandem sagen bitte jeden Tag 4 Flaschen Bier zu trinken, um zu schauen wie stark das die Gesundheit in 20 Jahren beeintraechtigt. Es gibt viele andere Gruende, warum solche „Goldstandardstudien“ nicht durchfuehrbar sind. Man kann natuerlich Beobachtungsstudien durchfuehren, aber die daraus geschlossenen Ursache-Wirkung Beziehung stellen sich gerne mal aus falsch heraus — wie bspw. bei dem worueber dieser Beitrag handelt, aber es gibt etliche solcher Faelle.
Wenn man keine bessere Methode hat, ist das mglw. dennoch besser als gar nichts. Und der von mir bereits øfter erwaehnte Selbstkorrekturmechanismus der Wissenschaft sorgt dann schon dafuer, dass falsche Aussagen berichtigt werden sobald das møglich ist. Das Problem ist das „sobald das møglich ist“, denn das dauert unter Umstaenden eine Weile,  weil es meist viele und lange und teure Studien benøtigt … oder die Entwicklung einer neuen Methode, welche sich dann aber auch erstmal durchsetzen muss … oft genug ist Beides vonnøten und genau das ist in diesem Falle passiert … hier muss ich nun noch ein bisschen weiter ausholen und thematisch einen Sprung machen.

*Hops*

Ab ungefaehr der Mitte des vorvorigen Jahrzehnts wurde die Untersuchung der Gene des Menschen mehr und mehr zum Standard in der Medizin. Damit meine ich, dass ueber die Zeit und durch die Arbeit vieler Menschen, mehr und mehr spezfische Gene ganz konkreten kørperlichen „Erscheinungen“ zugeordnet werden konnten. Letzteres sind offensichtlich genetische Krankheiten aber auch so Sachen wie, dass die Mutation eines Gens die Verarbeitung von Alkohol modifiziert … darauf komme ich spaeter nochmal zurueck, denn ich muss noch ein bisschen weiter ausholen und thematisch nochmal springen.

*Hops*

Wenn Keinzellen entstehen, findet keine gewøhnliche Zelltelung mittels Mitose statt. Diese wuerde naemlich nur das genetische Material identisch (!) verdoppeln und dann die Zelle teilen. Keimzellen entstehen mittels Meiose  .oO(ich frage mich, warum ich die dtsch. Wikipedia ueberhaupt noch probiere. Die enttaeuscht mich doch eh nur … *seufz*). Bei der Meiose wird das genetische Material auch erstmal verdoppelt. In einem zweiten Schritt werden dann aber genetisch kompatible Abschnitte der muetterlichen und vaeterlichen Chromosomen miteinander vermischt. Das geht, denn jedes Chromosom tritt doppelt auf (einmal vom Vater und einmal von der Mutter). Und das ist der wichtige Schritt, auf den ich hinaus will, denn die Vermischung ist komplett zufaellig … oder anders: randomisiert. Am Ende wird die Zelle dann drei mal geteilt, sodass vier Zellen mit je der Haelfte des (zufaellig vermischten) genetischen Materials vorliegt (denn Keimzellen haben ja nur die Haelfte der Chromosomen).

Bezogen auf das Problem dieses Beitrags sei so viel gesagt: die Verarbeitung von Alkohol wird im Kørper durch Enzyme geregelt welche in den Genen kodiert sind. Eines dieser Gene heiszt ADH1B. Wenn nun an einer ganz bestimmten Stelle dieses Gens ein einziges (!) Nukleotidpaar vertauscht ist, erhaelt man die ADH1B rs122984 Variante. Diese sorgt dafuer, dass der Kørper Alkohol schneller in ein „unangenehmes Abfallprodukt“ abbaut, weswegen Menschen mit dieser Genvariante die negativen Folgen von Alkoholkonsum eher spueren. Dies fuehrt dann umgekehrt dazu, dass diese Leute im Durchschnitt weniger trinken. Das „im Durchschnitt“ ist wichtig, denn Alkoholkonsum ist massiv durch das soziale Habitat gepraegt und selbst Leute die Traeger dieser Mutation sind, trinken viel, wenn das so erwartet wird von der Gesellschaft … im Durchschnitt aber immer noch weniger als „normale“ Leute … und weil mir das zu umstaendlich zu schreiben ist, nenne ich Menschen die die mutierte Form des Gens besitzen einfach Mutanten.

Ebenso wichtig fuer diesen Beitrag ist, dass diese Mutation NICHT mit irgendwelchen positiven oder negativen Einfluessen auf das Herz in Verbindung steht. Ebenso ist es NICHT assoziiert mit anderen Effekten die gut fuer’s Herz sind (bspw. dass man gerne Sport treibt oder weniger zu Bluthochdruck neigt). Und ich „hacke“ so auf dem Herz herum … naja, der geneigte Leser møge sich nochmal den Titel des Artikels von Holmes et al. anschauen ;) .

Damit bin ich fertig mit dem weiter ausholen und kann sagen, dass sich die Methode der „Mendelschen Randomisierung“ die komplett zufaellige Verteilung von mutierten Genen (deren Einfluss bekannt und klar definiert ist) in der Gesellschaft  zunutze macht. Mendelsche Randomisierung ist eine Methode … (alle Zitate sind aus dem ganz am Anfang verlinkten Artikel, Hervorhebungen sind von mir) …

[…] in which genetic variation that could have no plausible association with typical confounding factors, […] can test the relationship between […] [a] causal factor and the outcome.

Wichtig: die Mutation  …

[…] is associated reliably with exposure to a putative causal factor […].

Oder anders:

The assumption is that the genotype itself has no direct effect on the outcome and no role in the outcome apart from a mediating effect via the causal factor. If the genetic variation turns out to be associated with the outcome, there is a reasonable presumption that this is through the putative cause.

Der Genotyp sind die Gene an sich, in dem Falle also mit der Mutation, waehrend der Phaenotyp die konkrete Ausformung (bspw. die Kørperform aber auch psychische und soziale Dinge) besagter Gene in der gegebenen Umwelt ist. Der Genotyp beeinflusst den Phaenotyp natuerlich massiv (mir werden nicht pløtzlich Fluegel wachsen), aber ist nicht allein entscheidend (es gibt durchaus alkoholkranke rs122984-Mutanten, nur mit geringerer Wahrscheinlichkeit).

Mendelsche Randomisierung ist nicht ohne Nachteile, aber wenn man nun Observationsstudien durchfuehrt UND die Gene der Teilnehmer untersucht UND eine Mutation hat, die mit der Fragestellung der Studie auf oben beschriebene Weise zusammen haengt, dann kønnen die schwerwiegenderen Nachteile besagter Observationsstudien ueberkommen werden:

[i]t is less susceptible to confounding, misclassification and reverse causation than prospective cohort studies […].

Der Grund liegt natuerlich darin, dass eine Randomisierung bei der Meiose der Keimzellen stattfand, aus welchen spaeter der Proband „gebaut“ wurde. Das wiederum fuehrt zu einem weiteren Vorteil dieser Methode: man sieht den Einfluss des untersuchten Effekts ueber das ganze Leben und nicht nur zum Untersuchungszeitpunkt.

Ich hoffe ich habe es geschafft, die Grundlagen der Methode, auf der die oben erwaehnte Studie von Holmes, et al. basiert, darzulegen. Nun ist dieser Beitrag aber jetzt schon so lang und deswegen habe ich entschieden diese Studie nicht hier, sondern in einem zukuenftigen Artikel naeher vorzustellen.

Ach ja, so viel sei doch noch gesagt. Das bemerkenswerte „et al.“ kommt dadurch zustande, dass Holmes und seine direkten Kollegen versucht haben wirklich _jede_ relevante Studie ausfindig zu machen. Das waren 56 insgesamt und die Einbeziehung so vieler Studien fuehrt natuerlich zu sehr vielen Koautoren.
Das ist aber auch sehr gut aus zwei Gruenden. Zum Einen ist die statistische Grundlage bei mehr als 250-tausend Probanden robust und das ist wichtig, denn die entscheidende Mutation tritt nur in 7 % aller Menschen auf. Zum Anderen sind die Studien aus mehreren Weltgegenden und damit fallen mehrere „kulturelle Størfaktoren“ weg. Letzteren kønnten (wuerden?) auftreten, wenn man bswp. nur Teilnehmer aus den USA haette. Diese Aussage unterliegt einer Einschraenkug: es handelt sich bei allen Teilnehmern um Individuuen mit europaeischer Abstammung. So gleich wir Menschen auch sind, so kann doch unser Genotyp (und dessen Mutationen) unterschiedlich genug sein, sodass es einen Unterschied fuer solche Studien machen kann.

Aber wie gesagt, mehr dazu ein andermal.

Im ersten Teil zitiere ich den Artikel von Whitmire, D. P. der (im Wesentlichen) argumentiert, dass alle Zivilisationen immer sich selbst und alles Leben in unmittelbarer Naehe um sich herum komplett ausløschen.

Whitmire wiederum zitiert Gott … dieser hat in Nature, Vol. 363, p. 315–319 (1993) einen Artikel mit dem Titel „Implications of the Copernican principle for our future prospects“ geschrieben (*hust*), welcher gut in diese Reihe passt. Die Resultate des Artikels kønnen wohl als „Doomsday Argument“ zusammengefasst werden. Ganz kurz dachte ich, dass Whitmire hier einen Witz eingeworfen hat … dann aber sah ich, dass das echt war. Dies wiederum erinnerte ich mich hieran und ich dachte dann: .o(war ja klar, dass Gott in diesem Feld arbeitet und das Doomsday Argument vertrtitt) … tihihihi.

Auch wenn ich einige Abschnitte mehrfach lesen musste um das Dargestellte wenigstens halbwegs zu verstehen, so ist dieser Artikel doch ganz hervorragend geschrieben und liest sich wirklich gut. Die Einfachheit und Klarheit der dargelegten Argumente ist ganz wunderbar.

Das kopernikanische Prinzip ist einfach nur, dass man bei Abhandensein anderer Fakten davon ausgehen muss, dass man ganz gewøhnlich ist. Das bedeutet, dass der Zeitpunkt zu dem ich die Menschheit beobachte normalverteilt ist waehrend der Zeit in welcher die Menscheit existiert. Nur damit (und mit ein bisschen Mathematik) kann man dann die wahrscheinliche Lebensdauer der Spezies Mensch berechnen.

Da ist zwar prinzipiell noch viel Luft, aber ja, irgendwann ist mal Schluss mit Menschheit.
Und wieder einmal wurde ich mit der logisch zwingenden Endlichkeit aller Dinge konfrontiert …
Und wieder einmal fragte ich mich, warum ich darob dessen was ich ueber die Gleichgueltigkeit des Universums weisz, noch kein Nihilist geworden bin? … Bestimmt, damit ich die Schønheit von solchen Artikeln und Argumenten auch weiterhin genieszen kann :) … oder weil ich dem Universum grundsaetzlich eher positiv eingestellt bin und „das Ende der Menschheit“ natuerlich auch bedeuten kønnte, dass sich die Spezies weiterentwickelt.

Und damit sei diese Serie dann auch abgeschlossen.

Endlich komme ich zur Normalverteilung und wie diese

[…] mit dem Fortschreiten der Menschheit in eine ganz wunderbare Zukunft zu tun hat.

Aber bevor ich weiterschreibe møchte ich darauf hinweisen, dass ich die Argumente ueber die ich hier schreibe von woanders (mehr oder weniger direkt aus dem dortigen Punkt 2) uebernommen habe. Natuerlich mit Modifikationen und ein paar anderen (auch weiterfuehrenden) Quellen. Ehre wem Ehre gebuehrt heiszt es ja so schøn, nicht wahr.

Ich erwaehnte letztes Mal, dass die Verteilung der Ergebnisse von Intelligenztests auf eine Normalverteilung projiziert wird mit einem Mittelwert von 100 und einer Standardabweichung von 15. Das ist also im Grenzfall unendlich vieler Menschen eine klar definierte Funktion.

Ich erwaehnte im ersten Beitrag dieser Serie, dass der Fortschritt der Menschheit (im Gegensatz zur Aufrechterhaltung des zugrundeliegenden Wohlstands!) von besonders schlauen Menschen abhaengig ist.
Da kønnte man annehmen, dass der Fortschritt schneller fortschreitet, wenn wir viel mehr wirklich schlaue Leute haben. Ob das gut oder schlecht ist, ist eine ganz andere Frage und soll hier nicht diskutiert werden … meine Meinung in ganz kurz: „JA, das ist gut, ABER …“.
Aber wie schlau ist denn eigentlich „wirklich schlau“?

Das Problem ist nun, dass spezifische, allgemein als wirklich schlau anerkannte, Individuen nicht unbedingt Intelligenztests gemacht haben. Dies gilt natuerlich insb. fuer historische Figuren, als es diese Tests noch nicht gab. Man kann das aber prinzipiell abschaetzen und hierbei kam mir ein Text zugute, auf den mich die „obskure Quelle“ vom letzten Mal aufmerksam machte. .oO(Da sieht man mal wieder, wie wichtig es ist, auch die Quellen seiner Quellen zu checken.)
Besagter Text ist: Anne Roe, The making of a scientist, Dodd, Mead & Company, 1953 … und ’ne Kopie zu finden war erstaunlich einfach und es wundert mich ueberhaupt nicht, dass es dort war (man beachte, dass das auf der selben Domain liegt, auf der obiger Artikel publiziert wurde, von dem ich die Argumente fuer diesen Beitrag hier klaute der mich zu diesem Beitrag inspirierte). Wieauchimmer, man wenn man in diesem Buch zur Tabelle auf Seite 155 (Seite 81 in der PDF-Datei) schaut, dann sieht man Abschaetzungen der IQ’s prominenter historischer Figuren.

An dieser Tabelle møchte ich besonders herausheben, dass die dort aufgefuehrten Personen ohne Zweifel als unheimlich wichtig fuer den Fortschritt der Menschheit, und damit unseren heutigen zugrundeliegenden Wohlstand, anerkannt sind.
Wenn man sich die IQ’s anschaut, dann sieht man, dass da keiner unter 160 liegt … und das ist der Wert, den ich nehme ich als Grundlage fuer die weitere Diskussion bzgl. der Anzahl „wirklich schlauer Leute“ nehme.

Wie viele sind das denn nun ganz konkret? Nun ja, ganz konkret kann das niemand sagen weil wir ja keine Messdaten haben. Und selbst wenn wir die haetten, so ist es schwierig IQ-Tests zu erstellen fuer Menschen mit besonders hohem IQ. Aber wenn wir davon ausgehen, dass die obige Definition bzgl. der Verteilung der IQ-Punkte richtig ist, dann kønnen wir das zumindest abschaetzen.
Ein Wert von 160 ist vier Standardabweichungen vom Mittelwert entfernt. Da die Funktion der Normalverteilung bekannt ist, muss man also nur das Integral von 160 bis Unendlich berechnen um den Anteil wirklich schlauer Menschen zu erhalten … super einfach wa … die Løsung des Integrals steht im Bronstein … oder auch bei der Wikipedia.

Dummerweise enthaelt die Stammfunktion die Fehlerfunktion. Diese hat einen spezifischen IQ-Wert als Argument und enthaelt dann ein weiteres Integral in welchem dieser Wert als obere Grenze des Integrals genommen wird. Immer noch erstmal easy-peasy, nicht wahr. Dummerweise ist dieses Integral (im Wesentlichen) die Fehlerfunktion selber … oder anders: die Fehlerfunktion kann nicht mittles elementaren Funktionen ausgedrueckt werden … Verdammt!

Das kann man aber (sehr genau) abschaetzen und gluecklicherweise haben andere Menschen das  schon mal fuer ein paar IQ-Werte getan. Ich verlasse mich darauf und sehe, dass nur eine von 31,574 Personen einen IQ hat, der vier Standardabweichungen ueber dem Mittelwert liegt. Man beachte, dass man den dort angegebenen Wert verdoppeln muss, denn ich bin ja nur an vier Standardabweichungen UEBER dem Mittelwert intessiert.

Das ist ’ne nette Zahl, aber auch nur ’ne Obergrenze. Leider kommt hinzu, dass die Wahrscheinlichkeit fuer noch schlauere Menschen nichtlineaer abnimmt. Einen Kopernikus oder Buffon kann ich prinzipiell in Stendal finden, aber nur _einen_, nicht Beide. Fuer Kepler oder Gay-Lussac braucht es schon ein Berlin (wieder nur fuer Einen der Beiden). Und fuer Newton oder Laplace muss man dann ganz China absuchen (dito) … Und Leibniz IQ wurde mit 205 abgeschaetzt … HA! War mir schon immer klar, das Newton ein intellektuelles Leichtgewicht war im Vergleich zu Leibniz!
Das muss jetzt fuer alle Werte dazwischen gemacht werden und schwupps hat man den Anteil wirklich schlauer Menschen … … … mich duenkt ich erwaehnte bereits die Schwierigkeiten das Integral der Normalverteilung selbst fuer konkrete IQ-Werte zu løsen … *seufz*.

Gluecklicherweise ist ein anderer Weg viel einfacher: ich kann das Ganze auch einfach simulieren! Die Simulation sieht dann so aus, dass ich zufaellig IQ-Werte aus einem „Beutel“ ziehe und dann schaue wie viele davon grøszer als 160 sind. In dem „Beutel“ sind die IQ-Werte normal verteilt. Ich ziehe da also den IQ-Wert 100 am haeufigsten heraus und nach „unendlich vielen“ Ziehungen habe ich ca. 31,574 mal mehr Werte die kleiner sind als 160.

In diesem Bild versuche ich die Problemstellung nochmals im Gesamten zu veranschaulichen.

Ich habe zwei Mal jeweils 100 Millionen „Ziehungen“ aus dem „IQ-Werte-Beutel“ gemacht. Beim ersten Mal habe ich die komplette Verteilung notiert (schwarze Kurve/Balken) und beim zweiten Mal nur wenn ein Wert grøszer oder gleich 145 war (rote Kurve/Balken). Warum ich schon aber einem IQ -Wert von 145 schaue wird beim naechsten Mal klar.
Im oberen Bild, mit einer linearen Ordinate, sieht man, dass die gesamte Verteilung (schwarze Kurve) die charakteristische Glockenkurve ergibt. Man sieht auch, dass man im IQ-Bereich der hier von Interesse ist (rote, ausgefuellte Kurve) nix sieht. Die Gruende schrieb ich oben nieder.
Stellt man das Ganze mit einer logarithmischen Ordinate dar, tritt die Information die im roten Bereich liegt viel besser hervor. Es zeigt sich ganz deutlich, warum man bei einer linearen Darstellung nichts sieht, denn die Anzahl der Ziehungen mit einem IQ von 160 betraegt nicht einmal 1000.

Ich habe hier mit Absicht zwei Simulationen gemacht, um zu zeigen, dass das statistisch zwar alles ganz klar ist, aber bei realen endlichen Ereignissen Schwankungen in dem Bereich durchaus relevant sind. 100 Millionen entspricht fast der Anzahl der Menschen in Dtschl. Bei der einen Simulation habe ich aber 10 Ereignisse mit einem IQ-Wert von 175 und bei der anderen 13. Ich denke, dass es doch einen gewaltigen Unterschied macht, ob man 13 Keplers hat oder nur 10. Was natuerlich weniger an dem Unterschied von 30 % liegt, sondern an der „Gewaltigkeit“ eines Keplers.
Bei nur 100 Millionen „Ziehungen“ war dann auch noch kein Laplace dabei.

Wieauchimmer, da hier noch kein Laplace dabei war, habe ich die Simulation nochmals durchgefuehrt fuer die gesamte Menschheit … 8 Milliarden Ereignisse insgesamt … aber weil der Artikel schon so lang ist, muesst ihr, meine lieben Leserinnen und Leser, darauf bis zum naechsten Mal warten.

Zu allem Gesagten kann man immer Gegenargumente bringen. Wenn die richtig sind, dann kønnen die zwei Folgen haben:
1.: eine Modifikation der Ergebnisse, wobei die urspruengliche Interpretation aber grundsaetzlich „ueberlebt“.
2.: eine Argumentation die darlegt, dass Schritte in der urspruenglichen Interpretation derart falsch sind, dass Letztere nicht haltbar ist.

Beides ist wichtig und Teil des wissenschaftlichen Diskurses und Fortschritts.

Den besten Einwand bzgl. der Ergebnisse von Sandberg, Drexler und Ord, habe ich hier gefunden.

Beim Artikel von SDO fand ich den (mglw. etwas provozierenden) Titel durchaus angebracht. Das ist beim verlinkten Einwand mitnichten der Fall. Ja, die dortigen Ergbnisse sind deutlich optmistischer bzgl. mehr als einer Zivilisation in unserer Galaxis. Aber auch diese Rechnungen kommen zu dem Schluss, dass es eine ueber 6-prozentige Wahrscheinlichkeit gibt, dass wir allein sind. Und 6 % ist (zumindest fuer mich als Physiker) ziemlich hoch.

Somit faellt der Einspruch unter Erstens, denn das urspruengliche Ergebniss …

[t]he Fermi observation […] provides only very weak evidence about whether we will soon go extinct or whether interstellar communication or travel is impossible

… bleibt im Grunde erhalten.

Der Vollstaendigkeit halber, und weil es das Richtige ist, wollte ich aber wenigstens mal erwaehnen, dass es Einwaende bzgl. der Argumente SDO’s gibt.

Es ist ja bekannt, dass die Intelligenz normalverteilt ist. Der Mittelwert liegt bei 100 und die Standardabweichung betraegt 15 Punkte.

Ach so, bevor ich fortfahre: wie (fast) immer laeszt die dtsch. Wikipedia sehr zu wuenschen uebrig. Deswegen ist so ziemlich alles was ich hier bespreche mehr oder weniger dem entsprechenden englischen Wikipediaartikel entnommen.

Bevor ich beim naechsten Mal dann endlich das bespreche, was ich eigentlich besprechen wollte, møchte ich hier ein paar wichtige Dinge anreiszen. Fuer eine volle Diskussion bin ich nicht qualifiziert.

Mir ist sehr bewusst, dass der IQ auf individuellem Niveau ein eher grobes „Messinstrument“ ist. Dennoch zeigt es gar nicht mal all zu schlecht in die richtige Richtung. Denn wenn man ehrlich ist, so erwartet man nicht, dass jemand mit einem IQ von 85 Professor fuer theoretische Physik wird, selbst wenn bei einem anderen Test ein IQ von 96 heraus kommt. Aber so Aussagen wie „Wenn das Baby gestillt wird, dann erhøht das den IQ im Schnitt um drei Punkte“ sind albern und groszer Quatsch auf individuellem (!) Niveau.

Eine andere Sache ist, dass es verschiedene Intelligenztests gibt. Das macht aber im Grunde nix, denn das Ergebnis jedes Intelligenztests, die Verteilung der (testabhaengigen) IQ-Werte, wird auf die oben erwaehnte Normalverteilung projiziert.
In der Praxis hat man also bspw. mehrere Fragen mit mehreren Antworten (von denen auch mehrere richtig sein kønnen). Jede richtige Antwort gibt einen Pluspunkt, jede falsche Antwort gibt einen Minuspunkt. Am Ende hat man eine Verteilung bei der die geringste Gesamtpunktzahl ich sag jetzt Mal 23 Punkte und die høchste Gesamtpunktzahl 69 Punkte sind. Das hat nun aber nix mit dem ganz oben erwaehnten „Mittelwert von 100, Standardabweichung von 15“ zu tun. An der Stelle kommt es dann zu besagter Projektion auf diese Normalverteilung.

Dann ist es so, dass zumindest frueher viele IQ-Tests zu viel kulturelles (Hintergrund)Wissen voraussetzten. Als (schlechtes) Beispiel kønnte ich mich selbst nehmen. Mein Vokabular englischer Vokabeln ist nicht grosz genug, um bei Wortassoziationsaufgaben gut abzuschneiden. Ich muesste da dann natuerlich dtsch. Wortassoziationsaufgaben vorgelegt bekommen, aber dies verdeutlicht den kulturellen Aspekt von Fragen eigtl. ganz gut denke ich.

Und letztlich ist da auch noch der Fakt, dass es verschiedene „Intelligenzen“ gibt. Man denke bspw. an sprachliche, mathematische oder soziale Intelligenz. Wenn man das genauer untersucht, gibt es Menschen die wirklich gut sind bei der einen Sache, aber normalverteilt bei den anderen. Das ist aber laenglich durchzufuehren und wuerde (so weit ich das verstanden habe) letztlich dennoch zu einer erhøhten Gesamtpunktzahl fuehren.

Auf gesellschaftlichem Niveau hingegen ist die IQ-Verteilung, also NICHT nur der Durchschnittswert (!), durchaus von Interesse. Und genau deswegen ist das Thema in der Wissenschaft leider „entzuendet“.
Aufgrund verschiedenster historischer Ursachen ist es naemlich so, dass bestimmte Gruppierungen von Menschen in Intelligenztests im Durchschnitt weniger Punkte erhalten, als die „weisze Ober- und Mittelschicht“.
DAS ist meiner Meinung nach ganz stark den schlechten Lebensumstaenden geschuldet. Zum Beispiel ist seit langem bekannt … *hust*, […]

[…] that there is a straight-line relationship between the amount of lead in the body and careful measures of disturbed behavior and learning problems.

Wer lebt nun in bleiverseuchten Umgebungen, in Windrichtung der Fabrikschornsteine? Richtig! NICHT die weisze Ober- und Mittelklasse. Natuerlich ist das nicht nur Blei sondern es gibt da ganz viele andere Sachen mit aehnlichen (oft noch nicht mal erforschten) Effekten. Und das beschraenkt sich nicht nur auf Chemikalien, sondern auch auf soziologische Aspekte wie schlechte Schulen oder dass man als Kind arbeiten gehen muss (zu Letzterem siehe auch (mal wieder) viele Seiten in Marx‘ Das Kapital).

Diese Luecke in den IQ-Werten, oder richtiger: dieser Unterschied in der Verteilung der IQ-Werte verschiedener gesellschaftlicher Gruppierungen, wird nun (natuerlich) von menschenverachtenden Spinnern genommen um zu sagen, dass bspw. nicht-weisze oder arme Menschen genetisch minderwertig seien.
Deswegen ist entsprechende grosz angelegte Forschung diesbezueglich verpønt und findet nicht statt. Anstatt das zu machen um die Ursachen fuer den IQ-Abstand besser zu verstehen und zu beseitigen.

Einschub: Forschung die letzten Jahrzehnte zeigt, dass besagter IQ-Abstand zwischen farbigen und weiszen Gemeinschaften in den USA stetig geringer wird. Das ist natuerlich auf die allgemein besseren Lebensumstaende (verglichen mit den 40’er, 50’er, 60’er Jahren) zurueck zu fuehren und entbløszt die menschenverachtenden Spinner als genau solche.

Achtung: das heiszt nicht, dass Intelligenz NICHT von den Genen abhaengt. Dem ist mit ziemlicher Sicherheit so. Hier Ich schrieb bzgl. der Ashkenazijuden etwas dazu und um uns herum sehen wir ja selber, dass schlaue Menschen oft auch schlaue Kinder haben. Aber das ist natuerlich nicht Alles, denn selbst wenn jemand keine schlauen Eltern hat, kann ein Individuum in der groszen Genverteilungslotterie gut abgeschnitten haben. Und Letztere sind ja u.A. worauf ich hinaus will mit dieser kleinen Serie.

Soweit zu den Sachen die mindestens kurz angesprochen werden muessen, wann immer man IQ-Verteilungen diskutieren will.

Wie ich nunmal bin, versuchte ich also Rohdaten von grosz angelegten Intelligenzverteilungsuntersuchungen zu finden. Ich dachte mir, dass es die doch geben muss. So sehr wie die linke Seite des politischen Spektrums eben solche verteufelt … bzw. so sehr wie die rechte Seite des politischen Spektrums versucht ihren menchenverachtenden Dreck damit zu rechtfertigen.

Aber da ist nuescht! Oder fast nix.

Es gibt alte Buecher, aus der Zeit als die ganze Forschung darum am Entstehen begriffen war. Und da findet man dann auch mal eine IQ-Verteilungen (Bild #2). Aber die Daten darin lassen sehr zu wuenschen uebrig. Zum Ersten, weil es nicht die Rohdaten an sich sind (die Kultur Messdaten zu teilen ist ja selbst heute nicht weit verbreitet … *seufz*). Zum Zweiten, weil alle oben erwaehnten Unzulaenglichkeiten des kulturellen Hintergrundwissens noch nicht bekannt waren und man versuchte die intrinsischen Fehler zu vermeiden. Und zum Dritten weil die Untersuchungen eher limitiert waren (es ist halt nur eine Studie pro Buch). Deswegen vermied ich solche alten Buecher.

Aus neuerer Zeit gibt es das OpenPsychometrics Projekt. Der Test und die Daten sind neuerer Natur und die Rohdaten sind verfuegbar und beinhalten mittlerweile ueber 3000 Teilnehmer (die Statistik waere also ganz gut). Aber auf der Testseite steht zu Recht:

WARNING: Every on-line IQ test is bad

… … … *seufz*.

Dann fand ich heraus, dass U.S. Bureau of Labor Statistics Querschnitssuntersuchungen macht. Und eine davon ist die National Longitudinal Survey Youth, 1979, mit ueber zehntausend Teilnehmern aus allen gesellschaftlichen Bereichen. Das ist zwar schon ein bisschen her, aber nicht all zu lange … und die Rohdaten sind verfuegbar … Hurra.
Es dauerte ein Weile, bis ich verstanden hatte, wie die Daten aufgebaut sind und wie deren Nutzergrenzschnitt zu bedienen ist … aber so ist das ja immer und was mache ich nicht alles, um an Rohdaten zu kommen.

Es stellte sich dann leider heraus, dass weniger als 1000 Leute IQ-Tests gemacht hatten … im Grunde genommen war das also auch nur eine Untersuchung … *seufz*.
Bei der (gleichen) Querschnitssuntersuchung aber im Jahre 1996 gab es dann gar keine IQ-Tests mehr … *doppelseufz* … das waere doch mal voll interessant gewesen.

Meine Suche fuehrte mich zu immer obskureren (wenn auch durchaus interessanten) Quellen (der Direklink funktioniert ohne, dass man da ein Profil haben muss). Aber auch dort wird nur auf ganz wenige, ziemlich alte und limitierte Untersuchungen (natuerlich ohne Rohdaten) verwiesen.

Das scheint also ein systemisches Problem zu sein, ich denke verursacht durch oben angesprochenes Tabu derartiger Forschung. Nach Stunden der erfolglosen Recherche sah ich ein, dass ich so nicht weiterkomme, um meine urspruengliche Aufgabenstellung zu bearbeiten.

Zum Glueck ist das nicht streng nøtig, da ja die Ergebnissse von Intelligenztests ohnehin auf eine klar definierte Verteilung projiziert werden. Das worauf ich eigentlich hinaus will, kann ich also auch mittels einer Simulation veranschaulichen. Aber dazu mehr beim naechsten Mal.

J. Michael Straczynski, der Schøpfer von Babylon 5, hat auch innerhalb der 9. Kunst gearbeitet. Seine eigene abgeschlossene Serie (24 Ausgaben + ein paar Specials) ist diese hier:

Hintergrund: ein kosmisches Ereigniss tritt ueber einer Kleinstadt auf und alle an diesem Tag empfangenen Kinder erhalten Superkraefte. Manche mehr, manche weniger, manche anscheinend gar nicht. Die Regierung hat da natuerlich erstmal den Deckel drauf.
Und dann geht es darum, was passiert, wenn die Kinder erwachsen werden.

Alles in Allem eigentlich Nix was man ganz super unbedingt gelesen haben muss. Aber ich kaufte Anfang der 2000’er den ersten Sammelband (damals noch auf dtsch.) und es war eigentlich ganz spannend. Aber dann hatte ich kein Geld, keine Zeit und andere Sachen zu tun (das liebe Leben und die Physik, wie das eben so ist) und habe die Serie aus den Augen verloren.

Vor ca. 2 Jahren støberte ich nach langer Zeit mal wieder in meiner Comicsammlung … weil ich neue Kisten gekauft hatte … und erinnerte mich dann, dass da ja noch was fehlte. Ich versuchte daraufhin die Serie zu vervollstaendigen, diese war aber in keiner Version mehr lieferbar.
Im Sommer 2021 stolperte ich in einem Comicladen in Stockholm ganz zufaellig ueber dieses Kompendium. Da wurde ich dann pløtzlich ganz aufgeregt und es war natuerlich klar, dass ich das sofort kaufte.

Kurios ist, dass da „Volume 1“ drauf steht. Es gibt naemlich keinen 2 Band und dieser Erste beinhaltet tatsaechlich alles was zu dieser Geschichte erzaehlt wurde. Aber diese Kuriositat verwirrte mich zunaechst.

Das hier ist der letzte Eintrag in dieser Reihe, da dies der letzte der „Complete Peanuts“-Schuber ist.

Ich habe eigentlich bereits alles was ich sagen wollte in vorherigen Beitraegen gesagt.

Den Allerersten Schuber kaufte ich „in der Wueste“ auf meiner ersten Amerikareise und las den als ich noch nicht mal mit meinem Diplom ganz fertig war, und der junge Mann der bei mir wohnt noch nicht mal angedacht war.

Diese hier gezeigten letzten Baende kaufte ich „am Nordpol“ (wohin ich ausgewandert bin) und las den mit zwei abgeschlossenen Doktorgraden und besagtem jungen Mann als ein ganz wunderbar geratener Teenager, der mglw. selber in 4 Jahren anfaengt zu studieren.

Konstanten im reiszenden Strom der Zeit sind unheimlich wichtig und helfen den Menschen sich zurecht zu finden. Die Peanuts waren fuer sehr sehr viele Menschen, ueber ein halbes Jahrhundert, Tag fuer Tag eine solche Konstante. Und trotz der schwankenden Relevanz des konkreten Inhalts (aber immer auf ziemlich hohem Niveau), verdienen sie allein schon deswegen den Platz den sie im kulturellen Unterbewsusstsein und Kanon haben.

Deswegen møchte ich zum Schluss sagen: Danke Sparky, von ganzem Herzen!