Archive for Februar, 2023

Zur Erinnerung: hier zog ich als Analogon zu den Selbstreferenzen die Geschwindigkeitsverteilung von Gasteilchen in einer heiszen Box heran … und diskutierte dort inwieweit das zulaessig bzw. auch vøllig unzulaessig ist. Dieses Analogon werde ich auch heute benutzen.

Bei einer Simulation bzgl. der Entwicklung eines Systems braucht man zunaechst einen Anfangszustand. Der Anfangszustand bzgl. der Selbstreferenzen ist natuerlich LL0 … aber da gibt es keine Selbstreferenzen (von Artefakten abgesehen) und das entspricht einem klassischen (definitiv nicht quantenmechanischem!) Gas mit einer absoluten Temperatur von 0 K. Null Kelvin ist schwerlich als heisz zu bezeichnen … tihihi.

Wie sieht’s denn mit LL1 als Ausgangszustand aus? Das ist zwar besser, aber wir wissen, dass es sich bei der Verteilung auch um eine Ausnahme handelt, ist diese doch selbst mit Augen zudruecken nicht linear (bei doppellogarithmischer Darstellung). Im Analogon kønnte man sich vorstellen, dass bei LL1 die Heizplatte noch angestellt ist und definitiv noch kein Equilibrium im Gas erreicht wurde. Gleichgewicht mit dem „Aeuszeren“ sowieso nicht, denn das ist ja der Entwickluingsprozess (am Gasbild: das Abkuehlen) den ich simulieren will.

Dann also LL2 … jup … das geht gut genug linear, im Bild des heiszen Gases ist die Heizplatte also ausgeschaltet. Aber … mhmmmm … da ist ein kleiner Knick in der Kurve … ach dann beschreibe ich das abschnittsweise linear, eine Funktion fuer Werte zwischen 2 und 20 und eine andere fuer alles darueber … da kønnte man sich denken, dass die Heizplatte noch ein ganz klein bisschen Restwaerme hatte und der Knick durch die paar wenigen Gasteilchen zustande kommt die sich nochmal schnell „aufgewaermt“ (also Energie erhalten) haben und die daraus resultierende høhere Geschwindigkeit noch nicht durch Støsze mit den restlichen Teilchen abgegeben haben. Aber wie gesagt ist der Vergleich von Gasteilchengeschwindigkeiten und Selbstreferenzen physikalisch (und mathematisch) gesehen vølliger Quatsch. Aber ein Analogon dient ja zur Illustration eines weniger leicht fassbaren Sachverhalts mit einer bekannten Sache. Und all das hier schreibe ich um zu illustrieren, dass es auch in anderen Systemen Sachen gibt die nicht in das ideale Bild passen, man dafuer aber immer Gruende finden kann.

Wenn man das so mit den Regressionsgeraden macht, dann liegen mir die Werte fuer keine und eine Selbstreferenz(en) etwas weit abseits der ersten Geraden. Da nehme ich dann lieber die experimentell ermittelten Werte bzgl. dessen wie wahrscheinlich das ist, keine oder eine Selbstreferenz(en) zu haben. Zum Zweiten sind die Verteilungen auf LL2 und LL3 ja beinahe deckungsgleich. Deswegen wird LL3 fuer die Simulation der Entwicklung des Systems als Ausgangszustand angesehen.

Wieauchimmer, wenn man das alles so macht und dann die Anzahl der Selbstreferenzen 6 Millionen mal simuliert (jedes „Gasteilchen“ muss separat simuliert werden),  dann ist der simulierte Ausgangszustand eine (fuer die hiesigen Zwecke) hinreichend gute Naeherung. Dies und (fast) alles was ich Oben schrieb ist in diesem Diagramm nochmals zu sehen:

Eine Sache faellt auf: der lange „Schwanz“ der blauen Verteilung wird nicht durch die (zweite oder erste) Regressionslinie beschrieben. Das kann man fixen, ich habe das aber der Einfachheit halber nicht gemacht. Deswegen der „Abbruch“ in den roten Punkten bei 3000 Selbstreferenzen … mal schauen, wie sich das im weiteren Verhaelt.

So, das war’s … … … aber ich møchte an dieser Stelle ein bisschen darauf eingehen, wie ich von der gemessenen Verteilung der Selbstreferenzen auf LL1 zur Simulation derselbigen komme (abgesehen von dem bereits Gesagten).

Zunaechst einemal gilt natuerlich, dass diese Verteilung eine Wahrscheinlichkeitsverteilung ist … wenn man diese durch die Anzahl aller Seiten dividiert. Beim IQ ist das mit einer Normalverteilung leichter vorstellbar (Letzteres gilt auch fuer die Maxwell-Boltzmann-Verteilung der Geschwindigkeit von Gasteilchen). Aber die zugrundeliegende Mathematik ist die gleiche: wenn ich zufaellig eine Seite (Teilchen) aus dem Ensemble heraus nehme, so hat diese(s) eine bestimmte Wahrscheinlichkeit eine bestimmte Menge an Selbstreferenzen (Geschwindigkeit) zu haben. Die mathematische Funktion p in Abhaengigkeit von der Anzahl der Selbstreferenzen x der hiesigen Wahrscheinlichkeitsverteilung sieht so aus:

Wie oben geschrieben: explizit definierte Wahrschienlichkeiten fuer keine und eine Selbstreferenz(en) und zwei (bei doppellogarithmischer Darstellung lineare) Funktionen darueber hinaus.

Soweit ist das noch ganz einfach. Nun kommt aber der Haken an der Sache. Fuer eine zu simulierende Seite muss ich die Anzahl der Selbstreferenzen, also das x (!), berechen, habe aber nur p(x). Letzteres ist im Einzelfall nur sinnvoll wenn man x schon hat, aber die Gesamtheit aller Einzelfaelle muss p(x) ergeben. Aber wenn ich die erste Seite simuliere dann weisz ich ja noch nicht, wieviele Selbstreferenzen alle anderen Seiten haben.
Ich gebe zu, dass ich beschaemend lange brauchte um auf die Løsung zu kommen, aber letztlich ist’s ganz einfach. Doch dafuer muss ich ein bisschen ausholen.

Wenn ich eine Seite simuliere (und ich mache das 6 Millionen mal), dann ziehe ich eine zufaellige Zahl zwischen Null und Eins. Die Abschnitte auf dieser Zahlengerade von Null bis Eins entsprechen dann der Summe der Wahrscheinlichkeiten bis zu einer gegebener Anzahl an Selbstreferenzen. Also 0 bis 0.4561 wird null Selbstreferenzen zugeordnet, 0.4561 bis 0.6458 (= 0.4561 + 0.1897) einer Selbstreferenz und danch muss das entsprechend berechnet werden und die Abschnitte werden sehr schnell sehr klein.
Mathematisch ausgedrueckt entspricht diese zufaellige Zahl dem bestimmten (!) Integral unter obiger Kurve von Null bis zu einer gegebenen Anzahl an Selbstreferenzen. Anders als sonst ueblich bin ich also nicht an dem Wert des Integrals interessiert (denn das ist der Wert aus der zufaelligen Ziehung und somit bekannt), sondern am oberen Limit.
Fuer null und eins kann man sich einfach den Zufallswert anschauen und das sofort rausbekommen. Fuer alle anderen muss das berechnet werden und dabei ist zu beachten dass das Integral dann natuerlich erst bei der richtigen unteren Grenze (also 1 oder 20) los geht (um die vorhergehende Bemerkung einzubeziehen).
Ist das schøn, dass wir es so oft mit maechtigen Gesetzen zu tun haben! *froi*. Da ist das Integral einfach zu berechnen und leicht nach x umzustellen und somit kann jedem gezogenen Zufallswert eine Selbstreferenz zugeordnet werden.

Dabei sind zwei Sachen zu beachten. Zum ersten muss der Zufallswert korrigiert werden. Der Grund liegt in dem was ich oben schrieb: dieser Wert ist die SUMME aller Wahrscheinlichkeiten (bis zu der dem Zufallswert zuzuordnenden Anzahl an Selbstreferenzen). Das (bestimmte) Integral geht aber erst bei den gegebenen Grenzen los, faengt also bei Null zu „zaehlen“ an. Das ist aber ganz einfach, denn vom besagten Zufallswert muss nur die Summe der Wahrscheinlichkeiten bis zu dem Wert ab der die jeweilige Funktion gueltig ist (also bis 1 bzw. bis 20) abgezogen werden.
Zum Zweiten kommen da natuerlich krumme Zahlen raus und die muessen auf die naechste ganze Zahl gerundet werden. Werte die kleiner als 1.5 sind werden zu eins abgerundet. Das ist aber doof, denn Seiten die nur eine Selbstreferenz haben sind ja durch die Fallunterscheidung alle schon erledigt. Der Einfachheit halber habe ich solche simulierten Seiten dann nur rausgeschmissen. Dadurch fehlen ca. eine halbe Million Seiten … das kann man sicherlich fixen, ich hatte aber keine Lust mehr und schmeisz das einfach in den beruehmten „ca.-10-Prozen-Fehler“.

Mit dem letzten und diesem Mal kommen da ein paar krasse Vereinfachungen zusammen. Beim naechsten Mal zeige ich, wie weit man damit dennoch kommt.

Es geht weiterhin um die Daten in der bekannten Tabelle. In den letzten drei Artikeln habe ich mit den folgenden Begriffen „um mich geworfen“ und erklaert was diese bedeuten: Crude Rate, altersspezifische Rate, kumulative Rate und kumulatives Risiko. Zum grøszten Teil kønnen die zugehørigen Zahlen direkt aus der Tabelle abgelesen werden. Dort ist dies aber jeweils immer nur fuer gegebene Altersintervalle møglich und man sieht nur die Zahlen. Desweiteren sind die Zahlen dort eher fuer ganzheitliche Aspekte (bspw. gesundheitspolitische) „aufbereitet“. Ich persønliche will besagte Zahlen aber unter einem anderen Blickwinkel sehen — dem des maennlichen, in Norwegen wohnenden Individuums im 43 Lebensjahr, welches versucht eine „Gefahr“ abzuschaetzen. Ohne weitere Vorrede, zeige ich deswegen heute ein Diagramm in dem alle relevanten Grøszen vorkommen und bespreche das, damit die vorangegangene Theorie etwas handfester wird:

Alle Datenpunkte beinhalten ALLE Krebsfaelle und sind altergruppenspezifisch. Ersteres bedeutet, dass fuer diese Daten nur die Diagnose „Krebs“ wichtig war, nicht aber welche spezifische Krebsart (das kommt spaeter). Letzteres bedeutet, die sind NUR gueltig fuer die die gegebene Altergruppe. Das ist wichtig fuer mich ganz persønlich (siehe oben) oder fuer Aerzte um abzuschaetzen ab wann Vorsorgeuntersuchungen gemacht werden sollten.
Altersgruppen gehen ueber jeweils fuenf Jahre (mit Ausnahme der allerletzten, die alle Maenner ueber 85 Jahren zusammenfasst) und die Striche an der Abszisse geben die Altersgrenzen an.
Ebenso sind die Zahlen NUR fuer Maenner in Norwegen und die Verbindungslinien zwischen den Punkten sind nur zur besseren Visualisierung der Kurvenverlaeufe (vulgo: um das Auge zu leiten); es gibt natuerlich keine Daten dazwischen.
Die linke Ordinate ist (pro Altersgruppe) fuer die Anzahl der Krebsfaelle (schwarze Kurve) und das jaehrliche Risiko (Crude Rate, rote Kurve). Die rechte Ordinate ist (wieder pro Altersgruppe) fuer das korrigierte (blaue Kurve) und unkorrigierte (lila Kurve) kumulative Risiko.

Zunaechst zur Anzahl der Krebsfaelle. Am Anfang passiert nicht viel und damit man ueberhaupt den Anstieg in den ersten vierzig Jahren sieht, ist die linke Ordinate logarithmisch. Im Wesentlichen zeigt die schwarze Kurve einen linearen Anstieg. Bei logarithmischer Achse bedeutet das, dass das Krebsrisiko mit jedem Lebensjahr exponentiell zu nimmt. Das erklaert auch, warum ich beim letzten Mal meinte, dass die exponentielle Abnahme der Anzahl der zu betrachtetenden Menschen zur Berechnunge des wahre(re)n kumulativen Risikos durchaus plausibel ist.
Das jaehrliche Risiko berechnet sich aus diesen Zahlen und hat (von Ausnahmen abgesehen, siehe weiter unten) dementsprechend den gleichen Verlauf.

Aber Moment mal, hier sagte ich doch, dass die Sterberaten erst ab 30 Jahren exponentiell zunehmen. Das ist leicht zu erklaeren, denn wenn man den Grafen dort anschaut, dann fallen viel viel mehr junge Maenner anderen Sachen zum Opfer als Krebs. Dieser traegt erst ab ca. 30 Jahren signifikant(er) zum Signal bei.

Mit ueber 75 Jahren nimmt die Anzahl der Krebsfaelle wieder ab, aber die Crude Rate (rote Kurve) nimmt weiterhin zu. Dies ist natuerlich dadurch zu erklaeren, dass bei Letzterer die Anzahl der Faelle durch die Anzahl aller Maenner in der Altergruppe geteilt wird. Und der Nenner dieses Bruchs wird schneller kleiner (weil halt wenige Maenner so alt werden) als der Zaehler. Das ist genau der Grund, warum ich an der (altersspezifische) Crude Rate mehr interessiert bin als an der Anzahl der Krebsfaelle; ich will naemlich (wieder) so alt werden.
Es ist zu beachten, dass bei dieser Betrachtungsweise die Crude Rate auch die altersspezifische Rate ist. Das liegt natuerlich daran, dass innerhalb einer Altersgruppe keine anderen Altersgruppen vorkommen und dadurch keine juengeren (oder aelteren) Maenner mit in Betracht gezogen werden muessen. Ach so, die auf die Weltbevølkerung berechnte altersspezifische Rate interessiert mich natuerlich nicht. Ich wohne nunmal in Norwegen.

Das unkorrigierte (!) Risiko fuer eine Altersgruppe ist die jaehrliche Rate mal fuenf. Die lila Kurve hat also den selben (!) Verlauf wie die rote Kurve (nur mit grøszeren Werten). Das sieht man hier aber nicht, weil die rechte Abzsisse eine lineare Ordinate hat (dafuer sieht man aber, was ich oben mit „am Anfang passiert nicht viel“ meinte).
Wenn man das korrigiert bezueglich der Maenner die in der gegebenen Altersgruppe sterben (und damit keinem Risiko mehr ausgesetzt sind), erhaelt man die blaue Kurve. Wie beim letzten mal erwaehnt, sind die Unterschiede nicht bedeutend und machen sich erst bei ueber 70 Jahren ueberhaupt bemerkbar.

Die gute Nachricht fuer heute: mein jaehrliches Risiko (Crude Rate) ueberhaupt irgend einen Krebs zu bekommen betraegt z.Z. nur 0.138 % und ist selbst in hohem Alter nur ca. 5 %. Ich sagte ja, dass eine der wichtigen Erkentnisse war, dass ich mir darueber eigentlich gar keinen Kopf zerbrechen muss.

Genug fuer heute, denn ich wollte doch versuchen, diese Artikel „schlank“ zu halten. Beim naechsten Mal gehe ich kurz auf das kumulative Risiko ab Geburt ein.

Erst beim Katalogisieren und erneuten Durchlesen meiner Comics ist mir aufgefallen, in was fuer einer tollen Zeit ich diesbezueglich meine Teenagerjahre verbrachte. Bis vor Kurzem dachte ich, dass zumindest die bekannten Comics wie Superman und Batman irgendwie wohl mehr oder weniger regelmaeszig in jedem Land erscheinen und zumindest in Dtschl. auch schon immer erschienen sind. Dem ist aber mitnichten so. Regelmaeszig erscheint bspw. Superman nur in den USA; in anderen Laendern werden im Wesentlichen nur erfolgreiche laengere Geschichten in Sammelbaenden publiziert. In Dtschl. gab es ueber die Jahrzehnte hier und da mehrere Versuche eine regelmaeszige Serie zu etablieren, aber das waren immer nur kurzlebige „Abenteuer“. Erst der Dino Verlag schaffte es ca. Mitte der 90’er (zumindest fuer ein paar Jahre).

Der Erfolg lag zum Einen an (nicht nur) den Zeichentrickserien der entsprechenden Charaktere, welche zu dem Zeitpunkt sehr erfolgreich waren. Meiner Meinung nach lag es zu einen groszen Teil auch daran, weil die (Dino) Comics von Leuten gemacht wurden, welche selber Comics gelesen und „ernst“ genommen haben. Das fuehrte zu einer hohen Qualitaet (gekennzeichnet bspw. durch gute Uebersetzungen oder dem Abdrucken aller Cover) und einem verdammt guten Preis (zwei US Ausgaben in einer dtsch. Ausgabe).
Durch den Erfolg wurden dann auch relativ schnell andere Superheldenserien durch den Dino Verlag in Dtschl. nachgedruckt … und mittendrin war dann ich, der sich urst darueber freute.

Aber heute geht es mir nur um Superman von dem es in den 90’ern fuenf parallel laufende Serien gab. Dabei handelte es sich um Action Comics, Superman, The Adventures of Superman, Superman: The Man of Steel und Superman: The Man of Tomorrow. Laengere Story arcs (dieser Begriff scheint mir nur schwerfaellig ins dtsch. uebertragbar, weswegen ich bei dem englischen Ausdruck bleibe) und die Entwicklung des „Hintergrunduniversums“ verteilte sich ueber alle fuenf Serien. Der Dino Verlag konnte unmøglich alles davon verøffentlichen es erschienen in Dtschl. aber ca. 40 US-Hefte pro Jahr (in der regulaeren (dtsch.) Superman-Serie und dem vierteljaehrlichen (dtsch.) Superman Special, welches 4 US-Hefte enthielt).
Im Nachhinein betrachtet kann ich nur sagen: what a time to be alive! Heute bin ich mglw. noch mehr froh, dass ich das so erleben konnte als damals als ich mittendrin war. War dies doch eine Zeit die mich sehr gepraegt hat (ich sammle schlieszlich bis heute Comics).

Wieauchimmer, ich møchte gerne Cover zeigen und verknuepfe das mit mehr „Opa-erzaehlt-aus-seiner-Jugend“. Ein typisches Covermotiv ist so, wie man sich das (durchaus berechtigt) vorstellt: Superman in heroischer Pose (gerne mit dramatischem Titel):

Wenn ich dieses Bild auf mich wirken lasse, dann wundert es mich ueberhaupt nicht, dass mich das als junger Mensch „magisch angezogen“ hat.

Bei den US-Ausgaben gibt es eine zweite Art von Motiv — eine Actionszene:

Ich finde die eigtl. ziemlich cool, aber zumindest in meiner Sammlung habe ich den Eindruck, dass diese viel seltener das Cover dtsch. Ausgaben zierten. Ich denke dass es auch daran liegt, weil solche Cover nicht ganz so viel „magische Anziehungskraft“ haben und in ihrer Gesamtheit mglw. etwas obskur sind fuer den allgemeinen dtsch. Leser, der jeden Monat auf’s neue am Kiosk stehend ueberzeugt werden musste das neueste Heft zu kaufen.

Auf dem Cover sieht man uebrigens eine Sache die praegend fuer diese Zeit war: Superman hat lange Haare. Ich fand (und finde) das immer cooler als den klassische Kurzhaarschnitt. Das war aber eher so’n Hintergrunduniversumdingen und weil diese Beitraege etwas kuerzer werden sollen, belasse ich es fuer heute dabei … aber Superman will return :)

Weil zu viel abzuhandeln ist, knuepfe ich ohne viel Aufhebens direkt an das beim letzten Mal Besprochene an:

Pro Datensatz gilt das Folgende. Zunaechst wurde auf der Abzsisse abgetragen, wie viele Selbstreferenzen eine Seite auf einem gegebenen Linklevel i hat. Dann wurde fuer die selbe Seite geschaut, wieviele Selbstreferenzen diese auf dem naechsten Linklevel i + 1 hat. Dieser Wert wurde hier nicht abgetragen. Vielmehr bildete ich den Mittelwert der Selbstreferenzen auf Linklevel i + 1 fuer fuer _alle_ Seiten  die genausoviele Selbstrefenzen auf Linklevel i aufweisen wie die oben einzeln betrachtete Seite. Dieser Mittelwert ist auf der Ordinate abgetragen und ich diskutierte das beim letzten Mal genauer.

Dabei ist zu beachten, dass Seiten die auf einem Linklevel _keine_ Selbstreferenzen haben, NICHT weiter betrachtet wurden; ich behandle solche Seiten also als ob die bei diesem Linklevel „ausgestiegen“ sind. Dies gilt auch dann, wenn eine solche Seite auf einem høheren Linklevel wieder Selbstreferenzen aufweist. Eine eventuelle „Reaktivierung“ wird als irrelevant angenommen; empirisch ist das durchaus berechtigt, da es meist doch nur eine Selbstreferenz auf hohen Linkleveln gibt. Im Wesentlichen sieht man in diesem Diagrammen also nur Seiten, welche durchgehende „Ketten“ von Selbstreferenzen aufweisen.
In einem spaeteren Beitrag schau ich mir mal an, wie sich diese „Ausstiege“ und eventuelle „Reaktivierungen“ verhalten.

Damit hab ich gleich abgehandelt, warum im Wesentlichen ab LL22 nix mehr zu sehen ist (und so weit geh ich auch nur deswegen, damit das konsistent mit dem hier Gezeigten ist). Es gibt nur wenige Seiten, die so lange durchgehende Ketten von Selbstreferenzen aufweisen.
Dennoch ist zu sehen, dass der beim letzten Mal erkannte Zusammenhang bzgl. der Anzahl der Selbstreferenzen offensichtlich fuer mehr als nur einen Linklevelschritt gilt. Und abgesehen von LL1 zu LL2 (die roten Punkte im ersten Diagramm); scheint dieser bei doppellogarithmischer Darstellung linear zu sein (was auch bereits beim letzten Mal zu sehen war).

Desweiteren sieht es so aus, als ob die Anstiege dieser Kurven (auch wenn es diskrete Punkte sind nennt man das so … denke ich) immer ungefaehr gleich sind … mhmm … wenn ich hier Pi mal Daumen schaue, dann scheint es so zu sein, dass ich von einem Linklevel zum naechsten so ganz grob ungefaehr 50 mal weniger Selbstreferenzen habe … interessant … das muss ich mal genauer auswerten.

Damit die lineare Regression schick aussieht, entfernte ich hierfuer an den Enden Punkte, behielt aber alle anderen Ausreiszer drin. Diesmal geh ich einen anderen Weg und mache zunaechst eine lineare Regression um dann alle Punkte zu entfernen, die mehr als einen festgelegten maximalen Wert von der Regressionsgeraden entfernt liegen (in Richtung der Ordinate). Den Prozess wiederhole ich so lange, bis keine Punkte mehr entfernt werden muessen.

Das Ergebnisse bzgl. des Anstiegs und absoluten Glieds der Regressionsgeraden ist hier zu sehen (auszer fuer den Schritt von LL1 zu LL2) und …

… øhm … ich sag jetzt mal mehrdeutig.

Ich habe da zwar Regressionsgeraden rein gelegt, aber wichtige Punkte fallen mit dieser Geraden ueberhaupt nicht zusammen. Wichtige Punkte sind die bis ungefaehr LL6 / LL7, wo die Ausgangsdaten noch gut genug sind. Deswegen wuerde ich sagen, dass eine lineare Regression der Parameter der linearen Regressionen ueber die Datensaetze der obigen Diagramme die falsche Herangehensweise ist.
Nun kønnte ich da natuerlich eine Funktion durchpacken, welche diese Daten am Besten anpasst. Die Wahl einer Funktion sollte einen Zusammenhang mit einem plausiblen Mechanismus haben. Lineare, Potenz- und Exponentialfunktionen werden dafuer gern genommen. Dies weil sich so viel im Universum danach verhaelt und es meist durchaus plausibel ist erstmal anzunehmen, dass ein neues System sich auch danach verhaelt. Aber bei den Fehlerbalken kønnte ich irgendwas nehmen und das kønnte stimmen oder nicht.

Deswegen mache ich im Weiteren das, was man in solchen Faellen, wo man nicht weiter weisz, oft macht: ich versuche das (zukuenftige) Modell so einfach wie møglich zu halten. Das bedeutet dass ich einfach sage, dass sich alle obigen Kurven mittels linearer Gleichungen mit gleich bleibenden Regressionsparametern (gut genug) beschreiben lassen.
Den Anstieg setze ich dabei (nicht ganz so willkuerlich) fest auf 0.9. Dieser Wert ist im Wesentlichen nur aus den ersten sieben Punkten gewonnen (wo die Datenlage noch gut ist). Es ist ein Kompromiss der versucht einzubeziehen, dass der Anstieg zunaechst grøszer oder nahe eins ist, aber ja doch auch spaetere Daten erklaeren muss.
Fuer den Wert des absoluten Glieds habe ich den Mittelwert aller Punkte genommen (ca. -0.1469). Das fuehlt sich genauso richtig an wie irgend einen anderen Wert, beschreibt aber den Anfang wieder besser als andere Werte.

Somit weisz ich, wie sich das System von einem zum naechsten Linklevel entwickelt. Der Rest sollte nur vom Ausgangszustand abhaengig sein. Damit sollte ich beim naechsten Mal zur eigentlichen Simulation kommen kønnen und kann dann hoffentlich die erfolgreiche Berechnung der Verteilung der Selbstreferenzen pro Linklevel zeigen, wenn man nur die Verteilung dieser Grøsze im Anfangszustand kennt :)

Die letzte Spalte in der bekannten Tabelle ist das kumulierte Risiko. Gleich zu Anfang ein Achtung: Das ist in Prozent und NICHT per 100.000 (Einwohner).

Intuitiv ist das einfach zu verstehen: diese Zahl ist die Wahrscheinlichkeit innerhalb einer gewaehlten Zeitspanne an (einem gegebenen) Krebs zu erkranken. In Wahrheit ist’s aber nicht ganz so einfach und ich muss etwas ausholen.
Zunaechst ist wichtig, was ich zur Crude Rate sagte:

[…] die Crude Rate ist die _jaehrliche_ Chance an (einem gegebenen Krebs) zu erkranken, wenn man sich in einer gegebenen Altersgruppe befindet.

Eine Altersgruppe geht ueber fuenf Jahre und somit kommt man fuer jede Altergruppe zur kumulativen Rate (Achtung: Rate ist NICHT Risiko!) indem man die Crude Rate einfach mit fuenf multipliziert. Geht man ueber mehrere Altersgruppen, addiert man die kumulativen Raten einfach auf.
Das ist auch noch intuitiv und fuer junge Menschen sind die Werte fuer die kumulative Rate und das kumulative Risiko im Wesentlichen gleich. Fuer mittelalte Menschen (so ab 50) werden Diskrepanzen bemerkbar, aber man kann bis ungefaehr zum durchschnittlichen Lebensalter gehen und sagen, dass man diese beiden Werten noch gleich interpretieren kann, weil die Abweichung nicht all zu grosz wird. Danach sollte man das nicht mehr tun.

Der Grund, dass es zu grøszer werdenden Abweichungen kommt, liegt zum Einen wieder darin, dass man eigentlich die „person-years at risks“ nehmen muss. Darauf gehe ich auch diesmal wieder nicht weiter ein.
Zum Zweiten geht man bei der Rate immer davon aus, dass man eine Population von 100.000 Leuten hat. Oder anders: konkurrierende Todesursachen werden nicht in Betracht gezogen und somit gilt das nur fuer Leute die es ueberhaupt bis in die Altersgruppe schaffen. In der Realitaet ist die kumulative Rate eine UEBERabschaetzung, denn von den 100.000 Leuten sind ja schon ein paar verstorben. Somit ist die tatsaechliche Anzahl von Krebsfaellen etwas kleiner, einfach weil es nicht mehr so viele Leute gibt, die Krebs bekommen kønnen.

Bei der Berechnung des wahreren kumulativen Risikos wird (durchaus plausibel) angenommen, dass die Anzahl der betrachteten Menschen exponentiell abnimmt. Das alles kann man in den informativen ersten Abschnitten des Artikels „What is the lifetime risk of developing cancer?: the effect of adjusting for multiple primaries“ von Sasieni, P. D. et al. im British Journal of Cancer 150 (3), 2011, pp. 460–465 nachlesen. Dort findet man dann auch noch Methoden welche die Abschaetzung des Risikos weiter verbessern. Diese Verbesserungen beinhalten bspw. die Benutzung sogenannter „Life Tables“ (die bereits an anderer Stelle erwaehnt und benutzt wurden) um besser abzuschaetzen, wie viele Menschen einer gegebenen Kohorte, wenn sie eine gegebene Altersgruppe erreichen, (mehr oder weniger) tatsaechlich noch am Leben sind. Auszerdem kann man auch noch in Betracht ziehen, dass Leute mehrfach Krebs bekommen kønnen. All dies reduziert das wahre(re) kumulative Risiko, aber dafuer braucht man noch viel mehr Daten als ich (oder die Tabelle) zur Verfuegung habe.

Worauf ich hinaus will: das tatsaechliche kumulative Risiko ist (insb. fuer alte Altersgruppen) kleiner, weil die Leute an anderen Sachen als Krebs sterben. Im Artikel von Schouten, L. J. et al. mit dem Titel „Cancer incidence: life table risk versus cumulative risk.“ im Journal of Epidemiology and Community Health, 48 (6), 1994, pp. 596–600 gibt es ein paar sehr schøne und leicht zu verstehende Graphen bezueglich dieses Sachverhalts.

Fuer meine Zwecke ist das aber im Wesentlichen irrelevant. Zum Ersten habe ich die Zahlen mal rueckwaerts gerechnet und in der Tabelle sind alle kumulativen Risiken nur einfach korrigiert; also nur unter der Annahme, dass die Menschenzahl exponentiell abnimmt. Dies sowohl fuer das kumultive Risiko ab Geburt, als auch innerhalb der einzelnen Altersgruppen.
Zum Zweiten will ich ja ueberleben, also eben NICHT zu dem Teil gehøren, der zur „exponentiell abnehmenden Menschenzahl“ fuehrt. Unter dieser Voraussetzung ist sogar die (høhere) kumulative Rate (also einfach nur fuenf mal die Crude Rate) richtig.
Das Zweite ist dann (wieder) der bereits erwaehnte Unterschied zwischen Zahlen die richtig sind fuer ganzheitliche Betrachtungen und Zahlen die richtig sind fuer individuelle Betrachtungen … statistische Aussagen und Zahlen in den richtigen Zusammenhang zu setzen und richtig zu interpretieren kann manchmal ganz schøn knifflig sein.

Was ich die letzten Male schrieb ist eine Beschreibung eines Phaenomens (die Selbstreferenzen), wenn man das Gesamtsystem in verschiedenen Schritten der Entwicklung betrachtet. Dabei wird vøllig auszer Acht gelassen, _wie_ das System dahin gekommen ist. Wenn man Letzteres wuesste, dann muesste man nur einen Zustand (also bspw. LL1) messen und kønnte dann simulieren, wie sich das System zu den naechsten Schritten hin entwickelt.

Fuer ein Analogon aus der Physik nehme man an, dass ich eine Box mit einem heiszen Gas habe. Die individuellen Verteilungen der Selbstreferenzen pro Linklevel kønnten dann der Geschwindigkeitsverteilung der Gasteilchen zu unterschiedlichen Zeitpunkten waehrend des Abkuehlens entsprechen. Natuerlich nicht in Echt, denn das waere eine Maxwell-Boltzmann Verteilung; aber es geht mir ja nur darum, dass die Teilchen unterschiedliche Geschwindigkeiten haben, welche einer bekannten Verteilung folgen. Bisher habe ich die „Geschwindigkeitsverteilungen“ nur gemessen und ausgewertet. Es wuerde unheimlich viel Arbeit sparen, wenn man aber die „Geschwindigkeitsverteilung“ nur zu einem Zeitpunkt misst und dann berechnet wie diese zu einem spaeteren Zeitpunkt aussieht?

Diese Idee einer Simulation von gewissen Aspekten des Linknetzwerkes aus einem Ausgangszustand schwirrt schon eine ganze Weile in meinem Kopf herum. Bisher habe ich aber keinen Zugang dazu gefunden.
Bei den Selbstreferenzen ging mir nun aber das folgende Licht auf: wenn eine Seite viele Selbstreferenzen auf einem Linklevel hat, so ist das eine „populaere“ Seite und diese sollte auf dem naechsten Linklevel auch viele Selbstreferenzen haben. Klingt erstmal logisch, nicht wahr.
Diese Idee erweiterte ich auf alle Seiten (also auch die mit wenigen Selbstreferenzen) und dachte mir, dass es einen allgemeinen Zusammenhang zwischen den Selbstreferenzen von einem Linklevel zum naechsten geben kønnte. Und wenn man diesen Zusammenhang kennt, dann braeuchte man nur einen „Ausgangszustand messen“ und kønnte daraus alles berechnen.
Oder anders im Bilde des obigen Analogons (und hier kommt das „atomistische“ herein): wenn ich die Geschwindigkeit eines Teilchens kenne und weisz wie sich diese entwickelt, dann kann ich bei Kenntniss der Geschwindigkeit aller Teilchen im Ausgangszustand besagte Simulation durchfuehren und muesste nix weiter messen.

Um das durchfuehren zu kønnen, muss ich aber zunaechst ein ganzes Stueckchen Vorarbeit leisten. Der erste Punkt auf der Agenda ist herauszufinden, ob es eine Abhaengigkeit der Selbstreferenzen auf einem Linklevel vom vorhergehenden Linklevel gibt. Wenn man sich die Daten diesbezueglich anschaut, dann sieht das (am Beispiel des Schrittes von LL3 zu LL4) so aus:

Aha! Na das sieht doch tatsaechlich so aus, als ob es hier (wie oben vermutet) eine Tendenz gibt. Ist nur doof, das es in dem schwarzen Blob eine Variation ueber zum Teil vier Grøszenordnungen gibt … aber Moment mal … einen schwarze Blob gab’s doch schon mal … und Mittelwertbildung offenbarte eine ganz wunderbaren Information, welche sich in dem Blob versteckte. Na dann:

AHA! Der Eindruck, dass es da einen Zusammenhang gibt taeuschte nicht und zum jetzigen Zeitpunkt ist es auch nicht mehr ueberraschend, dass dieser linear ist (bei doppellogarithmischer Darstellung).

Wie schon damals liegen die Mittelwerte ziemlich eindeutig auf einer Linie fuer (relativ) kleine Werte auf der Abszisse (hier bis ca. 400 Selbstreferenzen). Dies liegt natuerlich darin, weil ich aus vielen Datenpunkten (die bspw. alle 23 Selbstreferenzen haben), jeweils nur einen Mittelwert „mache“.
Fuer høhere Werte und hingegen streut das alles zum Teil betraechtlich. Der Grund liegt darin, dass ich da dann nur wenige Datenpunkte habe; bei ganz hohen Abzsissenwerten oft nur einen Einzigen (wenn im Diagramm die roten „Mittelwertquadrate“ genau ueber einem schwarzen „Rohdatenkreis“ liegen). Das wiederum kann den Mittelwert ganz massiv beeintraechtigen und zu den zu beobachtenden starken Schwankungen fuehren. Wichtig ist aber, dass die Punkte dennoch (im Mittel) weiterhin dem linearen Zusammenhang zu folgen scheinen.

Das soll reichen genug sein fuer heute. Beim naechsten Mal all dies fuer alle Linklevel (fuer die es sich lohnt das mal auszuwerten)

So lange ich Comics sammle wollte ich diese katalogisieren. Ich startete mehrere Anlaeufe (ganz am Anfang noch handschriftlich, dann in einem Tabellenkalkulationsprogram, dann mit anderen Programmen) aber immer passte mir etwas nicht. Nachdem ich mir Programmieren beigebracht hatte war mein erstes Projekt ein Program mit grafischer Benutzeroberflaeche zum Katalogisieren von was auch immer, welches meinen Anspruechen genuegte. Zu dem Zeitpunkt war meine Comicsammlung aber auf mehrere tausend Comics angewachsen … weswegen ich erstmal meine Kinotickets katalogisierte (das waren da noch keine Tausend) … und dann meine Playstationtrophaeen (das konnte ich semi-automatisieren) … dann meine DVD’s (dito) … und dann meine Buecher (komplett manuell) … und dann vergingen mehrere Jahre … hauptsaechlich weil ich wusste, dass die Katalogisierung von tausenden Comics sehr viel Zeit kosten wird und ich da keine Lust drauf hatte. Der Grund, dass es so viel Zeit kosten wird, lag darin, weil ich alle Daten manuell eintragen musste, denn im Internet konnte ich damals (und auf die Schnelle) keine Quelle finden, welche ich zur (semi-)Automatisierung dieser Aufgabe heranziehen konnte. Aber selbst mit so einer Quelle wuerde es immer noch sehr viel Zeit kosten.

Im letzten Jahr rappelte ich mich dann endlich mal auf und fand recht schnell die grandiose „Grand Comics Database“ und die auch beeindruckende Datengrundlage welche von leagueofcomicgeeks.com dargeboten wird. Schwupps machte ich daran und schrieb ein Program welches mehr oder weniger automatisch die benøtigte Daten von diesen Seiten saugt und in meinen eigenen Katalog einpflegt.
Nichtsdestotrotz ist oftmals noch (sehr) viel Handarbeit von Nøten. Zum Einen, weil die Quellen  (hauptsaechlich) amerikanische Comics beinhalten, aber laengst nicht alle bzw. nicht alle Informationen die ich gern haben møchte. Zum Zweiten habe ich hauptsaechlich in Dtschl. nachgedruckte Comics amerikanischer Herkunft. Und da erschienen gerne zwei amerikanische Ausgaben in einem Heft aber nicht notwendigerweise zwei aufeinanderfolgende (Original)Ausgaben und manchmal dauert es ewig heraus zu finden was ich da eigentlich vor mir habe. Und zum Dritten habe ich zum Teil eher obskure Comics. Wieauchimmer, es ist trotz allem immer noch ein Haufen Arbeit, aber zum Zeitpunkt des Schreibens naehere ich mich dem Ende der Herkulesaufgabe.

Das ist aber eine ganz andere Geschichte, auf die ich nicht weiter eingehen will. Ist diese doch nur der Grund, warum ich nach zum Teil mehr als 25 Jahren mich daran setzte alle meine Comics mal wieder zu lesen … und Oh Boy! Das Ergebnis ist … ich sag jetzt mal durchwachsen … Vieles Comics sind extrem gut (insb. natuerlich, wenn man ueber diese Serien auch Jahrzehnte spaeter noch redet). Andere sind mittelmaeszig aber ok und erstaunlich viele sind eher schlecht, was ich aber vergessen habe. Zu den letzten beiden Kategorien gehøren (leider) die Aliens vs. Predator Comics welche in meinem Besitz sind.

Hier zu sehen ist das Cover des Trade paperback der allerersten jemals erschienenen Aliens vs. Predator Geschichte:

Als die zum ersten Mal verøffentlich wurde, Ende der 80’er, war das natuerlich ’ne Sensation. Nicht zuletzt deswegen, weil hierin zum ersten Mal auch mehr ueber die Kultur der Predatoren erzaehlt wurde. Besagte allererste Geschichte ist auch vom heutigen Standpunkt tatsaechlich ganz in Ordnung. Sowohl was die Geschichte selbst als auch deren Praesentation in Comicform angeht. Selbst unter dem Aspekt, dass das was dort zum ersten Mal ueber das „Hintergrunduniversum“ erzaehlt wurde, mittlerweile weitreichend bekannt ist und niemanden mehr ueberrascht.

Aber fast alles Andere was ich an Aliens oder Predator Comics (ob zusammen in einem Heft oder oder nicht) habe ist eher langweilig. Das ist schade, denn ich hatte viel mehr erhofft, kommen hier doch zwei faszinierende Konzepte zusammen. Ich gebe zu, dass meine Probengrøsze ziemlich beschraenkt ist (ich habe so ca. 25 Hefte); sicherlich deswegen weil ich bestimmt auch damals dann eher enttaeuscht war und davon absah noch mehr zu kaufen.
Aber Letzteres hatte ich vergessen und als ich die Comics beim Durchstøbern der Sammlung (wieder) entdeckte freute ich mich sehr darauf diese zu lesen … nur um (fast) ein Vierteljahrhundert spaeter nochmal enttaeuscht zu werden … schade eigentlich.

Auch heute arbeite ich weiter mit dieser Tabelle.

Die beim letzten Mal betrachteten altersspezifischen (!) Crude Rates sind fuer mich als Individuum von Interesse. Ich gehøre nunmal zu einer ganz konkreten Altersgruppe und besagte Crude Rates geben an, wie wahrscheinlich es ist, dass ich an (einem bestimmten) Krebs erkranken werde. Das hilft mir die Situation besser einzuschaetzen und bestimmte Masznahmen zu treffen (oder auch nicht); zur Erinnerung: Letzteres war der Ursprung dieser Miniserie.

Trotz dieser groszen Nuetzlichkeit fuer Individuen sind Crude Rates deutlich weniger nuetzlich fuer eine Gesundheitspolitik. Letztere muss naemlich festlegen, wie viele Mittel fuer bestimmte Krankheiten auszugeben sind und es gibt deutlich mehr als nur Krebs. Aber nicht nur das, eine Gesundheitspolitik muss auch fuer die gesamte Bevølkerung gemacht werden, egal ob jung oder alt (oder mittendrin so wie ich). Und es gibt mehr juengere als aeltere Leute.

Hier kann ich das Beispiel vom letzten Mal weiterfuehren. Dort hatten junge Maenner (alle 1,752,661 Maenner bis 50 Jahre, 65.3 % aller Maenner) eine Crude Rate von ca. 74 und alte Maenner (alle 932,412 Maenner ueber 50 Jahre, 34.7 % aller Maenner) von fast 1900.
Fuer eine Gesundheitspolitk ziehe ich 100.000 Maenner zufaellig. Das bedeutet, dass ich mehr junge als alte Maenner ziehe, die Bevølkerungsstruktur muss also in Betracht gezogen werden. Das ist ganz einfach, denn man muss dafuer einfach nur die Crude Rates mit der Prozentzahl der Maenner die dieser unterliegen multiplizieren und dann beide Werte addieren: 74 x 65.3 % + 1900 x 34.7 % = 707.
Fuer alle praktischen Zwecke kann man nun sagen, dass dies die altersstandardisierte Rate (ASR in der Tabelle) fuer die gesamte Bevølkerung ist. Wenn man dann die oben erwaehnten Abweichungen in Betracht zieht, dann ist der Wert von 707 praktisch gleich dem Tabellenwert von 688. Letzteres erhaelt man, wenn man den Altersregler in besagter Tabelle von 0 bis 85+ (also ueber alle Altergruppen) gehen laeszt.

Ich waere aber nicht ich, wenn ich das einfach so stehen lassen wuerde. Denn eigentlich muss man nicht die Anzahl der Maenner in einer Altersgruppe in Betracht ziehen, sondern die Anzahl der (altersgruppenspezifischen) „person-years at risk“. So wird das in der Tabelle und auch im Cancer Incidence in Five Continents Vol. XI-Report gemacht (S. 127 f.). Bender, A. P. et al erklaeren diese Methode im Detail in ihrem Artikel mit dem Titel „A standard person-years approach to estimating lifetime cancer risk.“ … *hust* … in Cancer Causes & Control, 3 (1), 1992, pp. 69–75 … ich gebe zu, dass ich den nur ganz kurz ueberflogen habe um ein grundlegendes, aber sicher kein tiefgreifendes Verstaendniss fuer den Sachverhalt zu bekommen.

Worauf ich hinaus will ist das Folgende: die Abweichungen zwischen der obigen vereinfachten und der richtigeren Berechnung sind fuer junge Altersgruppen nicht signifikant, fuer mittlere Altersgruppen klein und akzeptabel (so bis ca. 70 Jahre) und erst fuer alte Altersgruppen grosz. Grob (und sehr stark vereinfachend) gesagt liegt der Grund darin, dass ein Mensch der in der Mitte der Altersgruppe stirbt, nur halb so viele Jahre zu den „person-years at risk“ beitraegt und es sterben viel mehr alte Menschen in der „Mitte“ der Altersgruppe als junge Menschen.

Wieauchimmer, die obige, vereinfachte Berechnung ist deutlich anschaulicher und der Fehler in den relevanten Altergruppen vernachlaessigbar. In dieser Miniserie werde ich die altersstandardisierte Rate ohnehin nicht nutzen und wenn doch, so ist fuer alles was ich in dieser Miniserie sagen werde diese Berechnung hinreichend. Weil man aber ueberall darauf trifft, dachte ich, dass es wichtig ist zumindest kurz mal darauf einzugehen.

Beim letzten Mal hatte ich auch versprochen, dass ich verraten werde, wieso in der Tabelle „ASR (World)“ steht. Weil diese „weltweite“, altersstandardisierte Rate praktisch ueberall auftaucht sei dies kurz erklaert (zum Glueck ist das ganz einfach): fuer gesundheitspolitische Entscheidungen (und insb. in so dicken, weltumspannenden Reports (ich hab’s nachgeschlagen, das ist tatsaechlich ein erlaubter Plural von Report) wie dem Cancer Incidence in Five Continents Vol. XI) ist es wichtig zu sehen, wo man im Verhaeltniss zu Welt steht. Deswegen wird nicht auf die landeseigenen „person-years at risk“ standardisiert sondern auf eine weltweite Referenzbevølkerung. Wie diese aussieht kann man in Tabelle 7.1 in besagtem, dickem Report auf Seite 128 sehen.

Und damit soll es endlich genug sein fuer heute.

Als junger Mensch erlebte ich in den Medien sowohl das Buhei als auch die Glorie des Baus und dann der Erøffnung des Eurotunnels. Meiner Meinung nach zu Recht wird dieser von der American Society of Civil Engineers als eines der (neuen) sieben (ingenieurstechnischen) Weltwunder angesehen.
Wieauchimmer, seit nun 30 Jahren wollte ich da mal durchfahren … man kann durchaus sagen, dass das ein Kindheitstraum war und dieser wurde im Sommer 2022 endlich verwirklicht.

Ich bin reich und fahre deswegen 1. Klasse im Zug. Nun kann man aber den sozialen Hintergrund nicht einfach so ablegen und deswegen war ich positiv ueberrascht, als ich in der 1. Klasse im Eurostar auf einmal Essen serviert bekam ohne dafuer extra bezahlen zu muessen:

Ich gebe zu, dass es so schmeckte wie es aussieht … dennoch fuehlten der junge Mann der mit mir reiste und ich uns piekfein :) .

Zur Erinnerung an die Erfuellung des Kindertraums fand sich (ganz zufaellig natuerlich) eines der schicken Weinglaeser (oben links im Bild zu sehen) in meinem Gepaeck wieder und ueberlebte sogar das viele Herumgefahre in England (und ganz kurz Wales und Schottland) und die Heimreise.

Zum Abschluss kann ich es total empfehlen mit dem Zug direkt aus Dtschl. nach London zu fahren. Wenn man alles zusammenrechnet (also aus der Haustuer raus bis zur Ankunft im Hotel), dann ist das nicht teurer als fliegen (mglw. sogar billiger) und wenn man nicht in Reichweite eines Flughafens wohnt, dann dauert die Reise auch nicht viel laenger. Der grosze Vorteil liegt aber darin, dass man mehrere Grøszenordnungen weniger Stress hat.