Archive for the ‘Allgemein’ Category

Wie versprochen geht es mit den linklevelabhaengigen Verteilungen unserer Grøszen von Interesse weiter. Heute behandeln wir erstmal nur die der totalen und die neuen Links.

Ersteres hat mich damals zunaechst ziemlich in die Irre gefuehrt. Nachdem ich das erkannt hatte, konnte ich das aber nicht einfach so stehen lassen und habe die Spekulationen (wie es gute Wissenschaft nunmal so macht) ordentlich dekonstruiert.
Die Dekonstruktion hatte dann sogar ein super interessantes und brauchbares Ergebnis, machte es mich doch auf das São-Paulo-FC-Artefakt aufmerksam … auch wenn ich es zum damaligen Zeitpunkt noch nicht wusste, dass eben dieses ein Teil eines systematischeren Phaenomens (der „Familien„) ist.
Wieauchimmer, eben weil es eine Irrefuehrung war, muss davon nix reproduziert werden und auf besagte „Familien“ komme ich an anderer Stelle nochmals separat zurueck (auch wenn die Diagramme zum São-Paulo-FC-Artefakt zu den coolsten Grafiken gehøren die ich in meinem Leben erstellte).

Von Interesse sind aber die Verteilungen an sich und ob sich was in den 2023-Daten geaendert hat. Deswegen hier nun ALLE Verteilungen der totalen Links in nur einem, sich „bewegenden“ Diagramm:

Fetzt wa!

Davon abgesehen, dass die 2023-Daten „laenger leben“ (also ueber das 72. Linklevel hinaus gehen), wuerde ich sagen, dass diese die 2020-Daten im Groszen und Ganzen und durchaus auch im Kleinen und Feinen (insb. auf fruehen Linkleveln) reproduzieren.

Im Detail scheinen Erstere, den Letzteren aber nach der „Reflexion“ etwas voraus zu laufen — die Verteilungen haben also das Maximum systematisch bei geringeren Anzahlen an totalen Links. Das ist hier an vier repraesentativen Beispielen dargestellt:

Ich wuerde hinter der Form der Kurve „dynamische Gruende“ vermuten; vulgo: auf welcher „Weise“ man zu bspw. LL23 gekommen ist. Die Regeln welche die „Dynamik“ … øhm … regeln, sollten sich nicht aendern und deswegen wundert mich das erstmal nicht, dass die Kurvenform gleich bleibt.

Bzgl. der Separation denke ich, dass die dem Phaenomen der oben erwaehnten „Familien“ zuzuordnen ist … auf das ich ja hier (noch) gar nicht eingehen wollte. Aber wenn ich mir das so anschaue, dann ist man ab LL20 ziemlich sicher in dem relevanten Bereich, in dem (fast) alle Seiten nur noch die selben („Familien“)Seiten in ihrem Linknetzwerk sehen. Es wird also alles durch relativ wenige Seiten dominiert. Wenn nun die Anzahl der Links in den „Familienseiten“ geringer ist, dann kønnte (wuerde? sollte?) das eine solche Separation zur Folge haben.

Prinzipiell kønnte bei diesem Mechanismus eine Verteilung auch ganz anders aussehen wie bspw. hier:

Im rechten Diagramm sieht man zwei „Haufen“, die wieder darauf hindeuten, dass es zwei „Familien“ gibt in die sich alle Seiten zum Ende hin einsortieren. So einen „Doppelhaufen“ sehe ich aber nur ein Mal und es ist schon kurios, dass die Anzahl der Links in den zwei „Familien“ sich an einer Stelle so sehr unterscheidet, dass sich das in der Gesamtbetrachtung nicht zu einem einzigen breiten „Haufen“ (wie in fast allen anderen Verteilungen) „verschmiert“.
Im linken Diagramm ist nun gar nichts Systematisches zu sehen. Aber diese beiden Diagramme eine Art „Uebergangsphase“ zu kennzeichnen sein, und das sollte man mal naeher untersuchen … aber das kann wer anders machen.

Die linklevelabhaengigen Verteilungen der neuen Links hatte ich damals gar nicht im Detail angeschaut, weil ich nix Neues sehen konnte (Wortspielkasse) … warum auch, neue Links sind ja im Wesentlichen nur eine Untergruppe der totalen Links. Hier diesmal alle Verteilungen, aber ich sage dazu auch heute nichts weiter:

Ach doch … eine Sache: die 2023-Daten scheinen KEINEN so deutlichen Vorlauf zu haben wie bei den totalen Links. Das wuerde sich aber auch mittels der „Familien“ erklaeren lassen. Denn da geht man ja immer nur von einer Seite zur naechsten, es gibt also immer nur EINEN neuen Link pro Familie (und weil man auf einem Linklevel bspw. 420 Familien gleichzeitig sieht, landet man beim Wert 420 auf der Abszisse). 2020 wie 2023 gibt es aber nur relativ wenige Familien. Ich muesste also deren Anzahl massiv veraendern, um eine deutliche sichtbare Separation zu reproduzieren.
Das gilt NICHT bei den totalen Links oben. Zur Erklaerung denke man sich in 2020 einhundert „Familien“ auf einem gegebenen Linklevel und die haben alle 10 Links. Das macht 1000 Links total. Nun denke man sich weiter, dass es in 2023 immer noch diese 100 Familien gibt. Damit aendert sich also nix an der Anzahl der neuen Links auf diesem Linklevel. Wenn diese 100 Seiten aber alle einen Link weniger haben (also insgesamt nur noch 900), dann erhaelt man eine Verschiebung in den totalen Links wie man die oben sehen kann.

Damit habe ich etliche von den alten Beitraegen „abgehandelt“. Beim naechsten Mal die linklevelabhaengigen Verteilungen der Selbstreferenzen und der Linkfrequenz.

… hier gibt es sogar physische Postkaesten fuer elektronische Post:

Fetzt ja!

Ich entdeckte das in einem Wohngebiet und wurde nur drauf aufmerksam, weil ich nach ’nem Postkasten fuer meine Postkarten an (einige von euch), meine lieben Leserinnen und Leser, suchte. Das ist auch der einzige Postkasten, an dem ich sowas sah, weil es uebersetzt war. Es kønnte sein sowas voll normal ist und mir das nur nicht auffiel, weil ich die japanischen Schriftzeichen nicht ohne Hilfe lesen kann.

Zunaechst dachte ich, dass es sich dabei um eine etwas eigene Uebersetzung handelt (aehnlich wie hier). Dem ist aber nicht so. Zumindest nicht mittels des Uebersetzungsprogrammes auf meinem Schlaufon. Denn wenn das die Kanji fuer mich uebersetzt, dann steht da auch „electronic mail“ …

… und in Klammern das Wort „Retax“. Ich habe nicht rausgefunden was Letzteres sein soll. Der Name (und alles was ich auch nur im Entferntesten dazu im Internet finde) laeszt vermuten, dass es mit der Steuer zusammenhaengt. Das wuerde den gesonderten Einwurfschlitz erklaeren, wenn die Post den Auftrag hat solche Briefe extra ordentlich zu behandeln. Aber wieso dann „elektronische Mail“?

Ich spekuliere mal munter drauf los und kønnte mir vorstellen, dass das japanische Finanzamt das Einlesen und digitalisieren der Steuerunterlagen von der Post machen laeszt. Und weil’s dann in elektronischer Form sowohl dem Behørden, als auch dem Absender vorliegt der Begriff „electronic Mail“.
Das wuerde auch den gesonderten Schlitz erklaeren, denn der fuehrt zu einer (vermutlich gar nicht mal so schlechten) Vorsortierung. Das hat weniger Arbeit & Fehler und damit schnellere Bearbeitung zur Folge.

Prinzipiell liesze sich das auf alle Behørdenunterlagen ausweiten … der einzige Knackpunkt: warum gibt’s das nicht in „total digital“ also als Seite im Internet … das kønnte an den vielen aelteren Menschen liegen, denen man nicht zumuten møchte, sich auf komplizierten Webseiten zu verlaufen … ehrlich gesagt klingt das ganz plausibel, denn das Wenige was ich vom japanischen Web gesehen habe, ist unuebersichtlich, schwer zu navigieren und dem Rest der Welt dem normalen, alltaeglichen Internet der „westlichen“ Welt 20 Jahre hinterher. Das mit dem „schwer zu navigieren“ kønnte an meinen nichtvorhandenen Sprachkentnissen liegen, aber „unuebersichtlich“ und „veraltet“ sind davon unabhaengig. Auszerdem hab ich schon mehrfach gehørt, dass das Internet in der Form wie wir es „im Westen“ kennen, es in Japan wohl sehr schwer hat, bzw. so nicht wirklich angenommen wird. Und wenn wir ehrlich sind, so weit voraus ist die digitale Verwaltung in Dtschl. auch nicht.

Aber ich schwoff ab und wollte sagen, dass es relativ einfach ist Behørdenunterlagen per normaler Mail raus zu schicken und dann einen speziellen „elektronische Mail“ Briefumschlag dazu zu legen. Das wird dann automatisch von der Post gescannt und in digitaler Form an die Behørde weitergeleitet. Anders als Webseiten die schnell veralten und staendig ueberarbeitet werden muessen, ist solch ein System relativ robust und kann prinzipiell Jahrzehnte lang hervorragend funktionieren. Bei mir auf Arbeit haben wir so einen Scanner stehen und die Briefe flitzen da im hohen Takt durch.
Das erfordert zwar eine gut funktionierende, zentrale Instanz die das aufbaut und leitet, das scheint mir aber machbarer als ein potentielles „digitales Kuddelmuddel“ und das Umgewøhnen von vielen Millionen Menschen (wieder: siehe das „digitale Desaster“ in Dtschl., in dem das seit ueber zwei Dekaden ohne groszen Erfolg versucht wird).
Der Nachteil ist natuerlich, dass es eine etwas laengere Bearbeitunszeit als „total digital“ zur Folge hat … aber wann geht denn selbst bei digitalen Vorgaengen mal was schnell? Da guckt doch immer nochmal ein Mensch drueber und der einzige Unterschied zu frueher ist, dass die jetzt keine Briefe mehr øffnen muessen sondern sich alles auf dem Bildschirm anzeigen lassen. Und es ist prinzipiell schneller als der traditionelle Weg, denn der physische Brief an die Behørde spart sich den Weg vom Postamt zu besagter Behørde.

Wieauchimmer, das hørt sich alles durchaus plausibel an, aber es ist nicht mehr als eine Spekulation und mglw. (bestimmt?) was ganz Anderes.

Ebenso: herrje! Meine urspruengliche Idee fuer diesen Beitrag war nur das Bild zu zeigen und „ohne Worte“ drunter zu schreiben … aber so gefaellt’s mir besser.

Beim letzten Mal verwies ich auf einen aelteren Beitrag, der nicht nur die beim letzten Mal (mehr oder weniger) reproduzierten Reaktivierungen pro Linklevel zeigte, sondern auch zwei tolle bunte Bilder.

Im ersten bunten Bild untersuchte ich wie lange (in „Linkleveleinheiten“) es dauert von einer Reaktivierung der Selbstreferenzen bis zum naechsten „Ausstieg“. Dabei ist zu beachten, dass

[e]ine Kette an Selbstreferenzen […] mehrfach abbrechen und reaktiviert werden [kann].

Ich nannte das damals „Selbstreferenzenketten“ … und nenne das jetzt lieber „Reaktivierungslaenge“.

Aber damit war es noch nicht genug, denn die bunten Bilder sind (wie so oft) (Pseudo) 3D-„Karten“ … oder anders: Ich untersuchte eigentlich vielmehr die Haeufigkeit der Reaktivierungslaenge in Abhaengigkeit vom Linklevel … oder noch anders: ich erstellte fuer jedes Linkevel ein Histogramm der Reaktivierungslaengen. Damit ist hoffentlich (wieder) klar, was hier zu sehen ist:

Der wichtigste Unterschied zum damaligen bunten Bild (abgesehen davon, dass ich jetzt eine bessere Farbpalette benutze) ist, dass ich jetzt richtig an die Sache heran gehe. Deswegen sieht man jetzt auch bei LL1 was (waehrend ich das damals einfach abgeschnitten hatte, denn da war ja nix).

Ansonsten wuerde ich sagen, dass das im Groszen und Ganzen erfolgreich reproduziert ist. Im Detail wuerde ich aber sagen, dass in den 2023 Daten zwei Dinge anders sind. Es scheint weniger lange Reaktivierungslaengen zu geben. Das bezieht sich sowohl auf die Ordinate, als auch auf die Abszisse (deswegen zwei (!) Dinge die anders sind). Wobei „lang“ relativ ist, ich meine aber, dass es deutlich weniger dunkle Punkte weg von den helleren Bereichen gibt. Also weiter nach rechts, wenn man es bezogen auf die Ordinate betrachtet, und weiter nach oben, bezogen auf die Abszisse.
Mein Bauchgefuehl sagt mit, dass das ’n echter Effekt ist; weil wir hier aber sowieso schon mit nur wenigen „Ereignissen“ in den 2020 Daten anfangen, ist das vermutlich relativ schwer systematisch zu untersuchen. Allerdings kønnte man sich das mglw. „Ereigniss“ fuer „Ereigniss“ anschauen, denn man hat es ja mit nur sehr wenigen davon zu tun. Ich belasse das an der Stelle so wie’s ist und das das soll mal wer anders machen.

Das zweite bunte Bild damals zeigte die durchschnittlich hinzukommende Anzahl an Selbstreferenzen pro Reaktivierung. Dazu summierte ich zunaechst in jedem Datenpunkt die Summe aller in einer „Reaktivierungskette“ hinzukommenden Selbstreferenzen auf. Ja das ist ’ne doppelte Summe, zunaechst fuer jede Seite die Summer der hinzukommenden Selbstreferenzen (pro Reaktivierung) und dann die Summe ueber alle Seiten die zu einem gegebenen Datenpunkt beitragen. Wenn das fuer alle Seiten getan ist, wird Wert in jedem Datenpunkt durch die Anzahl der Seiten geteilt die beigetragen haben und das Resultat wurde nochmals durch die relevante Reaktivierungslaenge dividiert.

Ein Beispiel macht hoffentlich deutlicher was ich meine. Man denke sich, dass Seite A auf LL5 reaktiviert wird mit einer Reaktivierungslaenge von drei Linkleveln. Auf LL5 erhaelt Seite A sieben Selbstreferenzen, auf LL6 zwei und auf LL7 eine. Im Datenpunkt (LL5, Reaktivierungslaenge 3) speichere ich die Summe (7 + 2 + 1 = 10).
Seite B wird nun auch auf LL5 reaktiviert, aber mit einer Reaktivierungslaenge von nur einem Linklevel und Seite B erhaelt 23 zusaetzliche Selbstreferenzen durch die Reaktivierung. Im Datenpunkt (LL5, Reaktivierungslaenge 1) speichere ich diesen Werte (23).
Als Letztes dann Seite C, die auch auf LL5 reaktiviert wird, auch mit einer Reaktivierungslaenge von 3 Linkleveln; Seite C traegt also zum selben Datenpunkt bei wie Seite A. Seite C erhaelt auf LL5 dreizehn Selbstreferenzen, auf LL6 sechs und auf LL7 eine. Im Datenpunkt (LL5, Reaktivierungslaenge 3) befindet sich bereits die Zahl 10 und dazu wird jetzt die Summe der durch Seite C hinzukommenden Selbstreferenzen (13 + 6 + 1 = 20) addiert. Damit befindet sich danach in diesem Datenpunkt der Wert 10 + 20 = 30.
Das war der erste Schritt (der in Echt natuerlich fuer ca. 6 Millionen Seiten gemacht wurde).

Nun zur Division. Im Datenpunkt (LL5, Reaktivierungslaenge 3) befindet sich der Wert 30 und der wird zunaechst durch zwei geteilt (weil Seite A und Seite B) beigetragen haben. Das ergibt 15. Diese 15 wird abschlieszend durch die Reaktivierungslaenge (also drei) geteilt. Die durchschnittliche Anzahl an hinzukommenden Selbstreferenzen fuer Seiten die auf LL5 mit einer Reaktivierungslaenge von drei reaktiviert werden ist somit fuenf.
Zum Wert 23 im Datenpunkt (LL5, Reaktivierungslaenge 1) hat nur eine Seite beigetragen und weil die Reaktivierungslaenge nur eins ist, ist die Division das Einfachste von der Welt. Oder anders: die durchschnittliche Anzahl an hinzukommenden Selbstreferenzen fuer Seiten die auf LL5 mit einer Reaktivierungslaenge von eins reaktiviert werden ist dreiundzwanzig.

Im dazugehørigen bunten Bild aenderte sich deswegen „nur“ die Farbe der Punkte und die Bedeutung der Farbskala. Alles andere Dinge (Bedeutung der Abszisse und Ordinate und die Verteilung der Datenpunkte im Bild) blieb gleich.

Ich hatte das damals gemacht, weil ich vermutete, dass bei „hohen“ Reaktivierungen (bezogen sowohl auf das Linklevel, als auch auf die Reaktivierungslaenge … und „hoch“ ist (mit Absicht) relativ „diffus“ gemeint) die durchschnittliche Anzahl an hinzukommenden Selbstreferenzen (pro Reaktivierungslaenge) eins betraegt. Oder anders (an einem Beispiel): wenn eine Seite auf LL23 reaktiviert wird und bis LL65 die Selbstreferenzenkurve nicht wieder abgebrochen wird (das entspricht einer Reaktivierungslaenge von 42), dann vermutete ich, dass das eine zusammenhaenge „Kette“ von 42 Einsen war.

Diese Vermutung wurde damals im Wesentlichen bestaetigt und in den 2023 …

… aendert sich an dem Ergebnis nix.

(Fast) alle Unterschiede zum damaligen bunten Bild kommen durch die selben Mechanismen zustande wie bereits oben diskutiert.

Das „fast“ bezieht sich darauf, dass die Farbskala dieses Mal auch logarithmisch ist (waehrend sie beim letzten Mal linear war). Der Grund liegt in Ausreiszern, also Seiten die viele Selbstreferenzen (und mglw. lange Reaktivierungslaengen) haben, wo aber nur wenige Seiten (mitunter nur eine Einzige) zum Datenpunkt beitragen. Da reduziert die Division den Wert also nicht so stark wie bei den meisten anderen Datenpunkten.
In den 2023 Daten ist das Extrem die Seite „The“ (jup, nix weiter), die auf LL1 mit einer (re)aktiviert wird, mit einer (Re)aktivierungslaenge von 34 Linkleveln und die dann 374,173 Selbstreferenzen ansammelt. Diesen Wert bringt eine Division durch 34 auch nur runter auf ca. 11-tausend … was natuerlich bei einer linearen Skala alle anderen Punkte in den (dann schwarzen) Hintergrund draengen wuerde.

So … damit ist das Thema „Ausgaenge“ abgeschlossen und ich kann beim naechsten Mal endlich mit den ganz vielen Verteilungen weitermachen.

… for you
As yet but knock, breathe, shine, and seek to mend;
That I may rise and stand, o’erthrow me, and bend
Your force to break, blow, burn, and make me new.
I, like an usurp’d town to another due,
Labor to admit you, but oh, to no end;
Reason, your viceroy in me, me should defend,
But is captiv’d, and proves weak or untrue.
Yet dearly I love you, and would be lov’d fain,
But am betroth’d unto your enemy;
Divorce me, untie or break that knot again,
Take me to you, imprison me, for I,
Except you enthrall me, never shall be free,
Nor ever chaste, except you ravish me.

Holy Sonnet XIV„, John Donne

Ich hatte da noch was offen:

[…] kann das zentrale Thema sehr stark vereinfacht, aber nicht unzulaessig, als „die Angst der Wissenschaftler die Atmosphaere zu entzuenden“ zusammengefasst werden. […] ich diskutiere das vielleicht nochmal genauer an anderer Stelle.

Der vorliegende Artikel ist besagte „andere Stelle“ und zum Glueck ist dies der diesjaehrige: Geburtstagsbeitrag! Wie immer erlaube ich mir so viel zu schreiben wie ich Lust habe, ohne den Artikel in mehrere Teile zu spalten … denn bei dem Thema brauche ich den Platz fuer den Versuch die Komplexitaet des Themas zumindest anzureiszen.

Los geht’s mit der fuer mich wichtigsten Szene im Film, in der Isidor Rabi Los Alamos (mich duenkt) das erste Mal besucht. Dort findet er Oppenheimer in Uniform vor, was Rabi sofort als unecht erkennt, und erzaehlt ihm am Ende:

Be yourself, only better.

Aber das ist nur die Szene an sich. Fuer mich wichtig … mir kamen fast die Traenen, (auch beim wiederholten Schauen) weil’s mir so nahe ans Herz ging … ist die Stelle in der Oppenheimer seinem (besten?) Freund anbietet die Theoriesektion des Manhatten Projekts zu uebernehmen. Rabi erwidert dann (Seite 60) emotional sehr mitgenommen:

You drop a bomb and it falls on the just and the unjust. I don’t wish the culmination of three centuries of physics to be a weapon of mass destruction.

Der zweite Satz ist der Teil, der mir so sehr nahe geht. Meine geliebte Wissenschaft (nicht nur Physik) deren Ergebnisse leider direkt und indirekt zum Tøten von Menschen verwendet werden … *seufz*.

Oppenheimer erwidert:

Izzy, I don’t know if we can be trusted with such a weapon, but I know the Nazis can’t. We have no choice.

Und da liegt das zentrale Thema nicht nur des Films, sondern auch von Oppenheimer selbst, sobald er die Leitung von Los Alamos uebernommen hat.
Oppenheimer weisz sehr wohl, was die Konsequenzen dessen sind, an dessen Erschaffung er dort einen maszgeblichen, ja entscheidenden Anteil hat. Und damit meine ich nicht nur die direkten Toten durch die Atomexplosionen, sondern die Tatsache, dass er sehr wohl weisz, dass er der Menschheit wie wir sie kennen, ein Mittel zur Selbstausløschung in die Haende gibt — MAD: Mutually Assured Destruction.

Das ist uebrigens der Grund fuer ein weiteres (beinahe) zentrales Thema des Films und definitiv ein zentrales Thema in Oppheimers Leben danach — der erfolglose Versuch den „Geist wieder in die Flasche“ zu bekommen? Sehr schøn zusammengefasst in dem kurzen Wortwechsel zwischen Niels Bohr und Oppenheimer, nachdem Ersterer zur Ueberraschung aller kurz vor Weihnachten pløtzlich in Los Alamos auftaucht (Hervorhebung von mir):

Bohr: Is it big enough?
Oppenheimer: To end the war?
Bohr: To end all war.

Weswegen eine heftige und die Welt schockierende Demonstration leider vonnøten ist, eben damit ALLE Menschen erkennen, dass es wahnsinnig ist Krieg mit diesen Waffen zu fuehren — MAD.

Dennoch gebot die zu dem Zeitpunkt vorliegende Information die Bombe zu bauen, denn niemand wusste, dass die Scheisz-Nazis ihrerseits kein Atombombenprojekt hatten. Ganz im Gegenteil wurde davon (meiner Meinung nach vøllig zurecht) davon ausgegangen, dass dem so ist … waehrend gleichzeitig vøllig klar war, dass die Scheisz-Nazis auf jeden Fall Atombomben einsetzen wuerden, wenn sie solche haetten.

Oder anders: Oppenheimer weisz sehr wohl, dass er an etwas arbeitet, an dem er aus tiefsten Herzen nicht arbeiten møchte, er muss aber, um das (angenommene) VIEL Schlimmere zu verhindern.

Oder anders: Oppenheimer ist sich zutiefst seines (persønlichen) „Suendenfalls“ bewusst … Und zwar schon zu dem Zeitpunkt an dem er zustimmt die Leitung des Projekts zu uebernehmen. Das ist dann natuerlich der Grund, warum er nach dem 2. Weltkrieg so sehr fuer eine Eindaemmung der Verbreitung von Atomwaffen kaempft. … … …

… … … Was uns direkt zum obigen Gedicht bringt … und dass ich hier endlich mal In Our Time erwaehnen kann. Ich høre seit etlichen Monaten auf meinen Spaziergaengen die alten Episoden und neulich hatte ich die Episode vom 2008-07-03 „am Wickel“ in der es um metaphysische Dichtung geht. Der oben zitierte John Donne gehørte zu den entsprechenden Poeten.
Ich schlendere nichtsahnend durch die Gegend und pløtzlich høre ich bei 30 Minuten und 57 Sekunden:

Batter my heart, three-person’d God […]

.oO(Moment! DAS kommt mir verdammt bekannt vor!) … Und dann wird das Gedicht eingeordnet (im Deutschunterricht wuerder man vermutlich „interpretiert“ sagen). Und ohne, dass Oppenheimer (weder der Film noch die Person) zur Sprache kommen, passt es so verdammt gut in das Thema welches ich oben beschreibe. Auszerdem macht es auch deutlich, wie krass gut der Film ist … … …  eben dieses Thema darzustellen, ohne mit dem Finger drauf zu zeigen (und dadurch das Publikum ernst nehmen). Deswegen zitiere ich ab hier aus der In Our Time Episode und ordne das alles bzgl. dessen was ich in diesem Beitrag sagen will ein.

Los geht’s zum geschichtlichen Hintergrund des Gedichts:

[…] there is no question in this age’s perspective, that God is the ultimate, should be the ultimate focus of human endeavor.

Soweit ich weisz, war Oppenheimer nicht religiøs (und wenn dann war er ohnehin Jude, aber zum Glueck muss ich da im Weiteren keine groszen Unterscheidungen machen, denn das faellt ja alles unter die abrahamitischen Religionen) und er wuchs auch nicht unter besonders religiøsen Umstaenden auf. Es is aber wichtig daran zu denken, dass wir in einem sozialen und gesellschatlichen Umfeld aufwachsen welches vom „Religiøsen“ durchdrungen ist. Oder anders: wir alle haben eine mehr oder weniger konkrete Vorstellung davon „wer“ oder „was“ mit „Gott“ gemeint ist.
Bzw. kønnen wir von einem (mehr oder weniger) konkreten „Gott“ zu „etwas Høherem als uns selbst“ abstrahieren … Letzteres kønnte „die Wahrheit“, die Gesellschaft, die Zukunft, die Wissenschaft und andere solche Sachen sein. Und wenn wir dann ein Gedicht lesen in dem ein ganz konkreter christlicher „Gott“ gemeint ist (wasauchimmer das ist), dann kønnen wir die persønliche Interpretation auf das „Høhere als wir selbst“ anwenden. Bzw. kann das Gedicht aus eben diesem Grund immer noch aehnliche Gefuehle und Gedanken ausløsen wie im urspruenglichen, religiøs motivierten Kontext.

Ich bin aber noch nicht fertig mit dem abstrahieren urspruenglich streng religiøser Ideen. Die allermeisten Menschen haben auch ein Konzept von „Suende“. Waehrend das Wort „Suende“ eine massiv religiøse Konnotation hat, so ist es im Grunde ganz einfach zu verstehen als alles, was die Gesellschaft „das Høhere als man selbst“ missbilligen wuerde. Das beginnt mit ganz alltaeglichen Sachen die man mit „du solltest dich schaemen“ kommentieren kønnte — bspw. den Geldbecher eines Bettlers zur Seite treten. Und es reicht zu sehr abstrakten Sachen bei denen die meisten Menschen vermutlich nicht verstehen wuerden, warum man das als „Suende“ deklarieren sollte — ganz konkret in diesem Zusammenhang: den Bau einer Waffe mit der die Guten den Krieg gewinnen und die verhindert hat, dass hunderttausende von eben jenen Guten sterben muessen (ich werde das unten noch mehr einordnen und erweitern).

Ausgehend von „[…] God […] should be the ultimate focus of human endeavor“ folgt:

[…] the individual becomes the seeker after unification with God […]

Gleich wird klarer wie das (im hiesigen Zusammenhang) einzuordnen ist. Obiges Zitat ist gefolgt von:

[…] [the seeker is] trying to forge this relationship between the divine, which he knows should exist.

Und Oppenheimer hat ganz klar „the divine“ erlebt … nicht im religiøsen Sinn, aber insofern, dass er die Schønheit des Universums, ausgedrueckt in den Formeln der Physik (siehe auch hier), ganz konkret erlebt hat und ihm das auch eindeutig auf persønlicher Ebene sehr viel Kraft und „Glauben“ (an die Physik / die Wissenschaft / das Universum) gibt.

Im Film wird das an verschiedenen Stellen ausgedrueckt. Bspw. ist er als junger Student nicht gluecklich; er ist von einem scheinbar (?) chaotischen Universum (ausgedrueckt durch wilden „Funkenflug“) emotional ueberwaeltigt. Und dann aber gibt’s ’n Knackpunkt in seinem Leben. In der ganz exzellenten (fuer Leute die wenig wissenschaftliche Texte lesen aber mglw. „schwer verdauliche“) Biographie …

… wird dargelegt, inwiefern das zeitlich auf einen Sommer eingegrenzt werden kann; wir wissen aber nicht was in dem Sommer wirklich passierte, was zu einer derart fundamentalen (positiven) Aenderung von Oppenheimers Gemuetszustand fuehrte. Besagter Sommer wird (zu Recht) nicht im Film behandelt, aber der „wilde Funkenflug“ wird gleichmaesziger (im Sinne von „von Formeln vorhersagbar“) und Oppenheimer ist fortan in der Lage mit dem vermeintlichen (?) Chaos des Universums zu leben, gar es direkt zu konfrontieren — im Film schmeiszt er Glaeser kaputt … Kristall, Form und Funktion werden zu chaotischen Splittern auf dem Boden … und Oppenheimer verzweifelt darueber (nicht mehr). Ich gebe zu, dass ich diese kurze Szene lange nicht einordnen konnte. Erst beim 8. oder 9. Mal schauen ist mir aufgefallen was hier eigentlich thematisiert wurde und wie krass gut das filmisch und kuenstlerisch ist (auch wenn es natuerlich von Buch und historischer Realitaet abweicht).

Oppenheimer schafft es also eben diese „relationship [with] the divine“ herzustellen und er wird dann ein „Prediger“ — er bringt die Schønheit der Quantenphysik nach Amerika um sie dort vielen Menschen zu lehren.

Dann ist es aber diese Schønheit des Universums, diese wundervolle Physik, die zum Bau eben jener Waffe fuehrt, welche den Untergang des einzigen bewussten Beobachters zur Folge haben kann … und ohne einen Beobachter hørt die Schønheit („the divine“) auf zu existieren.
DAS ist der bereits oben erwaehnte „Suendenfall“ … persønlich fuer jeden involvierten (nicht nur) Physiker, aber auch der Physik an sich und ich wuerde auch argumentieren der Menschheit als Ganzes … (potentieller) Selbstmord ist im in den abrahamitischen Religionen eine der schlimmsten Suenden.
Und Oppenheimer nicht nur mittendrin als eine „Rad im Getriebe“, sondern als der „Architekt“ eben dieses „Suendenfalls“ — was natuerlich seine „relationship [with] the divine“ zunichte macht.

Aber bis zum Testen der allerersten Atombombe war die „Buechse der Pandora“ noch nicht geøffnet. Man haette all das alles innerhalb der „relationship [with] the divine“ (also innerhalb der Physik) noch als „intellektuelle Uebung“ ansehen kønnen.
Oppenheimer ist sich dem zutiefst (!) bewusst. Und als es dann daran geht aus der „intellektuellen Uebung“ eine Realitaet zu machen, ist er sich bzgl. des „[forging a] relationship [with] the divine“ klar, dass

[…] his flawed, his sinful body prevents him from doing [so].

Oder anders: Adam & Eva wurden nach dem Suendefall aus dem Paradies vertrieben; ihre er- und gelebte Verbindung zu „the divine“ wurde getrennt … und Oppenheimer ist (via des besagten Tests) dabei genau diese (von ihm gefuehlte) Verbindung zu trennen.

Kein Wunder also, dass ihm in dem Moment als Groves ihn fragt wie sie den Test nennen sollen, das Gedicht von John Donne ins Gedaechtnis kommt:

Batter my heart, three-person’d God […]

Denn es geht so weiter:

[…] for you
As yet but knock, breathe, shine, and seek to mend;
That I may rise and stand, o’erthrow me, and bend
Your force to break, blow, burn, and make me new.

Der Gast in In Our Time sagt bezueglich John Donne dazu:

[…] that desire to be made new is a fear, of course, that God is not making him new. Why are you not making me new? And does that mean that I am not saved? Does that mean that I am condemned, literally, to die both a physical death but also a spiritual death?
And that feeling […] is something that haunts Donne.

Wie oben gesagt denke ich, dass diese Interpretation ohne wesentliche Abstriche auf Oppenheimer uebertragen werden kann. Gueltig ab  dem Zeitpunkt an dem er die Leitung des Manhattan Projekts uebernommen hat, bis zum Ende seines Lebens. Auch wenn (nicht nur) er sich anfangs mit der empfundenen Notwendigkeit des Projekts aus der eigenen Verantwortung „herauszureden“ versucht bzw. bis zum ersten Test noch die Hoffnung hat, dass dieses entsetzliche „Geschenk an die Menschheit“ „ungeøffnet“ bleiben kann … aber zu dem Zeitpunkt direkt vor dem Test war Ersteres schon nicht mehr møglich (die Nazis waren besiegt) und mit dem Test ist die „Buechse der Pandora“ unwiderbringlich geøffnet.

Und DAS, und wie sich dies ganz konkret in einem Menschen, eben Robert J. Oppenheimer, manifestierte, ist das zentrale Thema des Films und wird eigentlich sogar noch besser ausgedrueckt in den Szenen die ein bisschen vor, aber hauptsaechlich nach der Explosion spielen.

Oppenheimer nimmt die „kollektive Schuld“ der Physiker, der Wissenschaftler, auf sich und versucht fortan die Menschheit davon zu ueberzeugen, dass wir besser sein kønnen, ja besser SIND als in unserer gesamten Geschichte vorher. Und fuer die grosze „Suende“ die er auf sich geladen hat, wurde er in eben jenem  Security Clearance Hearing, welches grosze Teile des Films einnimmt, „gekreuzigt“.

Die Physiker … als mehr oder weniger diffuse Gruppe, wobei Einzelne davon ausgenommen sind (am prominentesten sicherlich Edward Teller) … sind sich dem bewusst (und sehr erleichtert), dass Oppenheimer die „kollektive Schuld“ an diesem „Suendenfall“ anerkennt und auf sich nimmt. Da kann ja keiner drueber reden. Zum einen ist das viel zu abstrakt (ich bezweifle leider, dass ich es in diesem Beitrag schaffe klar genug zu machen was ich meine). Zum Anderen wird die Bombe nach dem 2. Weltkrieg als groszer Erfolg und die Physiker als „Helden“ von der Gesellschaft (also dem „Høheren als man Selbst“) gefeiert. Ein „Sundenfall“ ist es dennoch und jemand muss dafuer „bestraft“ werden … das folgt aus dem (mitnichten klar definierten) Konzept der „Suende“, welches wir alle in uns tragen.
Wenn ich das in seiner Biographie richtig verstanden habe, dann hat Oppenheimer das auch tatsaechlich so aehnlich empfunden … was vermutlich ein wichtiger, wenn nicht gar der Hauptgrund war, weswegen er sich in dem Security Clearance Hearing nicht wirklich zur Wehr setzte.

Die Physiker (siehe die obigen Einschraenkungen) wuerdigen das persønliche Opfer Oppenheimers, weil sie selber dadurch von einer empfunden „Schuld“ entbunden wurden … so aehnlich wie Jesus im chrsitlichen Glauben fuer alle unseren (!) Suenden starb, damit wir die Møglichkeit haben „[to forge a] relationship [with] the divine“. Im Film dargestellt durch David Hill’s Aussage waehrend der Anhørung zur Nominierung von Lewis Strauss zum Secretary of Commerce (hier ab Seite 429, durchaus interessant zu lesen).

Und mehr gibt’s dazu nicht zu sagen.

Es war (leider) rational die Atombombe zu bauen aber diese war (und ist) der Suendenfall der Physik (und der Physiker). Die Disziplin, ja die wissenschaftliche Methode an sich, welche die Schønheit des Universums allen Menschen zugaenglich machte, schaffte eben aus dieser Schønheit auch das Mittel welche selbige vernichten kann, indem es „die Atmosphaere entzuendet“ (beinahe im wortwørtlichen und definitiv im uebertragenen Sinne). Und Oppenheimer nahm die „Schuld“ dafuer persønlich, und auch fuer das „Kollektiv aller Wissenschaftler“, auf sich.
DAS ist worum es in Oppenheimer geht und meiner Meinung nach ist das vom Regisseur brilliant (innerhalb der Beschraenkungen die das Medium „Blockbuster“ mit sich bringt) umgesetzt worden.

Kein Wunder also, dass mich dieser Film so fasziniert, dass er mir so nahe geht. Denn auch mir faellt es schwer die wunderbare Physik mit der Realitaet der Atombombe in Einklag zu bringen … dank postmoderner Herangehensweise benøtige ich zum Glueck keinen Einklang (den es vermutlich auch gar nicht gibt), es bedrueckt mich trotzdem … und der Film stellt das so toll dar und erlaubte mir das hier (øffentlich) ganz vage, diffus und unzulaenglich verkuerzt, auszudruecken.

Uff … vor einer Weile war ich dabei die „Ausgangspositionen“ zu reproduzieren. Damals ging’s danach mit ganz vielen Verteilungen weiter. Ich denke aber, dass es sinnvoller ist das noch ein wenig hinten anzustellen und erst mal alles was ich sonst noch habe, was mehr oder weniger ins Thema „Ausgaenge“ passt, abzuhandeln. Dazu muss ich aber zeitlich etwas vorspringen, denn erst im Zuge meiner versuchten Simulation der Entwicklung der Selbstreferenzen von einem Linklevel zum naechsten, schnitt ich besagtes Thema damals wieder an; auf zwei verschiedene Weisen.

Die erste Weise war in Form der Abhaengigkeit der Anzahl der „Ausstiege“ in den Selbstreferenzkurven von der Anzahl der Selbstreferenzen an sich (pro Linklevel). Ich schaute mir das aber nicht fuer alle Linklevel an (recht schnell gibt’s da naemlich nix mehr zu holen … einfach weil’s bei hohen Linkleveln so wenige Selbstreferenzen gibt), sondern nur fuer ein paar beispielhaft Ausgewaehlte. Deswegen reproduziere ich hier auch nur drei der Beispiele:

Hier jibt’s auszer „Reproduktion jelungen“ nuescht zu sagen … wuerd ich mal sagen. Fein, dass das auch mal schnell geht.

Die zweite Weise war in der Form von „Reaktivierungen“. Kurze Wiederholung (zur „Reaktivierung“ des bereits Gelernten … hihi) Eine „Reaktivierung“ findet statt, wenn eine Kurve bereits auf einem niedrigen Linklevel ausgestiegen ist und dann auf einem høheren Linklevel doch nochmal einen Wert ungleich Null annimmt. Das kann nur bei den Selbstreferenzen passieren und die letzten zwei Beitraege wurden geschrieben, weil ich mir damals nicht bewusst war, dass das møglich ist (im Nachhinein haette ich mir das aber durchaus denken kønnen), was zu einem (schwerwiegenden) Fehler fuehrte.

Wenn ich jetzt nach den Reaktivierungen pro Linklevel schaue sei so viel gesagt, dass ich nach „Reaktivierungen“ (!) derart schaue, dass ein Wert bei einem gegebenen Linklevel UNgleich Null sein muss, aber beim direkt davor liegenden GLEICH Null. Das bedeutet, auf LL0 kann es keine Reaktivierungen geben. Das bedeutet auszerdem, dass das allererste Auftreten einer Selbstreferenz IMMER als „Reaktivierung“ detektiert wird, abgesehen von Seiten die auf LL0 eine Selbstreferenz haben (von denen gibt es aber nicht so viele). Das geht mehr oder weniger direkt in die Sache(n) hinein, die ich ausfuehrlich die letzten zwei Male diskutierte … was hier aber wenig zur Sache tut, denn man kønnte das einfach so interpretieren wie bei flachen Kurven: ein Wert von Null auf LL0 wird als erster „Ausgang“ gezaehlt und alles andere danach ist ’ne „Reaktivierung“ … deswegen geh ich da nicht weiter drauf ein.

Und das Ergebnis ist das hier:

Ja, das liegt in der Natur der Sache, dass das dem Diagramm der Selbstreferenzen“ausgaenge“ pro Linklvel sehr aehnlich sieht.
Auf den ersten und zweiten Blick wirken die 2020 Daten und die 2023 Daten ziemlich gleich und ich wuerde sagen, dass auch hier die Reproduktion gelungen ist. Aber beim dritten Blick finde ich’s schon interessant, dass bei Linkleveln ueber ca. LL40 die 2023 Daten systematisch ungefaehr ’ne Grøszenordnung unter den 2020 Daten liegen.
Wir sprechen hier aber von kleinen absoluten Zahlen. Wenn man bspw. sowieso schon nur 10 Seiten hatte die auf LL50 „reaktiviert“ wurden, dann muss da nicht viel passieren, damit die dort nicht mehr auftauchen.
Andererseits, scheint das (wie gesagt) systematisch zu sein und wer anders sollte das mglw. mal genauer untersuchen.

Huch … das ging auch schøn schnell … naja, ’nem geschenkten Gaul usw. … dann soll’s damit auch reichen reichen fuer heute.

Vor laengerer Zeit machte ich auf das Phaenomen der „Verkrabbung“ aufmerksam und fragte mich was das Geheimniss dahinter ist, dass in der Geschichte des Lebens der Uebergang zur Krabbenform bereits mindestens fuenf Mal stattgefunden hat.

Ungefaehr ein Jahr spaeter stolperte ich ueber die Knurrhaehne, die aktiv daran arbeiten zu Krabben zu werden.

Heute nun stolperte ich darueber, dass nicht nur lebende Wesen Krabben werden, sondern auch PlayStations! Genauer gesagt die PS One:

Quelle (und das ist dort sogar vom urspruenglichen Schøpfer), wie immer steht keine Lizens dran … *seufz*

Das Video zum Playstacean Projekt vom originalen Schøpfer ist durchaus interessant zu schauen. Es ist immer fein Leuten dabei zuzusehen und -høren, die mit Leidenschaft von ihren Projekten erzaehlen.

Wieauchimmer, Verkrabbung hat jetzt auch die unbelebte Materie erreicht. Ich prophezeie, dass unsere zukuenftigen AI-Herrscher in Krabbenform daherkommen werden.

Es steht ja schon alles im Titel, deswegen an der Stelle nur das Beweisfoto:

Das ist im Hiroshima Peace Memorial Park und ich fand’s kurios, insb. weil der Grasbewuchs unter dem Baum eher spaerlich war (ich wuerde vermuten wegen den vielen Besuchern die dort langlatschen).

Es gibt dort (was nicht unweit des „Ground Zero“ der Atomexplosion ist) Baeume, die vøllig verbrannt waren nach dem Inferno, Selbiges aber ueberlebten und im Jahr darauf wieder bluehten (kurzer BBC Beitrag dazu). Diese Baeume werden seitdem natuerlich sehr in Ehren gehalten.

Ich bin mir aber unsicher ob der Baum im Bild dazu gehørt. Ebenso weisz ich nicht, ob der Grasbewuchs normal ist, oder nur daher kommt, dass man gerade derartig spezielle Baeume (sollter der im Bild denn ein solcher sein) im Prinzip ungestørt wachsen laeszt (und deswegen Gras Zeit hat sich dort anzusiedeln).

Wieauchimmer, fuer mich Nordeuropaer war’s was Besonderes und deshalb hielt ich es fest.

Direkt an das letzte Mal (also ohne Wiederholungen) anknuepfend:

Super! Reproduziert … … … … … … … … … aber hmmmm … hier stimmt doch was nicht!

Am Anfang des letzten Artikels beschrieb ich die alte Vorwaertsmethode doch gar nicht mit „schaue wann der NAECHSTE Wert Null ist“ (auch wenn ich derart die damaligen Daten reproduzieren konnte; siehe das dritte Diagramm beim letzten Mal), sondern „schaue wo der ERSTE Wert Null ist“. Ich muss also die „wenn der Wert auf einem gegebenen Linklevel UNgleich Null ist“ Bedingung zu „wenn der Wert auf einem gegebenen Linklevel GLEICH Null ist“ modifizieren und NUR dies benutzen um nach „Ausgaengen“ zu suchen. Das sieht dann so aus:

Verdammt! Wenn ich das was ich sagte (und meinte) ordentlich implementiere, dann sieht das zwar von der Form aehnlich aus, aber liegt im Wesentlichen ueberall ([zum Teil sehr deutlich] mehr als) eine Grøszenordnung UNTER den Ergebnissen von damals (und damit auch unter den Ergebnissen der Rueckwaertsmethode).
Aber da stimmt immer noch was nicht … ich kønnte mich da zwar gewaltig taeuschen, aber ich kann mich nicht erinnern, dass ich damals „schau ob der NAECHSTE Wert Null ist“ implementiert hatte. Wie bin ich dann aber auf die Ergebnisse gekommen?
Ueber die Antwort stolperte ich in anderen Beitraegen (die ich vermutlich naechstes Mal versuchen werde zu reproduzieren) und die ist trivial — ich hab (unbewusst) geschummelt:

[…] die Skala fuer das Linklevel [geht] erst bei 2 los. Auf LL1 kann nix reaktiviert werden.

Oder anders: ich fange an „Ausgaenge“ erst ab LL1 zu suchen (anstatt bei LL0). Und wenn ich schummel, dann erhalte ich tatsaechlich die Ergebnisse wie damals (siehe das erwaehnte dritte Diagramm im vorhergehenden Beitrag). Das entspricht naemlich dem Algorithmus „schaue ob der NAECHSTE Wert Null ist“, angefangen bei LL0, denn dabei steht man zwar am Anfang auf LL0 schaut aber als allererstes auf LL1.

Oder noch anders: die urspruengliche (!), damals benutzte (?) Vorwaertsmethode war ueberhaupt nicht so wie ich die beschrieben hatte. Vielmehr implementiere ich das damals mit der UNZULAESSIGEN (!) Zusatzinformation, dass Selbstreferenzen ohnehin nicht vor LL1 losgehen kønnen. Das ist aus zwei Gruenden unzulaessig. Zum Einen gibt es durchaus Seiten die Selbstreferenzen auf LL0 haben (auch wenn ich das als Artefakte des Dateneinsammelns erkannt habe). Zum Zweiten macht das die Vorwaertsmethode nur fuer Selbstreferenzen (und nicht allgemein) brauchbar, denn alle anderen Grøszen von Interesse MUESSEN auf LL0 anfangen.

Und hier liegt der schwerwiegende Fehler. Ich habe urspruenglich eine Methode benutzt die zum Ersten nicht gut ist und nur (wie im Nachhinein erkannt) mit Zusatzannahmen ordentliche Ergebnisse liefert. Zum Zweiten bei richtiger Implementierung (also ohne Zusatzannahmen oder erweiterte oder modifizierte Bedingungen, also genau so wie ich die Methode beschrieben habe) Ergebnisse zur Folge hat, die etwas vøllig anderes liefern als das was ich eigtl. suche. Und zum Dritten erhielt ich damals nur deswegen irgendwie (?) richtige (?) Ergebnisse, weil ich durch „schummeln“, die Diskrepanzen des zweiten Punktes unbewusst und unerkannt, also aus Versehen, kompensiert habe.

DAS ist eine Art Fehler die wissenschaftliche Arbeiten fundamental zu Fall bringen.

Mich duenkt (bin mir aber nicht ganz sicher) ich erwaehnte das Folgende bereits an anderer Stelle. Im Wesentlichen kønnen alle Fehler in der Wissenschaft in zwei Kategorien eingeordnet werden.
1.: Berichtigungen,
2.: die Methode ist komplett falsch weil zugrundeliegende Annahmen oder Methoden Quatsch sind.

Berichtigungen sind OK und wichtig. Die kønnen auch die Methode kritisieren und kønnen flapsig als „man muss aber diesen Effekt auch beachten und dann korrigiert das Ergebniss 5 % nach unten“ bezeichnet werden. Rein vom „Rechnerischen“ kønnte man das bzgl. der Korrekturen an Newtons Vorhersagen durch Einsteins Gravitationstheorie sagen. Und rein vom Rechnerischen ist das auch OK und die Menschenhheit hat mittels Netwons Theorie Menschen auf den Mond gebracht. Aber …

… Newton meinte von seiner Gravitationstheorie, dass diese das Universum beschreibt, waehrend Einstein zeigte, dass die grundlegenden Annahmen Newtons, ein universales Koordinatensystem, auf das man von ueberall aus Bezug nehmen kann und instantan wirkende Kraefte, komplett ueberhaupt nicht der Realitaet entsprechen. Newtons Theorie geht von so falschen Annahmen aus, dass Einstein die Theorie komplett zu Fall gebracht hat.
Newtons Theorie funktioniert verdammt gut fuer alles was uns im normalen Leben interessiert, denn da sind seine Annahmen zwar (auch) nicht realisiert, aber weil nur kleine Gravitationsfelder und Geschwindigkeiten vorliegen ist das nicht so schlimm und es fuehrt nur zu winzigkleinen Fehlern, wenn man so tut als ob sie realisiert sind. Das fuehrt aber NICHT dazu, dass Einsteins Gravitationstheorie nur zu einer Berichtigung wird, denn selbst bei kleinen Gravitationsfeldern und Geschwindigkeiten beschreibt Newtons Theorie das Universums nicht wirklich, denn Newtons Theorie laeszt bspw. Gravitationswellen nicht zu.

Und der Punkt bleibt selbst dann bestehen, wenn aus Newtons Theorie die „richtigen Zahlen rausfallen“. Ein anderes Beispiel was meinen Punkt mglw. etwas besser illustriert sind „KI“ Chatbots. Wir sind laengst nicht mehr in der Lage die von echten Menschen zu unterscheiden (wenn wir es nict vorher wissen). Oder anders: es „fallen die richtigen Zahlen“ bei einem Gespraech mit denen raus. Das macht solche „KI“ Chatbots noch laengst nicht zu Menschen. Auch dann nicht, wenn sie in Roboter installiert werden, die aueszerlich nicht von Menschen unterschieden werden kønnen (wenn „die Zahlen“ also noch „richtiger“ werden). Und das Argument bleibt auch dann bestehen, wenn man die Anfuehrungszeichen weg laeszt und man irgendwann echte Intelligenzen (nur eben auf Silizium basierend) hat, denen man dann meiner Meinung nach sogar Persønlichkeitsrechte einraeumen muss … das sind immer noch keine Menschen … selbst dann nicht wenn wir sie wie Menschen behandeln (siehe bspw. der Film Her … „die Zahlen“ als noch „richtiger richtiger“ werden) … es sei denn natuerlich, wir veraendern die Definition von „Mensch“ (und damit die zugrundliegende Theorie) fundamental.

Und wer mir jetzt mit „Aber aber aber! Newton ist richtig, denn wir bauen damit doch Bruecken und bringen Menschen auf den Mond und ich soll mal bitte nicht so’n Erbsenzaehler sein“ kommt, den verweise ich auf Aristoteles. Denn der hat gesagt, dass jeder bewegte Gegenstand AUTOMATISCH zur Ruhe kommt, wenn man den in Ruhe laeszt. DAS beschreibt die Welt um mich herum, wie ich sie den ganzen Tag sehe und erlebe, VIEL besser als Newtons erstes Gesetz. Deswegen war es DIE akzeptierte Wahrheit bzgl. dessen wie die Welt funktioniert fuer Jahrtausende. Als Newton formulierte, dass dem NICHT so ist, war es damals auch direkt als Widerlegung von Aristoteles gemeint. Und wer mir so kommt, møge mir bitte detailliert darlegen, warum er das auf Newton, aber nicht auf Aristoteles bezieht … Aber ich schwoff ab.

Oder anders: „KI“ Chatbots als Menschen zu behandeln, oder mit Netwons Gravitationstheorie (bisher ausschlieszlich) Maenner auf den Mond zu bringen, reproduziert zwar was wir messen, es beschreibt aber nicht das Universum.

Und deswegen hab ich das beim letzten Mal (und hier) alles so detailliert ausgebreitet. Auf den ersten Blick sieht’s so aus als ob die zwei Methoden um „Ausgaenge“ zu finden nicht viel anders sind und alle Unterschiede in den Ergebnissen natuerlich erklaert werden kønnen. Als ich aber genauer hinschaute erkannte ich, dass eine ordentliche Implementierung der urpsruenglich diskutierten Vorwaertsmethode eigentlich vøllig andere Ergebnisse zur Folge hat und das damals nur durch weitere, nicht erkannte, Fehler (bzw. unzulaessige Zusatzannahmen) kompensiert wurde.

Und DAS ist ein schwerwiegender Fehler der zweiten Art und ich kann hier eigentlich nur sagen: Reproduktion NICHT geglueckt.

Solche Fehler passieren und das ist auch erstmal nix Schlimmes. Es ist durchaus auch ein Zeichen von Fortschritt, denn ein Fehler wird ja erst dann zum Fehler wenn man den als solchen erkennt (vorher ist’s einfach nur richtig und die Wahrheit). In der Wissenschaft sollte man das dann halt nur eingestehen und genau diskutieren um zu erkennen was falsch gemacht wurde, damit man aehnliche Fehler an anderer Stelle nicht wiederholt.

So, nun hab ich alles gesagt, was ich sagen wollte un kann mit ruhigem Gewissen beim naechsten Mal endlich die naechste Reproduzierung angehen.

Datum: Sommer 2022 (bin gerade zu faul den genauen Tag rauszusuchen), Zeit: frueher Nachmittag, Ort: Trinity College, Cambridge.

Auch wenn ich Newton und seiner Arbeitsweise (NICHT seinen Ergebnissen in den Naturwissenschaften) eher kritisch gegenueber stehe: fetzt wa!

Ach so … zur Sicherheit sei es gesagt: es ist der kleine Baum hinter mir, nicht der dicke Grosze dessen Krone sich links ins Bild streckt.

OKOK … ich gebe zu, dass das nicht das Original im herkømmlichen Sinne ist. ABER genetisch ist es vom Original nicht zu unterscheiden, denn es handelt sich dabei um einen Klon … cool wa!

Ebenso fetzig ist, dass eins der kleinen Fenster da hinten zu dem Raum gehørt, in dem Newton lebte waehrend er in Cambridge studierte.

Letztes Mal reproduzierte ich die „Aussteiger“. Dabei benutzte ich aber eine etwas andere Herangehensweise als damals. Ich erwaehnte nur kurz, dass die damalige Herangehensweise etwas „haarig“ war in Bezug auf Selbstreferenzen, da die entsprechenden Kurven nicht nur und ausschlieszlich am Ende des (seitenabhaengigen) Linknetzwerks „aussteigen“, sondern das auch schon auf fruehen Linkleveln tun kønnen … um dann u.U. auch wieder „reaktiviert“ zu werden auf nachfolgenden Linkleveln.
Wieauchimmer, da beide Herangehsenweisen zur Ermittling der „Aussteiger“ bei den anderen Grøszen von Interesse zum selben Ergebnis fuehren, und auch das Diagramm der Selbstreferenzen auf den ersten Blick nicht all zu unterschiedlich war, habe ich mich darum zunaechst gar nicht weiter gekuemmert und nur mit …

[d]eswegen sind die roten Balken im linke[n] Diagramm hier nicht identisch zum damaligen Diagramm

… kommentiert.

Natuerlich hat mir das keine Ruhe gelassen, und ich wollte schauen wie grosz die Diskrepanz ist. … … … Und ach du Schreck! … da hab ich ja einen wirklich ernstzunehmenden Fehler gemacht.
Aber der Reihe nach und heute nur mit den 2020 Daten denn hier muss nix in dem Sinne reproduziert werden, denn ich will ja den Fehler diskutieren.

Zur Erinnerung: die neue Herangehensweise findet den „Ausgang“ derart, dass vom Ende einer Kurve, in Richtung Anfang gehend, geschaut wird, bei welchem Linklevel der Wert der Kurve zum ersten Mal UNgleich Null ist. Die damalige Herangehensweise hingegen schaute vom Anfang einer Kurve, in Richtung Ende gehend, bei welchem Linklevel der Wert der Kurve zum ersten Mal GLEICH Null wird.
Wie gesagt, ist das, von den Selbstreferenzen abgesehen, kein Problem, da alle anderen Grøszen von Interesse „durchgehende“ Kurven haben und beide Methoden das selbe Ergebnis liefern. Aber es geht ja um genau diese Selbstreferenzen.

Hier sieht man den Unterschied der Aussteiger-per-Linklevel-Kurven-der-Selbstreferenzen wenn man das wie damals macht (schwarze Punkte, vorwaerts nach der erste Null suchend) bzw. besser (rote Quadrate, rueckwaerts nach dem ersten Wert der ungleich Null ist suchend):

Achtung: Damals hatte ich das Linklevel beim dem zum ersten Mal null Selbstreferenzen auftreten als „Ausgang“ deklariert, waehrend es nach der neuen Methode das Linklevel direkt davor ist was ja noch einen Wert ungleich null hat. Die Punkte von damals wurden dahingehend um ein Linklevel nach Links verschoben; das gilt auch fuer alle folgenden Diagramme.

Das scheint anfangs qualitativ (!) recht gut uebereinzustimmen (davon abgesehen, dass ich damals „flache“ Kurven nicht extra bedacht hatte). Quantitativ gibt’s zwar zum Teil zahlentechnisch grosze Unterschiede die man wg. der logarithmischen Skala (fast) nicht wahr nimmt, das ist aber nicht so wichtig, denn alles was ’n Unterschied von ’nem Faktor weniger als ’ne Grøszenordnung hat ist schon OK.
Was mich zu Werten ueber LL10 bringt; denn ab dort erhaelt man mit der (neuen) Rueckwaertsmethode ca. ’ne Grøszenordnung mehr „Ausgaenge“ als mit der (alten) Vorwaertsmethode.

Aber das ist NICHT der schwerwiegende Fehler, denn das ist erklaerbar mittels „Reaktivierungen“. Es passiert dass eine Kurve die schon „ausgestiegen“ ist, auf einem høheren Linklevel „reaktiviert“ wird. Das ist dann meistens nur das eine einzige Linklevel (oder vllt. auch mal zwei oder drei), auf dem pløtzlich nochmal eine Selbstreferenz auftaucht. Das fuehrt dann natuerlich zu einem weiteren „Ausgang“ (es ist halt nur nicht der erste „Ausgang“ fuer eine gegebene Kurve) der von der Rueckwaertsmethode erkannt wird, wenn es denn der Letzte ist.
Damit die Vorwaertsmethode so weit hinten einen „Ausgang“ registriert, muss die entsprechende Kurve ohne Unterbrechung mindestens eine Selbstreferenz auf jedem Linklevel bis dorthin gehabt haben. Eine so lange ununterbroche Kette von Selbstreferenzen zu haben hat natuerlich eine sehr kleine Wahrscheinlichkeit, weswegen die Vorwaertsmethode bspw. auf LL35 nur einen „Ausgang“ registriert, waehrend die Rueckwaertsmethode 45 „Ausgaenge“ aufspuert (wovon der eine von der Vorwaertsmethode darunter ist).
In anderen Worten: die Diskrepanz hat eine Erklaerung die aus der Natur der unterschiedlichen Methoden kommt, und insb. weil es sich hierbei um eher kleine absolute Zahlen handelt, macht mich der Unterschied nicht wirklich stutzig.

Nun arbeite ich aber an der Reproduzierbarkeit und da ist’s kontraproduktiv die Methode zu aendern (auch wenn es die bessere Methode ist). Das wurmte mich und deswegen setzte ich mich ran und hackte kurz die Vorwaertsmethode zusammen. Weil ich gute Vorarbeit geleistet habe ging das recht fix. … … … Und hier ging der „Aerger“ los.

Alles fing damit an, dass ich mittlerweile von „flachen“ Kurven (also solchen die keine einzige Selbstreferenz haben) gelernt hatte. Damals hatte ich die ueberhaupt nicht beachtet. Nun wollte ich die aber mit unterbringen. Deswegen muss ich nochmal kurz auf die Rueckwaertsmethode zu sprechen kommen und erklaeren warum die der Vorwaertsmethode ueberlegen (und vorzuziehen) ist um die „Ausgaenge“ zu bestimmen.

Es gibt bei der Rueckwaerrtsmethode nur zwei Bedingungen und alles andere folgt zwingend aus denen. Erstens: geh rueckwaerts, Zweitens: der erste Wert ungleich Null ist der Ausgang. Simpler als das geht’s nicht. Und wenn man mal nachdenkt ist die erste Bedingung keine richtige Bedingung denn man kann eine Dynamik nicht erforschen, wenn man sich nicht bewegt; man braucht also zwingend eine „Bewegungsrichtung“. Wichtig ist nur zu wissen, wann man stoppen muss (wann man also das gefunden hat wonach man sucht). Ich sage jetzt also mal, dass es nur EINE Bedingung gibt … einfacher geht’s nicht.
Man sieht leicht, dass da automatisch der „wahre Ausgang“ rausfaellt, denn bei der Rueckwaertsmethode muss man sich nicht drum kuemmern ob eine Kurve mehrere vorherige „Ausgaenge“ hat und dann nochmal „reaktiviert“ wird. Auszerdem folgt automatisch dass eine Kurve flach ist wenn man bis LL0 kommt und kein einziger Wert ueber Null liegt.

Nun zurueck zur Vorwaertsmethode; im Namen liegt bereits die „Bewegungsrichtung“, womit das gegessen ist. Oben schrieb ich, dass ich schaute, wann der erste Wert Null wird als „Ausgangsbedingung“. Das alleine ist zunaechst eine genauso simple Regel aehnlich bei der Rueckwaertsmethode. Die ist aber leider nur notwendig und nicht hinreichend. Insb. dann wenn man flache Kurven unterscheiden will, denn bei denen liegt ja bereits auf LL0 der Wert Null vor … ich kann aber nicht entscheiden ob eine Kurve flach ist, ohne durch alle Linklevel durchgegangen zu sein.
Deswegen muss man eine zweite Bedingung anfuehren und die Erste etwas modifizieren: ein „Ausgang“ liegt vor, wenn der Wert auf einem gegebenen Linklevel UNgleich Null und der Wert auf dem naechsten (!) Linklevel GLEICH Null ist. Kommt man am Ende aller Linklevel an und beide Bedinungen lagen nie gleichzeitig vor, hat man (automatisch) eine flache Kurve (fuer die die „gleich Null“ Bedingung ueberall gilt).

Damit erhaelt man dieses Diagramm:

Das sieht auf den ersten Blick ganz gut aus. Es gibt ein rotes Quadrat bei LLminus 1 fuer die flachen Kurven und deswegen stimmen die Werte bei LL0 nicht ueberein (denn frueher hatte ich beides in LL0 zusammengefasst). Das ist also OK … Aber Moment mal! Wieso findet die neue Vorwaertsmethode einen Wert bei LL27 (und ein paar anderen Linkleveln) die alte aber nicht? Und ueberhaupt scheinen die schwarzen Punkte und Quadrate etwas gegeneinander verschoben zu sein! (Das sieht man bei linearer Ordinate deutlich deutlicher). Beides sollte nicht vorkommen, ich muss hier also was „falsch“ machen … Hinweis: ich habe damals was (maechtig) falsch gemacht.

Also suchte ich nach dem alten Code … und konnte den nicht finden. Ich bin mir ziemlich sicher, dass der irgendwo ist, aber der alte Code ist so ein Saustall (was ja die Motivation fuer den Reproduktionsteil des ganzen Projekts ist, weil ich eben auch den Code ordentlich machen wollte, damit ich das publizieren kann), dass ich den entsprechenden Teil nicht mittels Schlagwortsuche gefunden hab und ich wollte nicht durch mehrere tausend Linien Code lesen. Auszerdem gibt es eine gewisse Wahrscheinlichkeit, dass ich den tatsaechlich geløscht habe … das liegt an einer gewissen Eigenheit meines Modus Operandi, aber da geh ich jetzt nicht naeher drauf ein.

Also ueberlegte ich was ich damals gemacht haben kønnte und zum Glueck war mein (neuer) Code jetzt „gut sortiert“ und mittels nur einer winzigen Aenderung konnte ich die „Wert auf einem gegebenen Linklevel muss UNgleich Null“-Bedingung rausschmeiszen … denn an die hatte ich damals ja gar nicht gedacht. Es bleibt also nur „Wert auf dem naechsten Linklevel muss GLEICH Null sein“ uebrig. Und siehe da …

… das passt … Hurra! Also auszer von den Werten bei LLminus 1 und LL0 abgesehen, aber die stimmen in der Summe mit dem alten Wert bei LL0 ueberein. Super! Reproduziert … … … … … … … … … aber hmmmm … hier stimmt doch was nicht! … … … Der Beitrag ist nur jetzt schon so lang, sodass ich den Rest der Diskussion auf’s naechste Mal verschiebe.