Es steht ja schon alles im Titel, deswegen an der Stelle nur das Beweisfoto:

Das ist im Hiroshima Peace Memorial Park und ich fand’s kurios, insb. weil der Grasbewuchs unter dem Baum eher spaerlich war (ich wuerde vermuten wegen den vielen Besuchern die dort langlatschen).

Es gibt dort (was nicht unweit des „Ground Zero“ der Atomexplosion ist) Baeume, die vøllig verbrannt waren nach dem Inferno, Selbiges aber ueberlebten und im Jahr darauf wieder bluehten (kurzer BBC Beitrag dazu). Diese Baeume werden seitdem natuerlich sehr in Ehren gehalten.

Ich bin mir aber unsicher ob der Baum im Bild dazu gehørt. Ebenso weisz ich nicht, ob der Grasbewuchs normal ist, oder nur daher kommt, dass man gerade derartig spezielle Baeume (sollter der im Bild denn ein solcher sein) im Prinzip ungestørt wachsen laeszt (und deswegen Gras Zeit hat sich dort anzusiedeln).

Wieauchimmer, fuer mich Nordeuropaer war’s was Besonderes und deshalb hielt ich es fest.

Direkt an das letzte Mal (also ohne Wiederholungen) anknuepfend:

Super! Reproduziert … … … … … … … … … aber hmmmm … hier stimmt doch was nicht!

Am Anfang des letzten Artikels beschrieb ich die alte Vorwaertsmethode doch gar nicht mit „schaue wann der NAECHSTE Wert Null ist“ (auch wenn ich derart die damaligen Daten reproduzieren konnte; siehe das dritte Diagramm beim letzten Mal), sondern „schaue wo der ERSTE Wert Null ist“. Ich muss also die „wenn der Wert auf einem gegebenen Linklevel UNgleich Null ist“ Bedingung zu „wenn der Wert auf einem gegebenen Linklevel GLEICH Null ist“ modifizieren und NUR dies benutzen um nach „Ausgaengen“ zu suchen. Das sieht dann so aus:

Verdammt! Wenn ich das was ich sagte (und meinte) ordentlich implementiere, dann sieht das zwar von der Form aehnlich aus, aber liegt im Wesentlichen ueberall ([zum Teil sehr deutlich] mehr als) eine Grøszenordnung UNTER den Ergebnissen von damals (und damit auch unter den Ergebnissen der Rueckwaertsmethode).
Aber da stimmt immer noch was nicht … ich kønnte mich da zwar gewaltig taeuschen, aber ich kann mich nicht erinnern, dass ich damals „schau ob der NAECHSTE Wert Null ist“ implementiert hatte. Wie bin ich dann aber auf die Ergebnisse gekommen?
Ueber die Antwort stolperte ich in anderen Beitraegen (die ich vermutlich naechstes Mal versuchen werde zu reproduzieren) und die ist trivial — ich hab (unbewusst) geschummelt:

[…] die Skala fuer das Linklevel [geht] erst bei 2 los. Auf LL1 kann nix reaktiviert werden.

Oder anders: ich fange an „Ausgaenge“ erst ab LL1 zu suchen (anstatt bei LL0). Und wenn ich schummel, dann erhalte ich tatsaechlich die Ergebnisse wie damals (siehe das erwaehnte dritte Diagramm im vorhergehenden Beitrag). Das entspricht naemlich dem Algorithmus „schaue ob der NAECHSTE Wert Null ist“, angefangen bei LL0, denn dabei steht man zwar am Anfang auf LL0 schaut aber als allererstes auf LL1.

Oder noch anders: die urspruengliche (!), damals benutzte (?) Vorwaertsmethode war ueberhaupt nicht so wie ich die beschrieben hatte. Vielmehr implementiere ich das damals mit der UNZULAESSIGEN (!) Zusatzinformation, dass Selbstreferenzen ohnehin nicht vor LL1 losgehen kønnen. Das ist aus zwei Gruenden unzulaessig. Zum Einen gibt es durchaus Seiten die Selbstreferenzen auf LL0 haben (auch wenn ich das als Artefakte des Dateneinsammelns erkannt habe). Zum Zweiten macht das die Vorwaertsmethode nur fuer Selbstreferenzen (und nicht allgemein) brauchbar, denn alle anderen Grøszen von Interesse MUESSEN auf LL0 anfangen.

Und hier liegt der schwerwiegende Fehler. Ich habe urspruenglich eine Methode benutzt die zum Ersten nicht gut ist und nur (wie im Nachhinein erkannt) mit Zusatzannahmen ordentliche Ergebnisse liefert. Zum Zweiten bei richtiger Implementierung (also ohne Zusatzannahmen oder erweiterte oder modifizierte Bedingungen, also genau so wie ich die Methode beschrieben habe) Ergebnisse zur Folge hat, die etwas vøllig anderes liefern als das was ich eigtl. suche. Und zum Dritten erhielt ich damals nur deswegen irgendwie (?) richtige (?) Ergebnisse, weil ich durch „schummeln“, die Diskrepanzen des zweiten Punktes unbewusst und unerkannt, also aus Versehen, kompensiert habe.

DAS ist eine Art Fehler die wissenschaftliche Arbeiten fundamental zu Fall bringen.

Mich duenkt (bin mir aber nicht ganz sicher) ich erwaehnte das Folgende bereits an anderer Stelle. Im Wesentlichen kønnen alle Fehler in der Wissenschaft in zwei Kategorien eingeordnet werden.
1.: Berichtigungen,
2.: die Methode ist komplett falsch weil zugrundeliegende Annahmen oder Methoden Quatsch sind.

Berichtigungen sind OK und wichtig. Die kønnen auch die Methode kritisieren und kønnen flapsig als „man muss aber diesen Effekt auch beachten und dann korrigiert das Ergebniss 5 % nach unten“ bezeichnet werden. Rein vom „Rechnerischen“ kønnte man das bzgl. der Korrekturen an Newtons Vorhersagen durch Einsteins Gravitationstheorie sagen. Und rein vom Rechnerischen ist das auch OK und die Menschenhheit hat mittels Netwons Theorie Menschen auf den Mond gebracht. Aber …

… Newton meinte von seiner Gravitationstheorie, dass diese das Universum beschreibt, waehrend Einstein zeigte, dass die grundlegenden Annahmen Newtons, ein universales Koordinatensystem, auf das man von ueberall aus Bezug nehmen kann und instantan wirkende Kraefte, komplett ueberhaupt nicht der Realitaet entsprechen. Newtons Theorie geht von so falschen Annahmen aus, dass Einstein die Theorie komplett zu Fall gebracht hat.
Newtons Theorie funktioniert verdammt gut fuer alles was uns im normalen Leben interessiert, denn da sind seine Annahmen zwar (auch) nicht realisiert, aber weil nur kleine Gravitationsfelder und Geschwindigkeiten vorliegen ist das nicht so schlimm und es fuehrt nur zu winzigkleinen Fehlern, wenn man so tut als ob sie realisiert sind. Das fuehrt aber NICHT dazu, dass Einsteins Gravitationstheorie nur zu einer Berichtigung wird, denn selbst bei kleinen Gravitationsfeldern und Geschwindigkeiten beschreibt Newtons Theorie das Universums nicht wirklich, denn Newtons Theorie laeszt bspw. Gravitationswellen nicht zu.

Und der Punkt bleibt selbst dann bestehen, wenn aus Newtons Theorie die „richtigen Zahlen rausfallen“. Ein anderes Beispiel was meinen Punkt mglw. etwas besser illustriert sind „KI“ Chatbots. Wir sind laengst nicht mehr in der Lage die von echten Menschen zu unterscheiden (wenn wir es nict vorher wissen). Oder anders: es „fallen die richtigen Zahlen“ bei einem Gespraech mit denen raus. Das macht solche „KI“ Chatbots noch laengst nicht zu Menschen. Auch dann nicht, wenn sie in Roboter installiert werden, die aueszerlich nicht von Menschen unterschieden werden kønnen (wenn „die Zahlen“ also noch „richtiger“ werden). Und das Argument bleibt auch dann bestehen, wenn man die Anfuehrungszeichen weg laeszt und man irgendwann echte Intelligenzen (nur eben auf Silizium basierend) hat, denen man dann meiner Meinung nach sogar Persønlichkeitsrechte einraeumen muss … das sind immer noch keine Menschen … selbst dann nicht wenn wir sie wie Menschen behandeln (siehe bspw. der Film Her … „die Zahlen“ als noch „richtiger richtiger“ werden) … es sei denn natuerlich, wir veraendern die Definition von „Mensch“ (und damit die zugrundliegende Theorie) fundamental.

Und wer mir jetzt mit „Aber aber aber! Newton ist richtig, denn wir bauen damit doch Bruecken und bringen Menschen auf den Mond und ich soll mal bitte nicht so’n Erbsenzaehler sein“ kommt, den verweise ich auf Aristoteles. Denn der hat gesagt, dass jeder bewegte Gegenstand AUTOMATISCH zur Ruhe kommt, wenn man den in Ruhe laeszt. DAS beschreibt die Welt um mich herum, wie ich sie den ganzen Tag sehe und erlebe, VIEL besser als Newtons erstes Gesetz. Deswegen war es DIE akzeptierte Wahrheit bzgl. dessen wie die Welt funktioniert fuer Jahrtausende. Als Newton formulierte, dass dem NICHT so ist, war es damals auch direkt als Widerlegung von Aristoteles gemeint. Und wer mir so kommt, møge mir bitte detailliert darlegen, warum er das auf Newton, aber nicht auf Aristoteles bezieht … Aber ich schwoff ab.

Oder anders: „KI“ Chatbots als Menschen zu behandeln, oder mit Netwons Gravitationstheorie (bisher ausschlieszlich) Maenner auf den Mond zu bringen, reproduziert zwar was wir messen, es beschreibt aber nicht das Universum.

Und deswegen hab ich das beim letzten Mal (und hier) alles so detailliert ausgebreitet. Auf den ersten Blick sieht’s so aus als ob die zwei Methoden um „Ausgaenge“ zu finden nicht viel anders sind und alle Unterschiede in den Ergebnissen natuerlich erklaert werden kønnen. Als ich aber genauer hinschaute erkannte ich, dass eine ordentliche Implementierung der urpsruenglich diskutierten Vorwaertsmethode eigentlich vøllig andere Ergebnisse zur Folge hat und das damals nur durch weitere, nicht erkannte, Fehler (bzw. unzulaessige Zusatzannahmen) kompensiert wurde.

Und DAS ist ein schwerwiegender Fehler der zweiten Art und ich kann hier eigentlich nur sagen: Reproduktion NICHT geglueckt.

Solche Fehler passieren und das ist auch erstmal nix Schlimmes. Es ist durchaus auch ein Zeichen von Fortschritt, denn ein Fehler wird ja erst dann zum Fehler wenn man den als solchen erkennt (vorher ist’s einfach nur richtig und die Wahrheit). In der Wissenschaft sollte man das dann halt nur eingestehen und genau diskutieren um zu erkennen was falsch gemacht wurde, damit man aehnliche Fehler an anderer Stelle nicht wiederholt.

So, nun hab ich alles gesagt, was ich sagen wollte un kann mit ruhigem Gewissen beim naechsten Mal endlich die naechste Reproduzierung angehen.

Datum: Sommer 2022 (bin gerade zu faul den genauen Tag rauszusuchen), Zeit: frueher Nachmittag, Ort: Trinity College, Cambridge.

Auch wenn ich Newton und seiner Arbeitsweise (NICHT seinen Ergebnissen in den Naturwissenschaften) eher kritisch gegenueber stehe: fetzt wa!

Ach so … zur Sicherheit sei es gesagt: es ist der kleine Baum hinter mir, nicht der dicke Grosze dessen Krone sich links ins Bild streckt.

OKOK … ich gebe zu, dass das nicht das Original im herkømmlichen Sinne ist. ABER genetisch ist es vom Original nicht zu unterscheiden, denn es handelt sich dabei um einen Klon … cool wa!

Ebenso fetzig ist, dass eins der kleinen Fenster da hinten zu dem Raum gehørt, in dem Newton lebte waehrend er in Cambridge studierte.

Letztes Mal reproduzierte ich die „Aussteiger“. Dabei benutzte ich aber eine etwas andere Herangehensweise als damals. Ich erwaehnte nur kurz, dass die damalige Herangehensweise etwas „haarig“ war in Bezug auf Selbstreferenzen, da die entsprechenden Kurven nicht nur und ausschlieszlich am Ende des (seitenabhaengigen) Linknetzwerks „aussteigen“, sondern das auch schon auf fruehen Linkleveln tun kønnen … um dann u.U. auch wieder „reaktiviert“ zu werden auf nachfolgenden Linkleveln.
Wieauchimmer, da beide Herangehsenweisen zur Ermittling der „Aussteiger“ bei den anderen Grøszen von Interesse zum selben Ergebnis fuehren, und auch das Diagramm der Selbstreferenzen auf den ersten Blick nicht all zu unterschiedlich war, habe ich mich darum zunaechst gar nicht weiter gekuemmert und nur mit …

[d]eswegen sind die roten Balken im linke[n] Diagramm hier nicht identisch zum damaligen Diagramm

… kommentiert.

Natuerlich hat mir das keine Ruhe gelassen, und ich wollte schauen wie grosz die Diskrepanz ist. … … … Und ach du Schreck! … da hab ich ja einen wirklich ernstzunehmenden Fehler gemacht.
Aber der Reihe nach und heute nur mit den 2020 Daten denn hier muss nix in dem Sinne reproduziert werden, denn ich will ja den Fehler diskutieren.

Zur Erinnerung: die neue Herangehensweise findet den „Ausgang“ derart, dass vom Ende einer Kurve, in Richtung Anfang gehend, geschaut wird, bei welchem Linklevel der Wert der Kurve zum ersten Mal UNgleich Null ist. Die damalige Herangehensweise hingegen schaute vom Anfang einer Kurve, in Richtung Ende gehend, bei welchem Linklevel der Wert der Kurve zum ersten Mal GLEICH Null wird.
Wie gesagt, ist das, von den Selbstreferenzen abgesehen, kein Problem, da alle anderen Grøszen von Interesse „durchgehende“ Kurven haben und beide Methoden das selbe Ergebnis liefern. Aber es geht ja um genau diese Selbstreferenzen.

Hier sieht man den Unterschied der Aussteiger-per-Linklevel-Kurven-der-Selbstreferenzen wenn man das wie damals macht (schwarze Punkte, vorwaerts nach der erste Null suchend) bzw. besser (rote Quadrate, rueckwaerts nach dem ersten Wert der ungleich Null ist suchend):

Achtung: Damals hatte ich das Linklevel beim dem zum ersten Mal null Selbstreferenzen auftreten als „Ausgang“ deklariert, waehrend es nach der neuen Methode das Linklevel direkt davor ist was ja noch einen Wert ungleich null hat. Die Punkte von damals wurden dahingehend um ein Linklevel nach Links verschoben; das gilt auch fuer alle folgenden Diagramme.

Das scheint anfangs qualitativ (!) recht gut uebereinzustimmen (davon abgesehen, dass ich damals „flache“ Kurven nicht extra bedacht hatte). Quantitativ gibt’s zwar zum Teil zahlentechnisch grosze Unterschiede die man wg. der logarithmischen Skala (fast) nicht wahr nimmt, das ist aber nicht so wichtig, denn alles was ’n Unterschied von ’nem Faktor weniger als ’ne Grøszenordnung hat ist schon OK.
Was mich zu Werten ueber LL10 bringt; denn ab dort erhaelt man mit der (neuen) Rueckwaertsmethode ca. ’ne Grøszenordnung mehr „Ausgaenge“ als mit der (alten) Vorwaertsmethode.

Aber das ist NICHT der schwerwiegende Fehler, denn das ist erklaerbar mittels „Reaktivierungen“. Es passiert dass eine Kurve die schon „ausgestiegen“ ist, auf einem høheren Linklevel „reaktiviert“ wird. Das ist dann meistens nur das eine einzige Linklevel (oder vllt. auch mal zwei oder drei), auf dem pløtzlich nochmal eine Selbstreferenz auftaucht. Das fuehrt dann natuerlich zu einem weiteren „Ausgang“ (es ist halt nur nicht der erste „Ausgang“ fuer eine gegebene Kurve) der von der Rueckwaertsmethode erkannt wird, wenn es denn der Letzte ist.
Damit die Vorwaertsmethode so weit hinten einen „Ausgang“ registriert, muss die entsprechende Kurve ohne Unterbrechung mindestens eine Selbstreferenz auf jedem Linklevel bis dorthin gehabt haben. Eine so lange ununterbroche Kette von Selbstreferenzen zu haben hat natuerlich eine sehr kleine Wahrscheinlichkeit, weswegen die Vorwaertsmethode bspw. auf LL35 nur einen „Ausgang“ registriert, waehrend die Rueckwaertsmethode 45 „Ausgaenge“ aufspuert (wovon der eine von der Vorwaertsmethode darunter ist).
In anderen Worten: die Diskrepanz hat eine Erklaerung die aus der Natur der unterschiedlichen Methoden kommt, und insb. weil es sich hierbei um eher kleine absolute Zahlen handelt, macht mich der Unterschied nicht wirklich stutzig.

Nun arbeite ich aber an der Reproduzierbarkeit und da ist’s kontraproduktiv die Methode zu aendern (auch wenn es die bessere Methode ist). Das wurmte mich und deswegen setzte ich mich ran und hackte kurz die Vorwaertsmethode zusammen. Weil ich gute Vorarbeit geleistet habe ging das recht fix. … … … Und hier ging der „Aerger“ los.

Alles fing damit an, dass ich mittlerweile von „flachen“ Kurven (also solchen die keine einzige Selbstreferenz haben) gelernt hatte. Damals hatte ich die ueberhaupt nicht beachtet. Nun wollte ich die aber mit unterbringen. Deswegen muss ich nochmal kurz auf die Rueckwaertsmethode zu sprechen kommen und erklaeren warum die der Vorwaertsmethode ueberlegen (und vorzuziehen) ist um die „Ausgaenge“ zu bestimmen.

Es gibt bei der Rueckwaerrtsmethode nur zwei Bedingungen und alles andere folgt zwingend aus denen. Erstens: geh rueckwaerts, Zweitens: der erste Wert ungleich Null ist der Ausgang. Simpler als das geht’s nicht. Und wenn man mal nachdenkt ist die erste Bedingung keine richtige Bedingung denn man kann eine Dynamik nicht erforschen, wenn man sich nicht bewegt; man braucht also zwingend eine „Bewegungsrichtung“. Wichtig ist nur zu wissen, wann man stoppen muss (wann man also das gefunden hat wonach man sucht). Ich sage jetzt also mal, dass es nur EINE Bedingung gibt … einfacher geht’s nicht.
Man sieht leicht, dass da automatisch der „wahre Ausgang“ rausfaellt, denn bei der Rueckwaertsmethode muss man sich nicht drum kuemmern ob eine Kurve mehrere vorherige „Ausgaenge“ hat und dann nochmal „reaktiviert“ wird. Auszerdem folgt automatisch dass eine Kurve flach ist wenn man bis LL0 kommt und kein einziger Wert ueber Null liegt.

Nun zurueck zur Vorwaertsmethode; im Namen liegt bereits die „Bewegungsrichtung“, womit das gegessen ist. Oben schrieb ich, dass ich schaute, wann der erste Wert Null wird als „Ausgangsbedingung“. Das alleine ist zunaechst eine genauso simple Regel aehnlich bei der Rueckwaertsmethode. Die ist aber leider nur notwendig und nicht hinreichend. Insb. dann wenn man flache Kurven unterscheiden will, denn bei denen liegt ja bereits auf LL0 der Wert Null vor … ich kann aber nicht entscheiden ob eine Kurve flach ist, ohne durch alle Linklevel durchgegangen zu sein.
Deswegen muss man eine zweite Bedingung anfuehren und die Erste etwas modifizieren: ein „Ausgang“ liegt vor, wenn der Wert auf einem gegebenen Linklevel UNgleich Null und der Wert auf dem naechsten (!) Linklevel GLEICH Null ist. Kommt man am Ende aller Linklevel an und beide Bedinungen lagen nie gleichzeitig vor, hat man (automatisch) eine flache Kurve (fuer die die „gleich Null“ Bedingung ueberall gilt).

Damit erhaelt man dieses Diagramm:

Das sieht auf den ersten Blick ganz gut aus. Es gibt ein rotes Quadrat bei LLminus 1 fuer die flachen Kurven und deswegen stimmen die Werte bei LL0 nicht ueberein (denn frueher hatte ich beides in LL0 zusammengefasst). Das ist also OK … Aber Moment mal! Wieso findet die neue Vorwaertsmethode einen Wert bei LL27 (und ein paar anderen Linkleveln) die alte aber nicht? Und ueberhaupt scheinen die schwarzen Punkte und Quadrate etwas gegeneinander verschoben zu sein! (Das sieht man bei linearer Ordinate deutlich deutlicher). Beides sollte nicht vorkommen, ich muss hier also was „falsch“ machen … Hinweis: ich habe damals was (maechtig) falsch gemacht.

Also suchte ich nach dem alten Code … und konnte den nicht finden. Ich bin mir ziemlich sicher, dass der irgendwo ist, aber der alte Code ist so ein Saustall (was ja die Motivation fuer den Reproduktionsteil des ganzen Projekts ist, weil ich eben auch den Code ordentlich machen wollte, damit ich das publizieren kann), dass ich den entsprechenden Teil nicht mittels Schlagwortsuche gefunden hab und ich wollte nicht durch mehrere tausend Linien Code lesen. Auszerdem gibt es eine gewisse Wahrscheinlichkeit, dass ich den tatsaechlich geløscht habe … das liegt an einer gewissen Eigenheit meines Modus Operandi, aber da geh ich jetzt nicht naeher drauf ein.

Also ueberlegte ich was ich damals gemacht haben kønnte und zum Glueck war mein (neuer) Code jetzt „gut sortiert“ und mittels nur einer winzigen Aenderung konnte ich die „Wert auf einem gegebenen Linklevel muss UNgleich Null“-Bedingung rausschmeiszen … denn an die hatte ich damals ja gar nicht gedacht. Es bleibt also nur „Wert auf dem naechsten Linklevel muss GLEICH Null sein“ uebrig. Und siehe da …

… das passt … Hurra! Also auszer von den Werten bei LLminus 1 und LL0 abgesehen, aber die stimmen in der Summe mit dem alten Wert bei LL0 ueberein. Super! Reproduziert … … … … … … … … … aber hmmmm … hier stimmt doch was nicht! … … … Der Beitrag ist nur jetzt schon so lang, sodass ich den Rest der Diskussion auf’s naechste Mal verschiebe.

.oO(Wie so oft: zu einer vermeintlich abgeschlossenen Miniserie kann man (fast) immer noch was hinzufuegen. )

Ich war mit der eigentlichen (Test)Messkampagne nicht so richtig zufrieden:

[d]ie Messungen in der Kueche waren durchaus spannend, weil es viel zu entdecken und erklaeren gab. Warum ich das Ganze aber eigentlich machte [Feinstaub durch Verkehr] dann letztlich nicht.

Im selben Beitrag schreibe ich auch, dass …

[…] [a]b ca. halb acht steigt [die Feinstaubdichte] […] bis ca. 10 Uhr [an] […] und dann [zappeln] die Werte um einen gewissen Plateauwert […]. Mhmmmmm … das kønnten dann Rentner sein, die es sich nach dem Aufstehen schonmal gemuetlich warm in der Stube machen.

Weil dann nicht wirklich weiter was passiert bis die Leute von der Arbeit nach Hause kommen und die Holzøfen anschmeiszen, war ich eben eher enttaeuscht, weil da ja vermeintlich kein Verkehrsfeinstaub drin ist.

Mittlerweile denke ich aber, dass ich das falsch interpretiert habe. Hier nochmal der Graf:

Was ich zunaechst als „Ommas fangen an die Stube zu heizen“ interpretierte, faellt eigtl. auch mit dem Morgenverkehr zusammen. Die produzieren aber deutlich weniger Feinstaub als erwartet.
Weil’s kalt ist, verklumpt der Feinstaub nicht mit dem Wasser in der Luft (weil’s keins gibt, weil’s so kalt ist) und wird somit nicht „ausgewaschen“ (vulgo: faellt als dreckiger „Mikroschnee“ zu Boden). Der schwebt da also nur so rum, kaum beeinflusst von der Gravitation.
Nach 10 Uhr werden es zwar weniger Auos als zur Stoszzeit am Morgen, es sind aber immer noch genuegend um das was morgens produziert wurde immer fein aufzuwirbeln und in der Luft zu halten. Und auch wenn es im Schnitt weniger sind, so faren doch noch eine ganze Menge Autos, die natuerlich noch mehr Feinstab produzieren.

Ich habe den Eindruck, dass bei uns der meiste Feinstaub durch die Reifen auf der Strasze verursacht wird. Spikes an den Reifen die den Asphalt viel mehr belasten. Auszerdem VIELE Salzkristalle die von den schweren Autos immer feiner zerrieben werden. Und nicht zu vergessen der Rollsplitt, der zwar eigtl. nur auf den Gehwegen liegen sollte, aber genuegend davon schafft es auf die Strasze und sorgt fuer Extrabelastung und noch mehr Abrieb.

Wenn Schneematch liegt (oder auch nur bei feuchter Fahrbahn) ist das alles nicht so schlimm, dann vermischt sich das sofort und bleibt am Boden liegen. Deswegen schlagen die Feinstaubkurven auch kaum aus, sobald die Temperatur ueber Null liegt: die Strasze ist feucht genug um all den „Abrieb“ aufzunehmen und somit geht das gar nicht erst in die Luft. Bei trockener Kaelte hingegen funktioniert dieser „Reinigungsmechanismus“ nicht mehr und der Staub wird dann aufgewirbelt und verteilt sich prima ueber weite Strecken und rein in meine Lunge … *seufz*.

Oder anders: mglw. habe ich ja doch das gemessen, was ich messen wollte … es war halt nur deutlich weniger spektakulaer als ich gehofft (und erwartet) habe.

Ich schreibe diesen Beitrag etliche Wochen vor meiner Reise in den fernen Osten. In der Woche bevor dieser Artikel hier erscheint bin ich nach Plan schon zurueck. Von eurer Warte, meine lieben Leserinnen und Leser, dehnte die Sommerpause sich um eben diese Woche aus weil … øhm … ich nehme an, dass ich da noch halb im Jetlag bin (auch wenn der eigtl. in die richtige Richtung geht beim Rueckflug) … und auszerdem ist’s im Sommer warm und bei høherer Temperatur dehnt sich i.A. alles aus (also auch die Sommerpause).

Aber nun geht’s weiter und zwar mit dem was ich damals als Aussteiger bezeichnete. Oder anders: ich schaute (damals) wieviele Seiten ab welchem Linklevel keine totalen Links mehr haben. Konzeptionell ist diese Herangehsensweise etwas „haarig“, denn bei den Selbstreferenzen kønnen Seiten „mittendrin“ keine Selbstreferenzen mehr haben, aber zu einem spaeteren Linklevel dann doch wieder. Das habe ich in einem anderen Zusammenhang als „Reaktivierungen“ bezeichnet und diesen Aspekt lasse ich heute zunaechst auszen vor.
Um dieser „Haarigkeit“ zu entkommen, drehte ich bei der Neuprogrammierung des hierzu gehørigen Analyseprogramms den Ansatz einfach um: ich schaue von hinten, ab welchen Linklevel eine Grøsze von Interesse einen Wert UNGLEICH Null hat. Das ist im Wesentlichen das Gleiche, mit dem kleinen Unterschied, dass alle Grafen hier um eins nach Links verschoben sind, denn der letzte Wert ungleich Null kommt ja genau ein Linklevel vor dem ersten Nullwert (mit der Ausnahme der Selbstreferenzen).

Das war alles was ich damals machte. Aber schon bei den Maximumspositionen, „sehe“ ich auch hier nicht mehr nur die Position des Ausgangs, sondern auch den Wert (einer gegebenen Grøsze von Interesse), den die Seiten am Ausgang haben. Anders als beim letzten Mal (wo ich diese neue Sache erst einfuehrte), mache ich da nicht mehrere Artikel draus, sondern handle das heute alles auf einmal ab.

Und jetzt geht’s los, wie so oft, zunaechst mit den totalen Links:

Aha! Bzgl. der Position des Ausgangs (linkes Diagramm), reproduzieren die 2023 Daten die Form der Verteilung der 2020 Daten. Ein paar Balken am Anfang mit ungefaehr gleicher Høhe, dann erstmal nix, dann ein „Wald“ mit kurzen Balken und am Ende ein hoher „Berg“ (auch mit ungefaehr gleich hohen Balken). Letzteres bedeutet, dass alle Seiten ungefaehr zum gleichen Zeitpunkt aussteigen und war der erste Hinweis auf Ketten (oder „Familien“) von Seiten (damals dauerte es noch eine Weile, bis ich das in einem anderen Zusammenhang erkannte). Oder anders: Reproduktion gelungen.
In den 2023 Daten scheint es mindestens eine Kette zu geben, die 10 Linklevel laenger ist, als die laengste Kette in den 2020 Daten. Da dies aber keine „kollektive Eigenschaft“ ist, die man ueber alle Seiten „mitteln“ kann, sondern aus dem Verhalten individueller Seiten folgt ist das jetzt nicht verwunderlich, dass das nicht reproduziert wird. Ich komme da vllt. spaeter nochmal drauf zurueck, falls ich mir die Ketten nochmal anschaue  … weisz ich jetzt aber noch nicht.

Ach ja Mensch! Jetzt hab ich vergessen zu sagen, dass bzgl. des am weitesten links liegenden Balkens (bei einem Wert auf der Ordinate von minus eins) das Selbe gilt wie bei den Maximapositionen: dieser Balken ist „flachen“ Verteilungen zuzuordnen! Zu Details lese man den oben verlinkten entsprechenden Beitrag.

Weiter nun mit dem Diagramm auf der rechten Seite – der Anzahl der totalen Links am Ausgang … also der Ausgangswert … was natuerlich nicht hinhaut, weil ein Ausgangswert eigtl. meist der allererste Wert ist, von dem alles aus geht. Wieauchimmer, das wird nun scheinbar (!) ueberhaupt nicht reproduziert und das wundert mich gar nicht. Das haette nur dann (mehr oder weniger) direkt (!) reproduziert werden kønnen, wenn es keine laengere Kette als damals gaebe. Die Seiten der neuen Kette haben natuerlich eine ganz andere Anzahl an Links.
Interessant sind zwei Sachen in den 2023 Daten. Zum Einen hat die Verteilung mehr Balken. Es gibt also mehr Seiten die als Ausgang fungieren als bei den 2020 Daten. Wenn man drueber nachdenkt war das durchaus zu erwarten und die Anzahl der Balken ist jetzt zwar ’ne halbe Grøszenordnung mehr, aber das liegt vor allem daran, weil die 2020 Verteilung so wenige Balken hat. Waere letzte doppelt so grosz, dann haette man nur einen Unterschied von ca. einem Faktor 2 und das wuerde nicht verwundern.
Die zweite Sache ist da schon deutlich interessanter, denn es gibt in den 2023 Daten ZWEI sehr hohe Balken mit ca. 4 Millionen und ca. 2 Millionen Seiten die dort aussteigen. Das kønnte ein Hinweis sein, dass es ZWEI Ketten mit … mhmmmm … ich denke der selben Laenge gibt (oder vielleicht plusminus eins) und ca. 1/3 aller Seiten landen etwas frueher in Kette #1 (und sind mit der etwas frueher fertig), waehrend die anderen 2/3 Kette #2 etwas frueher abarbeiten um dann zuletzt in Kette #1 zu sein und mit der abzuschlieszen.
Das kønnte man mal naeher untersuchen … und wie oben erwaehnt, das mache in diesem Falle sogar ich, falls ich mich den Ketten nochmals zuwende.

Festzuhalten bzgl. des rechten Diagramms ist das Folgende: in den den individuellen Eigenschaften wird der Wert am Ausgang NICHT reproduziert, aber bzgl. der _kollektiven_ Eigenschaften dann doch. Es gibt keine Seiten die massenhaft Links am Ausgang haben; alles tuemmelts sich um ca. den Wert 15 auf der Ordinate. Und auch wenn die Anzahl der Balken in den 2023 Daten signifikant grøszer ist, so ist besagte Anzahl nicht mal eine Grøszenordnung (oder gar mehr) grøszer … aber das haengt direkt mit der ersten Aussage zusammen. Die letzte Eigenschaft, dass die allermeisten Seiten auf nur einer Seite am Ende landen wird zwar nicht direkt reproduziert, aber aus einer werden halt zwei und ich wuerde das dann doch als gelungene Reproduktion anerkennen (selbst wenn die beiden zugehørigen Balken indviduell andere Werte auf der Ordinate haben … was ja aber eine individuelle Eigenschaft ist).

Nun die neuen Links:

Bzgl. der Position des Ausgangs (linkes Diagramm) sieht das natuerlich so aus wie bei den totalen Links (selbstverstaendlich verschoben um eins nach links auf der Ordinate) … und das muss auch so sein.
Die Verteilung der Werte am Ausgang bestaetigt das oben Gesagte (zwei sehr hohe Balken, vermutlich durch zwei gleich lange laengste Ketten). Dass es hier deutlich weniger Balken insgesamt gibt ist dem Umstand geschuldet, dass alle Seiten am Ende einfach schon (fast) alle Seiten des Wikipdianetzwerkes gesehen haben und einfach nix Neues mehr uebrig ist.
Oder anders: in beiden Faellen ist die Reproduktion auch hier gelungen (wenn man die zwei vermuteten, gleich langen laengste Ketten mit in Betracht zieht).

Die Selbstreferenzen hatte ich damals untersucht, aber in einem anderen Zusammenhang und mit der oben beschriebenen „haarigen“ Herangehensweise. Deswegen sind die roten Balken im linke Diagramm hier …

… nicht identisch zum damaligen Diagramm. Ansonsten ist die Interpretation beider Grafen unkompliziert, weswegen ich mir das spare. Damit bleibt nur zu sagen: Reproduktion in beiden Faellen gelungen.

Und zum Abschluss die Linkfrequenz:

Zu meiner Ueberraschung hatte ich das damals gar nicht untersucht und sehe erst jetzt, dass hier ein paar interessante Dinge passieren. Zunaechst waere da die „Doppelspitze“ im linken Diagramm. Eine „Spitze“ nahe des Urpsrung hat man auch bei den totalen und neuen Links. Dort befinden sich dann aber weniger als 10-tausend Seiten, waehrend hier fast 500-tausend in dem Bereich zusammen kommen. Und „das dicke Ende“ kommt dort dann auch erst ganz am Ende.
Bei den Selbstreferenzen hat man zwar einen „dicken Berg“ ziemlich am Anfang (aber nicht nahe des Urpsrungs), der ist aber nicht durch ein deutliches „Tal“ von einer zweiten „Spitze“ getrennt. Ich denke, dass das hier wieder die Archipele sind … das muesste aber mal wer anders genauer untersuchen.
Anderweitig reproduzieren die 2023 Daten aber die 2020 Daten.

Das rechte Diagram ist auch sehr interessant. In den 2020 Daten scheint der Verlauf DREI klar zu unterscheidenden, maechtigen Gesetzen zu folgen. Und zwar mit ziemlich abrupten (anstatt „ruckelfreien“) Uebergaengen. Wenn man genau hinschaut, dann wird das auch in den 2023 Daten reproduziert. ABER dort kommt es zwei Mal zu einer Verschiebung der Punkte nach rechts. Ein Mal von ca. 20 zu ca. 30 und beim zweiten Mal von ca. 250 bis ca. 350 auf der Ordinate (die zwei leicht erkennbaren Stufen). Wobei das keine konstante Verschiebung nur um die angegebenen Werte ist, denn das ist ’ne logarithmische Skala und die Verschiebung muss sich „logarithmisch proportional“ (was immer das auch heiszen mag … ich hab mir den Begriff gerade erst ausgedacht) durchziehen, damit das so „parallelverschoben“ aussieht.
Wenn man die „Parallelverschiebung“ in Gedanken rueckgaengig macht, dann scheinen die blauen Quadrate recht genau (so genau wie das Pi mal Daumen geht) wieder auf den roten Punkten zu landen; inklusive des Knicks um ca. 45 auf der Ordinate, bei dem der Uebergang von einem maechtigen Gesetz zum anderen stattfindet.
Alles in allem ist das schon eine kuriose Sache, die hier in den 2023 Daten passiert … aber wenn man die in Betracht zieht (und somit auszer Acht laeszt), dann wuerde ich sagen, dass die 2023 Daten die 2020 Daten reproduzieren.

Das ist genug fuer heute … mal schauen ob ich mir noch den Spezialfall der „haarigen“ Herangehensweise fuer die Selbstreferenzen anschaue und dann gleich die „Reaktivierungen“ mit abhandle, oder ob ich naechstes Mal doch zu was ganz anderem uebergehe.

Dieses Weblog macht ’ne kurze Pause, denn wenn dieser Beitrag erscheint bin ich gerade in der Luft und auf dem Weg nach Helsinki um dort einen andere groszen Metallvogel zu benutzen, der mich ans andere Ende der Welt bringt.
Das letzte Mal machte dieses Weblog vor langer Zeit (und aus weit schwerwiegenderen Gruenden) eine Pause. Dieses Mal liegt’s einfach daran, weil ich trotz deutlicher reduzierter Beitragsanzahl es nur gerade so schaffe, jede Woche einen Artikel zu haben. Eine Pause von vier Wochen hilft da ungemein.

Wieauchimmer, ich møchte die Pause mit etwas Besonderem fuellen und deswegen kann es nur etwas sein, was in Verbindung mit einem der Highlights meines Lebens im letzten Jahr steht; naemlich diesem Buch:

Und wie der Titel des Beitrags bereits vermuten laeszt, geht es mir um die Periheldrehung des Merkur. … … … Das sollte ich vielleicht etwas naeher erlaeutern, deswegen der Reihe nach.

Zunaech denke man sich, dass es NUR den Merkur und die Sonne gibt. Das wohlbekannte erste Keplersche Gesetz besagt dann, dass sich der Merkur in einer perfekten Ellipse um die Sonne bewegt. Das Perihel ist dabei der Punkt an dem der Merkur den geringsten Abstand zur Sonne hat. Bei nur 2-Kørpern ist dieser Punkt IMMER an der gleichen Position. Ihr, meine lieben Leserinnen und Leser ahnt sicher, worauf wir hier zusteuern, denn …

… es ist nun so, dass es in unserem Sonnensystem noch andere Planeten gibt. Einige davon sind ganz schøn schwer und alle zusammen støren die Bahn des Merkur. Das fuehrt zu einer leichten Verschiebung der Position des Perihels des Merkurs im Laufe eines Jahres. Ich habe das Prinzip hier mal vøllig uebertrieben skizziert:

Das sind natuerlich idealisierte Momentaufnahmen und die Skizze ist auf die folgende Art und Weise zu interpretieren. Zur ersten Beobachtung schauen wir uns den Merkur an wenn er den geringsten Abstand zur Sonne hat und die graue gestrichelte Kurve beschreibt den mathematisch idealisierten Orbit des Merkur zu diesem Zeitpunkt. Im Laufe des Jahres nach der ersten Beobachtung geht die gestrichelte graue Kurve kontinuierlich in die durchgezogene graue Kurve ueber. Nach einem Jahr befindet sich der Merkur wieder in seinem Perihel und wir machen wieder eine Momentaufnahme. Die durchgezogene graue Kurve entspricht dann dem mathematisch idealisierten Orbit des Merkur zu genau diesem Zeitpunkt. Im Laufe des naechsten Jahres geht der Orbit dann in die schwarze durchgezogene Kurve ueber und den Rest schreibe ich jetzt nicht nochmal.
Der Punkt ist: aufgrund von Størungen des Orbits dreht sich die Position des Perihels um die Sonne. Im Grunde gar nicht so schwer zu verstehen.

Nun ist es so, dass ich den Eindruck habe, dass die Periheldrehung des Merkur als DER (erste!) Triumphmoment von Einsteins Gravitationstheorie ueber Newton angesehen und gelehrt wird. Und das auf eine Art und Weise, dass ich bis vor Kurzem dachte, dass Newton das ueberhaupt nicht beschreiben kann. Und das ist beinahe komplett falsch, denn ich erwaehnte ja bereits oben den Einfluss anderer Planeten und dieser Einfluss kann sehr wohl mittels Newtonscher Mechanik beschrieben werden.

Ein weiterer Størfaktor auf den Orbit des Merkur ist der Fakt, dass die Sonne keine perfekte Kugel ist. Die dreht sich naemlich um sich selber und ist deswegen abgeflacht. Das fuehrt dazu, dass das Gravitations“feld“ (genauer: das Gravitations_potential_) der Sonne (gravitative) Multipolmomente hat. In der Physik ist das was ganz normales (und es ist eigtl. immer Ausgangspunkt voll fetziger Phaenomene) und das kann auch ganz „klassisch“ mittels Newton beschrieben werden.

Ich gebe zu, da haette ich von alleine drauf kommen kønenn, aber wenn das beim „Triumph Einsteins“ ueberhaupt nie erwaehnt wird, dann sei mir hoffentlich verziehen, dass das immer an mir vorbeigegangen ist.
Denn es stimmt AUCH, dass es einen NICHT-klassischen Einfluss auf den Merkurorbit gibt, der nur durch Einstein erklaert werden kann. ABER: der ist WINZIG! Und ich dachte immer, dass der (relativ) grosz ist.

Der Einsteinsche Anteil an der Periheldrehung ist so klein, dass Newton davon ueberhaupt nix wissen konnte. Die Diskrepanz wurde gerade mal 20 Jahre vor Einsteins Geburt entdeckt, weil erst dann die Messinstrumente gut genug waren. Und das ist der erste Punkt, warum es mich ein bisschen anpiept, dass das als „Triumph“ dargestellt wird … mal davon abgesehen, dass es mich ohnehin anpiept, dass in den Medien vermittelt wird, dass Wissenschaft mittels „Triumphen“ funktioniert; dem ist mitnichten so, auch wenn es von auszen und mit (oft groszem) zeitlichen Abstand so aussieht … aber ich schwoff ab, denn eigtl. wollte ich sagen, dass es echt arschig waere, wenn ein Gewinner der Olympiade zu jemandem im Publikum geht und mit seiner Medaille angibt, obwohl Letzterer ja gar nicht am Wettkampf teilgenommen hat.
Aber so kommt mir das in diesem Fall vor. Obwohl Newton ueberhaupt nichts von der Diskrepanz wissen konnte (da die Messinstrumente zu seinen Lebzeiten noch gar nicht gut genug waren), hab ich das Gefuehl dass das in den meisten Buechern (und heutzutage auch anderen Medien) so dargestellt wird, das Einsteins Gravitationstheorie ja was Besseres ist, weil die das eben „richtig macht“.
In diese Effekthascherei verfaellt mein dickes schwarzes Buch zum Glueck nicht, denn das ist ein wissenschaftliches Buch und dort wird das von Anfang an im korrekten Zusammenhang dargestellt.

Und nun zum zweiten Punkt warum mich das „Triumphgehabe“ so anpiept. Den hatte ich schon erwaehnt, denn es geht um die Winzigkeit des Effekts. Es ist UNGLAUBLICH frech (finde ich), dass „Periheldrehung! Einstein! Hurra!“ zelebriert wird, ohne zu erwaehnen, dass es eigtl. „Periheldrehung! NEWTON! HURRA HURRA HURRA HURRA!“ heiszen muesste. Aber am besten zeige ich dazu die Tabelle in Box 40.3 „Perihelion Shifts: Experimental Results“ (S. 1112f) aus meinem dicken schwarzen Buch (von Interesse ist hier nur der „Quantity“-Teil):

Wait! What? Die Periheldrehung ist zu (fast) 90 % NUR ein Beobachtereffekt (Punkt (b), „general precession“) und ueberhaupt nicht real wenn man von weit weg auf unser Sonnensystem schaut! … AARGHGHG!!! Noch so eine eigentlich urst krass wichtige Sache (fast 90 % des gemessenen Effekts!) die KOMPLETT unerwaehnt bleibt!

Und vom Rest sind UEBER 92 % komplett mittels Newton erklaerbar! Einsteins Beitrag ist also geringer als 1 %!

Es geht mir nicht in den Kopf, dass Einsteins „Beitrag“ zur Periheldrehung so massiv „ueberhøht“ werden muss! Einsteins Gravitationstheorie ist ein Triumph (mit Absicht benutzt) der Wissenschaft an sich (so wie Newtons Mechanik oder Darwins Evolutionstheorie) und zwar einfach deswegen, weil sie das Universum noch besser erklaert ohne auf Hokuspokus zurueckgreifen zu muessen!

Ja klar! Die interessanten, von Newton abweichenden, Effekte liegen im (sehr) Kleinen … aber das macht die deswegen doch nicht weniger spannend! Und auszerdem gibt’s da noch eine Vielzahl anderer Effekte die klassisch ueberhaupt nicht auftreten kønnen … die aber nur dann zu sehen sind, wenn man EXTREM genaue Messinstrumente hat … auch dann, wenn sie am Ort der Entstehung ungeheuerlich grosz sind (bspw. Gravitationswellen).

Najut … genug aufgeregt, denn eigentlich hatte ich mich urst gefreut, als ich obige Tabelle das erste Mal las. Ich fuehlte førmlich, wie sich mein „Tellerrand“ etwas erweiterte … *freu* … was der Grund ist, warum ich da unbedingt drueber schreiben wollte.

Und damit, meine lieben Leser und Leserinnen, entlasse ich euch (und mich) in den wohlverdienten Sommer.

Ach doch, eine Sache noch: die Position des Perihels ALLER Planeten aendert sich im Laufe eines Orbits und wir kønnen das heutzutage sogar messen. Aber nur beim Merkur „lohnt“ es sich drueber zu reden.
Und dann noch eine andere Sache: die Størung des Orbits des Merkur durch das gravitative Quadrupolmoment der Sonne betraegt gerade mal 0.6 Promille (!) von dem was Einstein ausmacht … ist zwar klassisch, aber trotzdem winzig … ich find gravitative Multipolmomente nur so fetzig (denn nur die kønnen Gravitationswellen machen … wenn sie mindestens Quadrupole sind … anders als bei elektromagnetischen Wellen, kønnen Graviationswellen NICHT durch gravitative Dipole erzeugt werden), dass ich das unbedingt erwaehnen wollte.

Beim letzten Mal schrieb ich:

Das muesste man sich mal in kumulativer Darstellung anschauen […].

mit dem expliziten Hinweis:

[…] mach ich aber nicht mehr.

Natuerlich hat mir das keine Ruhe gelassen und ich hab das jetzt doch noch gemacht.

Das Gute ist, dass ich dadurch fix noch zwei Analysewerkzeuge geschrieben gehackt habe, die ich sowieso øfter mal brauche und das ist gut, dass die jetzt mal systemati- und generalisiert (ich bin mir ziemlich sicher, dass man das so nicht machen kann … ich lass das dennoch einfach mal so stehen) sind.

Weil ich heute weder beschreiben muss, was man hier …

… sieht (denn das ist das Gleiche wie beim letzen Mal … mglw. sogar das Selbe, aber da bin ich mir nicht ganz so sicher, denn es sieht ja anders aus), noch was kumulative, doppellogarithmische Diagramme sind und warum man das so machen will (wenn ihr, meine lieben Leserinnen und Leser das nicht mehr wisst, muesst ihr nur dem Link im ersten Zitat folgen), muss ich fast gar nix dazu schreiben.

Nur zwei Sachen seien gesagt. Zum Einen habe ich mich jetzt doch an die kumulative Darstellung gemacht, um zu schauen ob die Punkte im langen Schwanz des urspruenglichen Histogramms zu den Selbstreferenzen dem maechtigen Gesetz folgen, welches man aus den Daten zwischen Maximumswerthaeufigkeiten von 1 und 100 (im urpsruenglichen Histogramm) erwartet. Im Diagramm links unten sieht man wieder einmal, wie krass kumulative log-log-Darstellungen sind, denn das besagte maechtige Gesetz kann man nun ueber FUENF (!) zusaetzliche (!) Grøszenordnungen als gegeben annehmen.
Zum Zweiten reproduzieren die 2023 Daten wieder die 2020 Daten. Aber das war zu erwarten, denn die Diagramme hier benutzen schlieszlich die selbe Datengrundlage.

Naechstes mal dann … was anderes.

Ich habe hier noch nicht ueber alle zum Zeitpunkt des Schreibens bereits (nochmals) besuchten Comic(serien) geschrieben. Das hole ich noch nach. Aber beim ich bin endlich bei ’ner Kiste angelangt, die Batman Comics enthaelt. Genauer gesagt Batman Sammelbaende.
Sammelbaende enthalten mehrere Comics in gebundener Form und ich bin zweigeteilt was Sammelbaende anbelangt. Zum Einen haengt mein Herz sehr an Comics an sich und deswegen bevorzuge ich die „natuerliche Erscheinungsform“ dieses Mediums: einzelne Hefte. Andererseits ist es auszerhalb der USA oft nicht leicht (oder sehr teuer … das ist i.A. ein inklusives „oder“) an diese Hefte heran zu kommen … ich bin so „stolz“, dass ich das bei Preacher geschafft habe. Deswegen bin dann doch durchaus auch ein groszer Freund solcher Sammelbaende, denn nur durch diese komme ich ueberhaupt erst dazu diese tolle Kunst zu genieszen (und natuerlich alles das hier auch nochund das).
Es sei gesagt, dass Sammelbaende nicht nur komplette (Mini)Serien enthalten, sondern es kann auch sein, dass laengere, in sich (ab)geschlossene, Handlungsstraenge einer laufender Serie in Sammelbandform verøffentlicht werden. Dazu gehørt Batman: Hush

… denn die Geschichte erschien im Original urspruenglich in den Heften #608 bis #619 der (fort)laufenden Batman Serie (in Dtschl. unter anderen Nummern, aber auch in einer fortlaufenden Serie, wenn ich mich nicht taeusche … oder als Pseudo-Miniserie, aber zumindest als Einzelhefte).

Als ich das damals kaufte war ich gar nicht soooo begeistert. Beim nochmaligen Lesen sehe ich aber, warum die Serie so „gehypt“ wurde und bis heute (in Sammelbaenden) immer mal wieder neu aufgelegt wird.

Zum Ersten sind die Bildkompositionen (Zeichnungen, Bildaufbau, Farbwahl usw. usf.) ganz exzellent. Nix „neumodisch Haessliches“ (dazu mehr beim (vermutlich) naechsten Mal) sondern so wie man das wuenscht. Man sieht wieviel Zeit und Arbeit da reingeflossen sind. Und zum Zweiten ist die Geschichte an sich ziemlich gut … nach den vielen mittelmaeszigen Sachen war das eine willkommene Abwechslung.

Was mir aber am meisten aufgefallen ist, sind die verdraengten und unbearbeiteten Traumas (Traumata? Traumatae? Traumatii?) der Helden die Handlungen (und somit das Leben) dieser bestimmen und ihnen Glueck versagen. Batman und Catwoman taten mir voll leid und das machte mich traurig das zu sehen.

Als kleine Kuriositaet am Rande: fuer Alfred ist’s ganz normal, dass er fuer einen erwachsenen Mann in einem Fledermauskostuem arbeitet … natuerlich verzieht er dann auch keine Miene, wenn die (Achtung Spoiler!) Freundin des Fledermausmannes im Katzenkostuem vor der Tuer steht … tihihi

Die Covers der Sammelbaende sind jetzt nicht sooo doll, weswegen ich nur eins zeige (es sind eh nur zwei Baende). Wenn ihr, meine lieben Leserinnen und Leser euch fuer die Originalcover interessiert, so kønnt ihr die hinter den obigen Links (zu den Einzelausgaben) finden.

Zum Abschluss noch eine letzte Bemerkung zu Sammelbaenden: auszerhalb des Landes in dem ein Comic original (und zum ersten Mal) erscheint, sind Sammelbaende nicht nur Neuaflagen vergriffener Comics, sondern oft auch (gesammelte) Erstausgaben von Comics aus anderen Laendern. Ich vermute, dass diese Form der Publizierung das Risiko des Herausgebers mindert.

Beim letzten Mal reproduzierte ich die Verteilungen der Linklevelpositionen der Maxima der ursprungsseitenabhaengigen Linklevelverteilungen der vier Messgrøszen von Interesse. Damit ich nicht so viel schreiben muss, kuerzte ich das einfach als Maximapositionen ab. Beim Neuschreiben der entsprechenden Analyseprogramme bemerkte ich, dass bei der Auswertung bzgl. der Maximapositionen auch automatisch die Werte der Maxima anfallen. Das hatte ich damals komplett uebersehen und darum stelle ich die entsprechenden Verteilungen hier und heute zum ersten mal vor.

Los geht’s mit den totalen Links. Im linken Diagramm …

… ist die erwaehnte Verteilung der Werte, welche die Maxima der jeweiligen Linklevelverteilungen annehmen, dargestellt. Man sieht sofort, dass da nicht so viel zu holen ist. Bei den Werten „flach“, 0 und 1 auf der Abzsisse tummeln sich ein paar Seiten. Ich nehme an, dass das Seiten selben Seiten sind, die auch bei diesen kleinen Werten ihr Maximum haben. Die haben also keine Links („flach“) einen Link oder zwei und dann setzt die Linkkette sich nicht weiter zu allen anderen Seiten des Wikipedialinknetzwerkes fort.

Alle andere Seiten haben vøllig unstrukturiert zwischen 60 Millionen und 90 Millionen (sieht man nicht, weil rote Vierecke drueber liegen) (2020 Daten) bzw. 75 Millionen und 122 Millionen (2023 Daten) totale Links. Bei ’ner logarithmischen Abzsisse wuerde das breite Gebiet mit den vielen Punkten uebrigens recht schmal werden. Das liegt also alles ungefaehr im gleichen Bereich.
Letzteres wundert mich nicht, denn die allermeisten Seiten sehen frueher oder spaeter ja doch das komplette Linknetzwerk. Das heiszt also, wenn eine Ursprungsseite ihr Maximum in der Verteilung der totalen Links sieht, dann tragen da immer mehr oder weniger gleich viele Seiten (auf dem jeweiligen Linklevel) zu den totalen Links bei. Und im Mittel haben die immer gleich viele Links. Dass die Verteilung bei linearer Abzsisse doch recht breit ist, ist einfach dem „zufaelligen Wandern“ durch das Linknetzwerk geschuldet.

Die 2023 Daten sind etwas nach rechts verschoben (und die Verteilung ist etwas verbreitert), einfach weil es mehr Seiten gab und diese Extraseiten tragen gleichmaeszig bei (fast) allen Ursprungsseiten zum Signal bei.
Wichtig festzuhalten ist, dass auch in diesem Fall die 2023 Daten die 2020 Daten reproduzieren (wenn man das Mehr an Daten in Betracht zieht).

Aber letztlich sieht man hier nicht viel. Es gibt keine Struktur in den Daten und auch keinen schønen „Berg“ wie beim letzten Mal.Deswegen habe ich mir mal angeschaut, wie haeufig jeder Maximumswert auftritt.
Bei den 2020 Daten gibt es zwischen 90 Millionen und 60 Millionen genuegend Werte, dass die ca. 5.8 Millionen Wikipediaseiten fuenf mal „reinpassen“ wuerden, ohne sich „auf die Fuesze zu treten“. Oder anders: prinzipiell kønnte jeder Maximumswert nur ein einziges Mal auftauchen. In der Realitaet „treten“ die sich aber ein paar Mal „auf die Fuesze“ denn es gibt nur ca. 4.6 Millionen unike Maximumswerte.
Jedenfalls, sieht man diese Verteilung der Maximumswerthaeufigkeiten im rechten Diagramm, mit doppellogarithmischen Achsen … und hier reproduzieren die 2023 Daten die 2020 Daten ganz genau, trotzdem Erstere viel mehr Seiten beinhalten.

Wie so oft herrscht auch hier wieder ein maechtiges Gesetz … oder vielmehr zwei, denn ueber die ersten drei Werte geht das deutlich schneller nach unten als ueber den Rest. Andererseits sind maechtige Gesetzmaeszigkeiten im Kevin Bacon Projekt alte (und haeufige … Wortspielkasse!) Bekannte, sodass das euch, meine lieben Leserinnen und Leser, sicher nicht mehr wundert.

Deswegen geht’s gleich weiter mit den neuen Links:

Davon abgesehen, dass die Werte anders sind, gibt’s zur Verteilung der Maximumswerte nichts weiter zu sagen. Die Verteilung der Maximumswerthaeufigkeiten ist da schon deutlich spannender. Die hat so ’ne elegante Kurve bei Werten zwischen 1 und ca. 20.
Wenn man diese Verteilung mit denen der totalen Links vergleicht, sieht man, dass die Haeufigkeiten bei Werten kleiner als vier auf der Abzsisse kleiner, und zwischen 4 und ca. 20 auf der Abzsisse deutlich erhøht ist. Danach liegen die Kurven im Wesentlichen uebereinander. Man muss schonein bisschen genauer hinschauen um Unterschiede auszumachen … diese Unterschiede kønnten relevant sein um Phaenomene im Linknetzwerk zu erklaeren und sollten naeher untersucht werden … aber nicht mehr von mir.
Dazu abschlieszend sei nur zu sagen, dass in beiden Faellen die 2023 Daten wieder die 2020 Daten reproduzieren.

Nun zu den Selbstreferenzen:

Høh? … Das kommt mir irgendwie sehr bekannt vor! Nach laengerem Ueberlegen bin ich zu der Ueberzeugung gekommen, dass die Bekanntheit taeuscht.
In den Diagrammen in den verlinkten Beitragen sind die Verteilungen der Anzahl der Selbstreferenzen pro Linklevel gezeigt. Wenn man also ’ne dicke fette (und sehr laaaaaange) Matrix nimmt, bei der die Linklevel auf der horizontalen Achse und jede Seite auf der vertikalen Achse aufgetragen sind, dann habe ich fuer die dort dargestellten Diagramme vertikale Schnitte gemacht; fuer jedes Linklevel einen Schnitt. Bei den Darstellungen hier hab ich die selbe Matrix „zerschnitten“, aber in horizontaler Richtung; fuer jede Seite einen Schnitt. Bei den untersuchten Dingen handelt es sich also buchstaeblich um zwei verschiedene (und orthogonale!) Dimensionen.

Das das aehnlich aussieht liegt nun einfach nur daran, dass das was ich messe, sich in beiden Faellen nach Potenzgesetzen verhaelt. Hier: es gibt viele Seiten die einen Maximumswert von nur (ich sag jetzt mal) 5 Selbstzitierungen haben und nur wenige mit einem Maximumswert von 1000. Dort: es gib nur wenige Seiten die auf einem gegebenen (relativ kleinen!) Linklevel 1000 Selbstreferenzen haben, und viele die auf einem gegebenen (relativ kleinen!) Linklevel nur 5 Selbstzitierungen aufweisen. Hørt sich aehnlich an, sieht aehnlich aus, sind aber zwei total verschiedene Sachen.

Zur Maximumswerthaeufigkeitsverteilung gibt’s nix zu sagen, was nicht schon gesagt wurde. Interessant ist nur der sehr lange Schwarz zu sehr hohen Werten auf der Abzsisse. Das muesste man sich mal in kumulativer Darstellung anschauen … mach ich aber nicht mehr.

Ach ja … auch hier wieder: Reproduktion erfolgreich.

Als Letztes noch die Linkfrequenz:

Øhm … joa … da muss ich nix weiter zu sagen. … … … Ah doch: der „vertikale Strich“ am linken Rand im linken Diagramm ist wieder die „Abkuerzung“ zu den Archipelen. Das sieht man bei linearer Abzsisse nur nicht so gut.
Und ansonsten kann ich mich auch hier bzgl. der Reproduktion nur wiederholen: hat geklappt.

Das soll reichen fuer heute … bin gespannt, was es naechstes Mal wird.