Archive for August, 2025

Direkt an das letzte Mal (also ohne Wiederholungen) anknuepfend:

Super! Reproduziert … … … … … … … … … aber hmmmm … hier stimmt doch was nicht!

Am Anfang des letzten Artikels beschrieb ich die alte Vorwaertsmethode doch gar nicht mit „schaue wann der NAECHSTE Wert Null ist“ (auch wenn ich derart die damaligen Daten reproduzieren konnte; siehe das dritte Diagramm beim letzten Mal), sondern „schaue wo der ERSTE Wert Null ist“. Ich muss also die „wenn der Wert auf einem gegebenen Linklevel UNgleich Null ist“ Bedingung zu „wenn der Wert auf einem gegebenen Linklevel GLEICH Null ist“ modifizieren und NUR dies benutzen um nach „Ausgaengen“ zu suchen. Das sieht dann so aus:

Verdammt! Wenn ich das was ich sagte (und meinte) ordentlich implementiere, dann sieht das zwar von der Form aehnlich aus, aber liegt im Wesentlichen ueberall ([zum Teil sehr deutlich] mehr als) eine Grøszenordnung UNTER den Ergebnissen von damals (und damit auch unter den Ergebnissen der Rueckwaertsmethode).
Aber da stimmt immer noch was nicht … ich kønnte mich da zwar gewaltig taeuschen, aber ich kann mich nicht erinnern, dass ich damals „schau ob der NAECHSTE Wert Null ist“ implementiert hatte. Wie bin ich dann aber auf die Ergebnisse gekommen?
Ueber die Antwort stolperte ich in anderen Beitraegen (die ich vermutlich naechstes Mal versuchen werde zu reproduzieren) und die ist trivial — ich hab (unbewusst) geschummelt:

[…] die Skala fuer das Linklevel [geht] erst bei 2 los. Auf LL1 kann nix reaktiviert werden.

Oder anders: ich fange an „Ausgaenge“ erst ab LL1 zu suchen (anstatt bei LL0). Und wenn ich schummel, dann erhalte ich tatsaechlich die Ergebnisse wie damals (siehe das erwaehnte dritte Diagramm im vorhergehenden Beitrag). Das entspricht naemlich dem Algorithmus „schaue ob der NAECHSTE Wert Null ist“, angefangen bei LL0, denn dabei steht man zwar am Anfang auf LL0 schaut aber als allererstes auf LL1.

Oder noch anders: die urspruengliche (!), damals benutzte (?) Vorwaertsmethode war ueberhaupt nicht so wie ich die beschrieben hatte. Vielmehr implementiere ich das damals mit der UNZULAESSIGEN (!) Zusatzinformation, dass Selbstreferenzen ohnehin nicht vor LL1 losgehen kønnen. Das ist aus zwei Gruenden unzulaessig. Zum Einen gibt es durchaus Seiten die Selbstreferenzen auf LL0 haben (auch wenn ich das als Artefakte des Dateneinsammelns erkannt habe). Zum Zweiten macht das die Vorwaertsmethode nur fuer Selbstreferenzen (und nicht allgemein) brauchbar, denn alle anderen Grøszen von Interesse MUESSEN auf LL0 anfangen.

Und hier liegt der schwerwiegende Fehler. Ich habe urspruenglich eine Methode benutzt die zum Ersten nicht gut ist und nur (wie im Nachhinein erkannt) mit Zusatzannahmen ordentliche Ergebnisse liefert. Zum Zweiten bei richtiger Implementierung (also ohne Zusatzannahmen oder erweiterte oder modifizierte Bedingungen, also genau so wie ich die Methode beschrieben habe) Ergebnisse zur Folge hat, die etwas vøllig anderes liefern als das was ich eigtl. suche. Und zum Dritten erhielt ich damals nur deswegen irgendwie (?) richtige (?) Ergebnisse, weil ich durch „schummeln“, die Diskrepanzen des zweiten Punktes unbewusst und unerkannt, also aus Versehen, kompensiert habe.

DAS ist eine Art Fehler die wissenschaftliche Arbeiten fundamental zu Fall bringen.

Mich duenkt (bin mir aber nicht ganz sicher) ich erwaehnte das Folgende bereits an anderer Stelle. Im Wesentlichen kønnen alle Fehler in der Wissenschaft in zwei Kategorien eingeordnet werden.
1.: Berichtigungen,
2.: die Methode ist komplett falsch weil zugrundeliegende Annahmen oder Methoden Quatsch sind.

Berichtigungen sind OK und wichtig. Die kønnen auch die Methode kritisieren und kønnen flapsig als „man muss aber diesen Effekt auch beachten und dann korrigiert das Ergebniss 5 % nach unten“ bezeichnet werden. Rein vom „Rechnerischen“ kønnte man das bzgl. der Korrekturen an Newtons Vorhersagen durch Einsteins Gravitationstheorie sagen. Und rein vom Rechnerischen ist das auch OK und die Menschenhheit hat mittels Netwons Theorie Menschen auf den Mond gebracht. Aber …

… Newton meinte von seiner Gravitationstheorie, dass diese das Universum beschreibt, waehrend Einstein zeigte, dass die grundlegenden Annahmen Newtons, ein universales Koordinatensystem, auf das man von ueberall aus Bezug nehmen kann und instantan wirkende Kraefte, komplett ueberhaupt nicht der Realitaet entsprechen. Newtons Theorie geht von so falschen Annahmen aus, dass Einstein die Theorie komplett zu Fall gebracht hat.
Newtons Theorie funktioniert verdammt gut fuer alles was uns im normalen Leben interessiert, denn da sind seine Annahmen zwar (auch) nicht realisiert, aber weil nur kleine Gravitationsfelder und Geschwindigkeiten vorliegen ist das nicht so schlimm und es fuehrt nur zu winzigkleinen Fehlern, wenn man so tut als ob sie realisiert sind. Das fuehrt aber NICHT dazu, dass Einsteins Gravitationstheorie nur zu einer Berichtigung wird, denn selbst bei kleinen Gravitationsfeldern und Geschwindigkeiten beschreibt Newtons Theorie das Universums nicht wirklich, denn Newtons Theorie laeszt bspw. Gravitationswellen nicht zu.

Und der Punkt bleibt selbst dann bestehen, wenn aus Newtons Theorie die „richtigen Zahlen rausfallen“. Ein anderes Beispiel was meinen Punkt mglw. etwas besser illustriert sind „KI“ Chatbots. Wir sind laengst nicht mehr in der Lage die von echten Menschen zu unterscheiden (wenn wir es nict vorher wissen). Oder anders: es „fallen die richtigen Zahlen“ bei einem Gespraech mit denen raus. Das macht solche „KI“ Chatbots noch laengst nicht zu Menschen. Auch dann nicht, wenn sie in Roboter installiert werden, die aueszerlich nicht von Menschen unterschieden werden kønnen (wenn „die Zahlen“ also noch „richtiger“ werden). Und das Argument bleibt auch dann bestehen, wenn man die Anfuehrungszeichen weg laeszt und man irgendwann echte Intelligenzen (nur eben auf Silizium basierend) hat, denen man dann meiner Meinung nach sogar Persønlichkeitsrechte einraeumen muss … das sind immer noch keine Menschen … selbst dann nicht wenn wir sie wie Menschen behandeln (siehe bspw. der Film Her … „die Zahlen“ als noch „richtiger richtiger“ werden) … es sei denn natuerlich, wir veraendern die Definition von „Mensch“ (und damit die zugrundliegende Theorie) fundamental.

Und wer mir jetzt mit „Aber aber aber! Newton ist richtig, denn wir bauen damit doch Bruecken und bringen Menschen auf den Mond und ich soll mal bitte nicht so’n Erbsenzaehler sein“ kommt, den verweise ich auf Aristoteles. Denn der hat gesagt, dass jeder bewegte Gegenstand AUTOMATISCH zur Ruhe kommt, wenn man den in Ruhe laeszt. DAS beschreibt die Welt um mich herum, wie ich sie den ganzen Tag sehe und erlebe, VIEL besser als Newtons erstes Gesetz. Deswegen war es DIE akzeptierte Wahrheit bzgl. dessen wie die Welt funktioniert fuer Jahrtausende. Als Newton formulierte, dass dem NICHT so ist, war es damals auch direkt als Widerlegung von Aristoteles gemeint. Und wer mir so kommt, møge mir bitte detailliert darlegen, warum er das auf Newton, aber nicht auf Aristoteles bezieht … Aber ich schwoff ab.

Oder anders: „KI“ Chatbots als Menschen zu behandeln, oder mit Netwons Gravitationstheorie (bisher ausschlieszlich) Maenner auf den Mond zu bringen, reproduziert zwar was wir messen, es beschreibt aber nicht das Universum.

Und deswegen hab ich das beim letzten Mal (und hier) alles so detailliert ausgebreitet. Auf den ersten Blick sieht’s so aus als ob die zwei Methoden um „Ausgaenge“ zu finden nicht viel anders sind und alle Unterschiede in den Ergebnissen natuerlich erklaert werden kønnen. Als ich aber genauer hinschaute erkannte ich, dass eine ordentliche Implementierung der urpsruenglich diskutierten Vorwaertsmethode eigentlich vøllig andere Ergebnisse zur Folge hat und das damals nur durch weitere, nicht erkannte, Fehler (bzw. unzulaessige Zusatzannahmen) kompensiert wurde.

Und DAS ist ein schwerwiegender Fehler der zweiten Art und ich kann hier eigentlich nur sagen: Reproduktion NICHT geglueckt.

Solche Fehler passieren und das ist auch erstmal nix Schlimmes. Es ist durchaus auch ein Zeichen von Fortschritt, denn ein Fehler wird ja erst dann zum Fehler wenn man den als solchen erkennt (vorher ist’s einfach nur richtig und die Wahrheit). In der Wissenschaft sollte man das dann halt nur eingestehen und genau diskutieren um zu erkennen was falsch gemacht wurde, damit man aehnliche Fehler an anderer Stelle nicht wiederholt.

So, nun hab ich alles gesagt, was ich sagen wollte un kann mit ruhigem Gewissen beim naechsten Mal endlich die naechste Reproduzierung angehen.

Datum: Sommer 2022 (bin gerade zu faul den genauen Tag rauszusuchen), Zeit: frueher Nachmittag, Ort: Trinity College, Cambridge.

Auch wenn ich Newton und seiner Arbeitsweise (NICHT seinen Ergebnissen in den Naturwissenschaften) eher kritisch gegenueber stehe: fetzt wa!

Ach so … zur Sicherheit sei es gesagt: es ist der kleine Baum hinter mir, nicht der dicke Grosze dessen Krone sich links ins Bild streckt.

OKOK … ich gebe zu, dass das nicht das Original im herkømmlichen Sinne ist. ABER genetisch ist es vom Original nicht zu unterscheiden, denn es handelt sich dabei um einen Klon … cool wa!

Ebenso fetzig ist, dass eins der kleinen Fenster da hinten zu dem Raum gehørt, in dem Newton lebte waehrend er in Cambridge studierte.

Letztes Mal reproduzierte ich die „Aussteiger“. Dabei benutzte ich aber eine etwas andere Herangehensweise als damals. Ich erwaehnte nur kurz, dass die damalige Herangehensweise etwas „haarig“ war in Bezug auf Selbstreferenzen, da die entsprechenden Kurven nicht nur und ausschlieszlich am Ende des (seitenabhaengigen) Linknetzwerks „aussteigen“, sondern das auch schon auf fruehen Linkleveln tun kønnen … um dann u.U. auch wieder „reaktiviert“ zu werden auf nachfolgenden Linkleveln.
Wieauchimmer, da beide Herangehsenweisen zur Ermittling der „Aussteiger“ bei den anderen Grøszen von Interesse zum selben Ergebnis fuehren, und auch das Diagramm der Selbstreferenzen auf den ersten Blick nicht all zu unterschiedlich war, habe ich mich darum zunaechst gar nicht weiter gekuemmert und nur mit …

[d]eswegen sind die roten Balken im linke[n] Diagramm hier nicht identisch zum damaligen Diagramm

… kommentiert.

Natuerlich hat mir das keine Ruhe gelassen, und ich wollte schauen wie grosz die Diskrepanz ist. … … … Und ach du Schreck! … da hab ich ja einen wirklich ernstzunehmenden Fehler gemacht.
Aber der Reihe nach und heute nur mit den 2020 Daten denn hier muss nix in dem Sinne reproduziert werden, denn ich will ja den Fehler diskutieren.

Zur Erinnerung: die neue Herangehensweise findet den „Ausgang“ derart, dass vom Ende einer Kurve, in Richtung Anfang gehend, geschaut wird, bei welchem Linklevel der Wert der Kurve zum ersten Mal UNgleich Null ist. Die damalige Herangehensweise hingegen schaute vom Anfang einer Kurve, in Richtung Ende gehend, bei welchem Linklevel der Wert der Kurve zum ersten Mal GLEICH Null wird.
Wie gesagt, ist das, von den Selbstreferenzen abgesehen, kein Problem, da alle anderen Grøszen von Interesse „durchgehende“ Kurven haben und beide Methoden das selbe Ergebnis liefern. Aber es geht ja um genau diese Selbstreferenzen.

Hier sieht man den Unterschied der Aussteiger-per-Linklevel-Kurven-der-Selbstreferenzen wenn man das wie damals macht (schwarze Punkte, vorwaerts nach der erste Null suchend) bzw. besser (rote Quadrate, rueckwaerts nach dem ersten Wert der ungleich Null ist suchend):

Achtung: Damals hatte ich das Linklevel beim dem zum ersten Mal null Selbstreferenzen auftreten als „Ausgang“ deklariert, waehrend es nach der neuen Methode das Linklevel direkt davor ist was ja noch einen Wert ungleich null hat. Die Punkte von damals wurden dahingehend um ein Linklevel nach Links verschoben; das gilt auch fuer alle folgenden Diagramme.

Das scheint anfangs qualitativ (!) recht gut uebereinzustimmen (davon abgesehen, dass ich damals „flache“ Kurven nicht extra bedacht hatte). Quantitativ gibt’s zwar zum Teil zahlentechnisch grosze Unterschiede die man wg. der logarithmischen Skala (fast) nicht wahr nimmt, das ist aber nicht so wichtig, denn alles was ’n Unterschied von ’nem Faktor weniger als ’ne Grøszenordnung hat ist schon OK.
Was mich zu Werten ueber LL10 bringt; denn ab dort erhaelt man mit der (neuen) Rueckwaertsmethode ca. ’ne Grøszenordnung mehr „Ausgaenge“ als mit der (alten) Vorwaertsmethode.

Aber das ist NICHT der schwerwiegende Fehler, denn das ist erklaerbar mittels „Reaktivierungen“. Es passiert dass eine Kurve die schon „ausgestiegen“ ist, auf einem høheren Linklevel „reaktiviert“ wird. Das ist dann meistens nur das eine einzige Linklevel (oder vllt. auch mal zwei oder drei), auf dem pløtzlich nochmal eine Selbstreferenz auftaucht. Das fuehrt dann natuerlich zu einem weiteren „Ausgang“ (es ist halt nur nicht der erste „Ausgang“ fuer eine gegebene Kurve) der von der Rueckwaertsmethode erkannt wird, wenn es denn der Letzte ist.
Damit die Vorwaertsmethode so weit hinten einen „Ausgang“ registriert, muss die entsprechende Kurve ohne Unterbrechung mindestens eine Selbstreferenz auf jedem Linklevel bis dorthin gehabt haben. Eine so lange ununterbroche Kette von Selbstreferenzen zu haben hat natuerlich eine sehr kleine Wahrscheinlichkeit, weswegen die Vorwaertsmethode bspw. auf LL35 nur einen „Ausgang“ registriert, waehrend die Rueckwaertsmethode 45 „Ausgaenge“ aufspuert (wovon der eine von der Vorwaertsmethode darunter ist).
In anderen Worten: die Diskrepanz hat eine Erklaerung die aus der Natur der unterschiedlichen Methoden kommt, und insb. weil es sich hierbei um eher kleine absolute Zahlen handelt, macht mich der Unterschied nicht wirklich stutzig.

Nun arbeite ich aber an der Reproduzierbarkeit und da ist’s kontraproduktiv die Methode zu aendern (auch wenn es die bessere Methode ist). Das wurmte mich und deswegen setzte ich mich ran und hackte kurz die Vorwaertsmethode zusammen. Weil ich gute Vorarbeit geleistet habe ging das recht fix. … … … Und hier ging der „Aerger“ los.

Alles fing damit an, dass ich mittlerweile von „flachen“ Kurven (also solchen die keine einzige Selbstreferenz haben) gelernt hatte. Damals hatte ich die ueberhaupt nicht beachtet. Nun wollte ich die aber mit unterbringen. Deswegen muss ich nochmal kurz auf die Rueckwaertsmethode zu sprechen kommen und erklaeren warum die der Vorwaertsmethode ueberlegen (und vorzuziehen) ist um die „Ausgaenge“ zu bestimmen.

Es gibt bei der Rueckwaerrtsmethode nur zwei Bedingungen und alles andere folgt zwingend aus denen. Erstens: geh rueckwaerts, Zweitens: der erste Wert ungleich Null ist der Ausgang. Simpler als das geht’s nicht. Und wenn man mal nachdenkt ist die erste Bedingung keine richtige Bedingung denn man kann eine Dynamik nicht erforschen, wenn man sich nicht bewegt; man braucht also zwingend eine „Bewegungsrichtung“. Wichtig ist nur zu wissen, wann man stoppen muss (wann man also das gefunden hat wonach man sucht). Ich sage jetzt also mal, dass es nur EINE Bedingung gibt … einfacher geht’s nicht.
Man sieht leicht, dass da automatisch der „wahre Ausgang“ rausfaellt, denn bei der Rueckwaertsmethode muss man sich nicht drum kuemmern ob eine Kurve mehrere vorherige „Ausgaenge“ hat und dann nochmal „reaktiviert“ wird. Auszerdem folgt automatisch dass eine Kurve flach ist wenn man bis LL0 kommt und kein einziger Wert ueber Null liegt.

Nun zurueck zur Vorwaertsmethode; im Namen liegt bereits die „Bewegungsrichtung“, womit das gegessen ist. Oben schrieb ich, dass ich schaute, wann der erste Wert Null wird als „Ausgangsbedingung“. Das alleine ist zunaechst eine genauso simple Regel aehnlich bei der Rueckwaertsmethode. Die ist aber leider nur notwendig und nicht hinreichend. Insb. dann wenn man flache Kurven unterscheiden will, denn bei denen liegt ja bereits auf LL0 der Wert Null vor … ich kann aber nicht entscheiden ob eine Kurve flach ist, ohne durch alle Linklevel durchgegangen zu sein.
Deswegen muss man eine zweite Bedingung anfuehren und die Erste etwas modifizieren: ein „Ausgang“ liegt vor, wenn der Wert auf einem gegebenen Linklevel UNgleich Null und der Wert auf dem naechsten (!) Linklevel GLEICH Null ist. Kommt man am Ende aller Linklevel an und beide Bedinungen lagen nie gleichzeitig vor, hat man (automatisch) eine flache Kurve (fuer die die „gleich Null“ Bedingung ueberall gilt).

Damit erhaelt man dieses Diagramm:

Das sieht auf den ersten Blick ganz gut aus. Es gibt ein rotes Quadrat bei LLminus 1 fuer die flachen Kurven und deswegen stimmen die Werte bei LL0 nicht ueberein (denn frueher hatte ich beides in LL0 zusammengefasst). Das ist also OK … Aber Moment mal! Wieso findet die neue Vorwaertsmethode einen Wert bei LL27 (und ein paar anderen Linkleveln) die alte aber nicht? Und ueberhaupt scheinen die schwarzen Punkte und Quadrate etwas gegeneinander verschoben zu sein! (Das sieht man bei linearer Ordinate deutlich deutlicher). Beides sollte nicht vorkommen, ich muss hier also was „falsch“ machen … Hinweis: ich habe damals was (maechtig) falsch gemacht.

Also suchte ich nach dem alten Code … und konnte den nicht finden. Ich bin mir ziemlich sicher, dass der irgendwo ist, aber der alte Code ist so ein Saustall (was ja die Motivation fuer den Reproduktionsteil des ganzen Projekts ist, weil ich eben auch den Code ordentlich machen wollte, damit ich das publizieren kann), dass ich den entsprechenden Teil nicht mittels Schlagwortsuche gefunden hab und ich wollte nicht durch mehrere tausend Linien Code lesen. Auszerdem gibt es eine gewisse Wahrscheinlichkeit, dass ich den tatsaechlich geløscht habe … das liegt an einer gewissen Eigenheit meines Modus Operandi, aber da geh ich jetzt nicht naeher drauf ein.

Also ueberlegte ich was ich damals gemacht haben kønnte und zum Glueck war mein (neuer) Code jetzt „gut sortiert“ und mittels nur einer winzigen Aenderung konnte ich die „Wert auf einem gegebenen Linklevel muss UNgleich Null“-Bedingung rausschmeiszen … denn an die hatte ich damals ja gar nicht gedacht. Es bleibt also nur „Wert auf dem naechsten Linklevel muss GLEICH Null sein“ uebrig. Und siehe da …

… das passt … Hurra! Also auszer von den Werten bei LLminus 1 und LL0 abgesehen, aber die stimmen in der Summe mit dem alten Wert bei LL0 ueberein. Super! Reproduziert … … … … … … … … … aber hmmmm … hier stimmt doch was nicht! … … … Der Beitrag ist nur jetzt schon so lang, sodass ich den Rest der Diskussion auf’s naechste Mal verschiebe.

.oO(Wie so oft: zu einer vermeintlich abgeschlossenen Miniserie kann man (fast) immer noch was hinzufuegen. )

Ich war mit der eigentlichen (Test)Messkampagne nicht so richtig zufrieden:

[d]ie Messungen in der Kueche waren durchaus spannend, weil es viel zu entdecken und erklaeren gab. Warum ich das Ganze aber eigentlich machte [Feinstaub durch Verkehr] dann letztlich nicht.

Im selben Beitrag schreibe ich auch, dass …

[…] [a]b ca. halb acht steigt [die Feinstaubdichte] […] bis ca. 10 Uhr [an] […] und dann [zappeln] die Werte um einen gewissen Plateauwert […]. Mhmmmmm … das kønnten dann Rentner sein, die es sich nach dem Aufstehen schonmal gemuetlich warm in der Stube machen.

Weil dann nicht wirklich weiter was passiert bis die Leute von der Arbeit nach Hause kommen und die Holzøfen anschmeiszen, war ich eben eher enttaeuscht, weil da ja vermeintlich kein Verkehrsfeinstaub drin ist.

Mittlerweile denke ich aber, dass ich das falsch interpretiert habe. Hier nochmal der Graf:

Was ich zunaechst als „Ommas fangen an die Stube zu heizen“ interpretierte, faellt eigtl. auch mit dem Morgenverkehr zusammen. Die produzieren aber deutlich weniger Feinstaub als erwartet.
Weil’s kalt ist, verklumpt der Feinstaub nicht mit dem Wasser in der Luft (weil’s keins gibt, weil’s so kalt ist) und wird somit nicht „ausgewaschen“ (vulgo: faellt als dreckiger „Mikroschnee“ zu Boden). Der schwebt da also nur so rum, kaum beeinflusst von der Gravitation.
Nach 10 Uhr werden es zwar weniger Auos als zur Stoszzeit am Morgen, es sind aber immer noch genuegend um das was morgens produziert wurde immer fein aufzuwirbeln und in der Luft zu halten. Und auch wenn es im Schnitt weniger sind, so faren doch noch eine ganze Menge Autos, die natuerlich noch mehr Feinstab produzieren.

Ich habe den Eindruck, dass bei uns der meiste Feinstaub durch die Reifen auf der Strasze verursacht wird. Spikes an den Reifen die den Asphalt viel mehr belasten. Auszerdem VIELE Salzkristalle die von den schweren Autos immer feiner zerrieben werden. Und nicht zu vergessen der Rollsplitt, der zwar eigtl. nur auf den Gehwegen liegen sollte, aber genuegend davon schafft es auf die Strasze und sorgt fuer Extrabelastung und noch mehr Abrieb.

Wenn Schneematch liegt (oder auch nur bei feuchter Fahrbahn) ist das alles nicht so schlimm, dann vermischt sich das sofort und bleibt am Boden liegen. Deswegen schlagen die Feinstaubkurven auch kaum aus, sobald die Temperatur ueber Null liegt: die Strasze ist feucht genug um all den „Abrieb“ aufzunehmen und somit geht das gar nicht erst in die Luft. Bei trockener Kaelte hingegen funktioniert dieser „Reinigungsmechanismus“ nicht mehr und der Staub wird dann aufgewirbelt und verteilt sich prima ueber weite Strecken und rein in meine Lunge … *seufz*.

Oder anders: mglw. habe ich ja doch das gemessen, was ich messen wollte … es war halt nur deutlich weniger spektakulaer als ich gehofft (und erwartet) habe.