Archive for the ‘Allgemein’ Category

Geburtstagsbeitrag! Und wieder lasse ich mich detailliert ueber ein Thema aus, welches mglw. nicht so richtig interessant ist fuer den Rest der Menschheit.

Heute geht es darum, wie oft und in welchem Zusammenhang meine Artikel zitiert wurden, die ich im Zuge meiner (zweiten) Doktorarbeit schrieb. Es ist also ’ne (richtig lange) Nabelschau; nicht im Wortsinne, aber im Sinne wie dieses Wort heutzutage gebraucht wird, mit allen Implikationen. Insb. ist wahr, dass die Untersuchungen welche zu diesem Beitrag fuehrten (und natuerlich auch das Schreiben dieses Beitrags) eine …

[…]  übertrieben[…], unfruchtbare[…] Beschäftigung mit der eigenen Person […] [war], die von wichtigeren Aufgaben ablenkt[e] und eine nötige Hinwendung zur Umwelt verhindert[e].

Gluecklichweise brauchte ich nur einen Nachmittag (mich duenkt das war im Februar 2022 (und ein klein bisschen waehrend des Schreibens)) um den Zitierungen hinterher zu forschen schnueffeln. Weil es aber einen ganzen Nachmittag dauerte beschraenkte ich mich eben auf meine „neuesten“ drei Artikel und tat mir das nicht auch noch fuer die Arbeiten meiner ersten Doktorarbeit an.

Bevor es los geht nur noch das: Selbstzitierungen zaehle ich natuerlich nicht mit.

Mein erster Artikel hat den Titel „A Running Reference Analysis Method to Greatly Improve Optical Backscatter Reflectometry Strain Data from the Inside of Hardening and Shrinking Materials“ … selbstverstaendlich steht der allen frei zur Verfuegung.

Zunaechst einmal gibt es Zitierungen in Arbeiten aus der selben Arbeitsgruppe, weil ich „Zeug“ habe „rumliegen“ lassen; vulgo: die im Titel erwaehnte Methode und die Software die ich schrieb. Da wird dann kurz erwaehnt, dass die „meine“ Methode benutzen.
Dazu zaehlen:
– Eine Masterarbeit mit dem Titel „Monitoring of Composite Repair on Risers„.

– Ein Beitrag auf einer … *seufz* … NATO-nahen Konferenze mit dem Titel „Sensing of Structural Damage with OBR Based Fibre-Optic Networks“ … und nein, das passt mir nicht in den Kram, aber schon aus grundsaetzlichen ethischen Gruenden kann ich eine solche Nutzung nicht verhindern … frei ist frei, ohne Wenn und Aber!
Dies ist ein sogenanntes „Proceedings Paper“. Davon halte ich nicht so richtig viel, denn auch wenn diese durchaus wissenschaftliche Arbeit praesentieren, so ist’s doch so, dass in Konferenzeproceedings oft genug auch Muell verøffentlicht wird, der woanders nicht durchkommen wuerde. Das weisz ich daher, weil ich selber mal „Reviewer“ fuer einen Proceedingsband war … das war noch bevor ich ein Diplom hatte.
In diesem Fall weisz ich, dass die Arbeit ordentlich ist, eben weil ich mit den Leuten zusammengearbeitet habe.

– Ein echter, peer-reviewed Artikel mit dem Titel „Embedded optical fibres for monitoring pressurization and impact of filament wound cylinders“ … *hust*

Bei den obigen Sachen bin ich mir nicht sicher ob ich die Zitierungen auch bekommen haette, wenn die involvierten Personen nicht mit mir zusammengearbeitet haetten. Deswegen habe ich die separat betrachtet.
Nun folgen „richtige“ Zitierungen.
– Zunaechst ein weiteres Proceedings“paper“ (also nicht wirklich wichtig) mit dem Titel „Large strain measurement method based on dynamic reference in distrbuted optical fiber“. Zu diesem finde ich nix weiter, nicht mal einen Link zu einer geschlossenen Zeitschrift.

Alle Artikel die folgen sind „echte“, peer-reviewed, Artikel in anerkannten wissenschaftlichen Zeitschriften.

– Als Erstes drei separate Artikel von (im wesentlichen) den gleichen Autoren.
1.: Expanding the range of the resolvable strain from distributed fiber optic sensors using a local adaptive reference approach … ich fand das nicht in freier Form :(
2.: Graphical Optimization of Spectral Shift Reconstructions for Optical Backscatter Reflectometry
3.: An Adaptive Reference Scheme to Extend the Functional Range of Optical Backscatter Reflectometry in Extreme Environments … *hust*
Leider scheinen die (Haupt)Autoren mit Kernkraft in Verbindung zu stehen … *seufz*.

Hier møchte ich einschieben, dass ’ne Zitierung laengst nicht bedeutet, dass die Autoren den Artikel auch wirklich gelesen, oder sogar verstanden haben. Manchmal Oft braucht man halt noch ’n Zitat fuer etwas das man macht, einfach um den Reviewern zu zeigen, dass man sich das besagte etwas nicht aus der losen Luft ausgedacht hat … selbst (oder gerade) dann, wenn man es sich aus der losen Luft ausgedacht hat. Der erste Artikel dieser Autoren macht ein bisschen diesen Eindruck, weil die auch eine optische Fiber in Epoxy gelegt haben. Andererseits werde ich im zweiten Artikel mehrfach erwaehnt und sogar in den richtigen Zusammenhaengen.

Apropos zweiter Artikel; die Autoren schreiben:

Previous studies have utilized […], human input emulation [my paper] to interact with commercial analysis software […]

Ja, das ist vøllig korrekt … ich habe einen Auto Clicker programmiert … aber so wie die das schreiben klingt es natuerlich deutlich beeindruckender … tihihi

Im dritten Artikel weisen die Autoren auf einen Nachteil meiner Methode hin. Dieser Nachteil kann leicht umgangen werden. Ich erwaehnte das aber nicht explizit, weil ich dachte, dass das klar ist und aus dem grundlegenden Prinzip folgt. So kann man sich taeuschen. Andererseits ist’s auch vøllig normal, dass man die Nachteile der Methoden anderer Wissenschaftler „grøszer“ macht als diese eigentlich sind. Einfach um die eigene Sache in ein besseres Licht zu stellen.
Dann schreiben sie aber auch:

To resolve spectral shifts beyond the range of a static reference measurement, a running reference approach has recently been proposed and used to successfully resolve large strains in optical fibers that were embedded in a hardening epoxy [my paper].

„Beyond“ hørt sich so nach „To boldly go where no one has gone before“ an … toll wa! Was ich alles zustande bringe :)

– Dann habe ich „A Review of Recent Distributed Optical Fiber Sensors Applications for Civil Engineering Structural Health Monitoring„. Witzig ist diese Stelle:

In […] [my paper], a novel post-processing methodology was introduced as a solution to the issue of “meaningless results” […]. […] the new data analysis method [was] baptized “running reference analysis method” […].

Da hab ich also was getauft … tihihi

Dieser Artikel ist uebrigens der Idealfall. Meine Methode wird als (gute) Løsung zu einem (relativ) weit verbreiteten Problem erkannt. Leider ist es ein Review und somit keine neue Forschung, in der meine Methode zur Anwendung kommt. Leider deswegen, weil es durchaus normal ist, dass spaetere Forscher dann nicht die originalen Verøffentlichungen, sondern dieses Review zitieren … *seufz*

– Weiter geht’s mit „A Sensitive and Fast Fiber Bragg Grating-Based Investigation of the Biomechanical Dynamics of In Vitro Spinal Cord Injuries„.
AAAGHGHAGRHGHGAHGRHA!!! DIE *piep* SCHREIBEN MEINEN NAMEN FALSCH!!!!
Lustig: das ist was ueber Rueckgratverletzungen. Weniger lustig: das macht den Eindruck, dass ich nur zitiert werde um die Literaturliste aufzumotzen (siehe oben) … *seufz*. Andererseits ist’s ja schøn, dass ich und nicht wer anders zitiert wird.

– Ganz toll ist „Monitoring of type IV composite pressure vessels with multilayer fully integrated optical fiber based distributed strain sensing„, denn die haben _meine_ Methode auch wirklich und erfolgreich angewendet:

A good correlation between measurement and reference spectrum reduces noise. Therefore, data analysis was performed applying the running reference method described in [my paper].

*stolz auf mich selbst sei*

– Leider kann ich nix weiter zu „In situ measurement of phase transformations and residual stress evolution during welding using spatially distributed fiber-optic strain sensors“ finden.
Auszerdem scheinen die Autoren mit den oben erwaehnten Kernkraftforschern in Verbindung zu stehen … *seufz*

– Der Artikel mit dem Titel „Performance Investigation of OFDR Sensing System With a Wide Strain Measurement Range“ … *hust* … hinterlaeszt einen schlechten Beigeschmack.
Das liegt aber nicht am Artikel selbst. Ein wirkliches Problem mit meiner Methode wird dargstellt. Aber auf mich machte es den Eindruck, als ob die Autoren meinen Artikel gelesen haben und dann bemerkten: „Well, shit, someone has solved our problem already“ … das weisz ich natuerlich, weil ich selbst auch schon in solchen Situationen war.
Wieauchimmer, was sie sagen stimmt, aber das liegt daran, dass ich niemals Zugang zu den Rohdaten habe. VERFICKTE PROPRIETAERE SOFTWARE! Deswegen musste ich eine pragmatische Løsung finden. Und darueber „schimpfen“ die Autoren.
Mir schien beim Lesen auch, dass die Autoren (anders als ich) die Rohdaten zur Verfuegung hatten, denn sie implementieren (und publizieren) einen Algorithmus den ich mir damals fast genauso auch ueberlegt hatte (so weit ich mich erinnern kann). Den ich aber nie zur Anwendung bringen konnte, eben weil ich die Rohdaten nicht hatte … verdammt!

– Der Artikel mit dem Titel „Guidelines on Composite Flexible Risers: Monitoring Techniques and Design Approaches“ regte mich dann doch auf. Ja, ich werde im richtigen Zusammenhang zitiert aber die grosze Errungenschaft meiner Methode wird indirekt einem der oben erwaehnten (ehemaligen) Kollegen zugeschrieben. Sicherlich, der hat meine Methode erfolgreich in dem fuer die Autoren wichtigen Zusammenhang benutzt; aber mein Verstaendnis ist, dass ich die allerersten Referenzen finde und diese dann richtig zitiere. Im Wesentlichen ist dies das gleiche Problem, was ich schon zu dem Reviewartikel schrieb. Da kann ich leider nix machen und ist natuerlich auch nicht Schuld meines Kollegen. Aber aufregen tut es mich trotzdem. … … … und wenn ich mal drueber nachdenke, dann stellt sich die Frage, ob ich ueberhaupt zitiert worden waere, wenn meine Kollegen nicht meine Methode benutzt haetten … mhmmm.

– Als Letztes fuer heute: „Generalized Cross-Correlation Strain Demodulation Method Based on Local Similar Spectral Scanning„.
Toll ist, dass ich auch vier Jahre spaeter noch zitiert werde. Denn meistens wird man (wenn ueberhaupt) im ersten Jahr nach der Verøffentlichung zitiert (und dann nicht mehr).
Nicht so toll ist, dass die Autoren meine Methode schlecht reden auf eine Art und Weise die falsch ist:

[…] the measurement range of this method is still small […]

Damit meinen, dass man nur ein paar sogenannte microstrain (die Maszeinheit bei diesen Messungen) messen kann. Und das ist vøllig falsch! In meinem Artikel zeige ich die erfolgreiche Messung von 17-tausend (!) Microstrain. Das ist mitnichten „small“. Und dies trotz extrem widriger Messumstaende.
Die Schuhe zog es mir dann aber aus, als ich die Ergebnisse ihrer eigenen Methode sah. Der høchste gezeigte Wert liegt bei 4000 microstrain. Das ist vier mal weniger als das was ich geschafft habe. Und die hatten sehr gute Messbedingungen!
Klar, deren Methode mag schneller sein und weniger Messungen erfordern, aber die falsche Art und Weise wie meine Methode durch den „Schmutz gezogen“ wird ist ja wohl mal komplett daneben! Andere Wissenschaftler die diesen Artikel lesen, nehmen das fuer bare Muenze und benutzen dann nicht meine Methode, selbst wenn diese besser waere.

Najut … an dieser Stelle verschiebe ich die Schau auf meine anderen beiden Artikel auf zukuenftige Beitraege. Es ist schlieszlich mein Geburtstag und da will ich mich nicht aufregen

Fuer die Anzahl der totalen Links schaute ich mir die Verteilungen pro Linklevel an. Dies fuehrte zu Betrachtungen bzgl. der beobachteten Resultate, welche ich in die Begriffe „Zustandsdichte“ und „Phasenuebergaenge“ verpackte. Mindestens Letzteres stellte sich schlussendlich als nicht haltbar heraus, aber die Betrachtungen waren durchaus interessant — das hat das Spielen mit Daten nunmal an sich.

Bei den neuen Links wuerde ich bei den Verteilungen pro Linklevel im Wesentlichen beinahe das Selbe erwarten. Der einzige bedeutende Unterschied, von den bereits beim letzten Mal erwaehnten Schwankungen abgesehen, sollte nur sein, dass die Verteilungen auf der Abszisse nach links verschoben sind. Der Grund liegt natuerlich darin, dass ich weniger neue als totale Links habe (was ja in dieser Reihe schon mehrfach erwaehnt wurde).

Als Konsequenz dieser Erwartungen folgt, dass die grundsaetzliche „Form“ der Verteilung erhalten bleiben muss.
Bei LL0 ist das trivial, denn ganz am Anfang sind im Wesentlichen alle Links auch neue Links … abgesehen von Selbstreferenzen, aber darauf komm ich an anderer Stelle zurueck (zum Glueck fallen die nicht so sehr ins Gewicht).

Der Vergleich der Verteilungen bei LL1 sieht so aus:

Siehste! Man sieht das was ich oben schrieb. Toll wa!

Ich gebe zu, dass auch LL1 irgendwie „geschummelt“ ist, denn die Situation ist ja immer noch sehr aehnlich zu LL0. Deswegen springe ich mal vorwaerts zu LL9 (und ihr, meine lieben Leserinnen und Leser muesst mir einfach glauben, dass das oben Geschriebene auch fuer alle Linklevel dazwischen gilt).

Aha! Die Verteilung der neuen Links ist nach links verschoben und beide Verteilungen haben drei „Berge“; es bleibt also auch eine „komplizierte“ Form erhalten. Der dritte Berg ist in der Verteilung der totalen Links visuell deutlich schmaler. Ich denke, dass es sich hierbei wieder um eine Art der logarithmischen Komprimierung handelt.

Da zu høheren Linkleveln hin nicht mehr viel passiert und weil diese Verteilungen bereits frueher so ausfuehrlich diskutiert wurden, schaute ich mir nur noch zwei Verteilungen an; bei LL20 und LL30. Alles lag innherhalb der Erwartungen und zum „Beweis“ sei nur noch LL30 gezeigt:

Die vielen zu sehenden Phaenomene und Effekte in den Daten diskutierte ich, im Zuge der Betrachtungen zu den totalen Links, bereits im Detail . Darauf aufbauend, und weil (wie zu erwarten war) keine grosze Unterschiede bei den Daten zu den neuen Links auftauchten, konnte ich die Diskussion diesmal zu kurz halten. Fuer erstere Betrachtungen brauchte ich 20 1/2 Beitraege in dieser Serie, die sich ueber 4 1/2 Monate erstreckten. Diesmal waren es nur 2 1/2 Beitraege ueber 2 Wochen. Ist ja auch mal schøn, wenn ich mich kurz halten kann.

Ganz fertig bin ich aber noch nicht mit den neuen Links. Die Spruenge in den oberen Bildern scheinen immer ueber ungefaehr eine Grøszenordnung zu gehen. Jaja, ich weisz, es sind nur zwei „Messpunkte“, aber dies kønnte ein Hinweis darauf sein, dass es mglw. auf jedem Linklevel einen (mehr oder weniger) konstanten Faktor zwischen der Anzahl der totalen Links und der Anzahl der neuen Links gibt. Prinzipiell kønnte ich mir einen Mechanismus denken, wieso das so sein sollte.
Aber ich greife vor und verschiebe diese Untersuchungen und Diskussion auf den naechsten Beitrag.

Da kønnte man natuerlich streiten.
Ist es der Computer? … was natuerlich vøllig falsch waere, denn das ist keine einzelne Erfindung.
Oder ist es das Rad … auch das ist meiner Meinung nach falsch, denn dies ist eine so grundlegende Sache (Zylinder aus irgendwas mit Loch drin) wie „das Haus“ und niemand wuerde „das Haus“ als wichtigste Erfindung der Menschheit ansehen.

Mhmm … man braeuchte vielleicht also noch eine Einschraenkung. Natuerlich nicht so’n Quark wie „was hat die Produktionskosten massiv verringert“. Das ist zwar gut und wichtig, aber nicht langfristig relevant; siehe bspw. die Rechenmaschine. Nach der kraeht heute kein Hahn mehr, obwohl diese eine Revolution in der Buchhaltung war (und eine gute Buchhaltung ist urst wichtig wenn man was auf groszem Maszstab produzieren will … und somit Wohlstand fuer alle Menschen erzeugt).
Es sollte also eine Erfindung (oder Entdeckung) sein, die an Bedeutung nichts verloren hat und solange es Menschen gibt auch niemals verlieren wird. Dabei denke ich natuerlich sofort wieder an meine Miniserie zum IQ zurueck und dabei insbesondere auf das was ich zum Abschluss dieses Beitrags schrieb. Zusammenfassend: je mehr Menschen ueberleben und in guten Bedingungen grosz werden, desto besser.

AHA! Impfungen dann also … naja fast, aber nicht ganz.
Vielmehr denke ich, dass das WC, die grøszte Erfindung der Menschheit ist … und natuerlich alles was damit zusammenhaengt, und wo das WC als Ausdruck und Thron … das bot sich einfach zu sehr an, als das ich das nicht schreiben konnte … dieses ganzen Systems steht. Jaja, ich weisz, dass ich sagte, dass man das beim Computer nicht machen kann, aber ihr, meine lieben Leserinnen und Leser, wisst sicherlich worauf ich hinaus will … und das WC funktioniert im Wesentlichen auch fuer sich allein.

Allgemeiner geht es darum, dass die Menschen (zumindest in entwickelten Laendern) dafuer gesorgt haben ihre biologischen Endprodukte „fachgerecht“ zu entsorgen. Das beinhaltet vor allem die raeumliche Trennung dieser Abfallprodukte von allen anderen Orten die im menschlichenen Beisammensein eine Bedeutung haben; vulgo: die Kanalisation. Im Wesentlichen hat erst das  WC, im Wortsinne als water-closet, den Anschluss eines jeden Hauses an die Kanalisation sinnvill gemacht. Ein Loch im Boden bei dem der biologische Abfall nicht wegtransportiert wird ist zwar schon was wert, aber nicht soo viel denn das liegt da ja noch alles rum und ist eine Quelle fuer Infektionskrankheiten wie Cholera und Typhus. An dieser Stelle sei erwaehnt, dass es keinen Impfstoff gegen Typhus gibt und der Choleraimpfstoff auch nicht so doll ist.

Zur raeumlichen Trennung kam dann spaeter natuerlich auch noch die Wasseraufbereitung. Diese waere aber ohne Ersteres wirkungslos … sauberes Wasser in verseuchte Wohnungen zu leiten bringt nunmal nix.

Aber all das ist heutzutage „unsichtbare“ Infrastruktur im Hintergrund unseres Lebens und deswegen haben wir das vergessen. Wir høren von den oben erwaehnten Krankheiten nur aus den Medien … und meistens kuemmert uns das nicht wirklich. Uns ist nicht mehr bewusst, wie viele Menschen durch diese Krankheiten dahingerafft wurden und wie wichtig John Snows Entdeckung war, dass ein Choleraausbruch in London mit einer kontaminierten Wasserpumpe in Verbindung stand. Letzteres war uebrigens eines der (mir bekannten) fruehesten Anwendungen von „Data Science“ und witzig ist, dass er seine Resultate erfolgreich testete, indem er den Henkel besagter Pumpe abmontierte … tihihi.

John Snows Entdeckung ist die Grundlage fuer die gigantische Wirksamkeit der konkreten Erfindung — des WC’s — welche vermutlich so viele Menschenleben (indirekt) gerettet und deren (direkten) Lebensumstaende massiv verbessert hat, wie keine andere Erfindung der Menschheit (inklusive Impfstoffen, aber diese sind natuerlich auch super wichtig).

Und wieder gilt: das ist gut, dass wir (als Gesellschaft) das vergessen haben, ist dies doch auch hier Ausdruck riesigen Fortschritts.
Leider gilt (wie so oft), dass ich da im Wesenlichen von den entwickelten Laendern spreche. All diese Sachen, welche wir als Selbstverstaendlichkeit hinnehmen und nicht drueber nachdenken, sind eben nicht selbstverstaendlich fuer all zu viele Menschen in weniger entwickelten Teilen der Erde … dies soll aber mitnichten den erreichten Fortschritt kleiner machen!

Bei den Betrachtungen zu den totalen Links pro Linklevel musste ich zunaechst eine Erklaerung finden, warum der Anstieg der totalen Links am Anfang so sehr viel staerker ist als erwartet.
Dies fuehrte letztlich dazu, dass ich den Zusammenhang zwischen der Anzahl der Zitierungen die eine Seite auf sich vereint und der Anzahl der totalen Links der selben Seite untersuchte. Die Quintessenz dieser Untersuchungen drueckt sich so klar in diesem schøne Ergebniss aus.

Das mache ich selbstverstaendlich nicht nochmal, denn das waere nicht sinnvoll. Der Grund ist, dass wenn ich nur eine Seite und nicht deren Linknetzwerk betrachte, alle Links auf dieser Seite neu sind. Dies ist natuerlich unabhaengig von der Anzahl der Zitierungen dieser Seite.

Danach schaute ich mir die „Spaetzuender“ an. Dies waren Seiten, bei denen das Maximum der indivduellen Verteilung der totalen Links pro Linklevel deutlich  vom Maximum der Summe der Verteilung abweicht.
So richtig _deutliche_ Abweichungen fand ich nicht, und die Seiten bei denen die Position des besagten Maximums am meisten abweicht, waren entweder „Rohrkrepierer“, „komische Seiten“ oder eine unguenstige Verkettung von Artefakten, welche aus der Datenaufbereitung stammten. Im verlinkten Artikel wurde dies alles genau beschrieben.

Im Gegensatz zu Ersterem, ist es durchaus sinnvoll, sich die Verteilung der Position(en) der Maxima der individuellen Verteilungen der _neuen_ Links pro Linklevel anzusehen. Hier ist das Ergebnis:

Zum Vergleich in gruen (nochmals) das Gleiche aber fuer die totalen Links … Wortspielkasse. Man erkennt, dass es keine groszen Unterschiede gibt.

Schon aus den Verteilungen der Summe der neuen bzw. totalen Links, konnte man vermuten, dass auch hier das Maximum um ein Linklevel nach „unten“ (bzw. nach links) verschoben sein wird.

So weit so gut. Verschiebt man nun deswegen die rote Verteilung gedanklich um eins nach rechts faellt aber auf, dass die Balken fuer die neuen Links rechts von LL4 alle grøszer sind als die der totalen Links. Das sieht man eigentlich (mal wieder) nur wegen der logarithmischen Ordinate. Aber man sieht es und dieser „Effekt“ ist systematisch und echt und bedarf deswegen einer Erklaerung. Diese folgt sofort.

Zunaechst einmal ist zu beachten, dass ein Balken nur aussagt, wieviele Seiten das Maximum der gegebenen individuellen Verteilung auf dieser Position haben — mehr nicht. Und auch wenn dies den lang und breit diskutierten Trends folgt, so unterliegen die individuellen Verteilungen fuer neue und totale Links natuerlich … ich sag jetzt mal Schwankungen.

Damit kann der „Effekt“ erklaert werden (aber man muss mit den genauen Werten arbeiten, denn wenn man rundet geht das Rechenstueck nicht auf). Im ersten „Maximumsbalken“ fuer neue Links auf LL3 „versammeln“ sich 1.103.028 Seiten. Im ersten „Maximumsbalken“ fuer die totalen Links auf LL4 hingegen 3.874.695 Seiten. Die Diskrepanz ist ziemlich grosz und bedarf einer eigenen Erklaerung. Aber es verwundert mich ueberhaupt nicht, denn hier ist definitiv noch das „Gebiet der vielzitierten Seiten mit vielen Links“ (siehe das schøne Ergebnis weiter oben). Deswegen bin ich hinreichend sicher, dass diese auch hier wieder die Erklaerung sind.
Wieauchimmer, besagte Diskrepanz muss woanders „aufgefangen“ werden, denn ich untersuchte ja ein und dieselben Seiten. Letzteres bedeutet, dass fuer beide Betrachtungen das Integral unter der „Kurve“ den selben Wert ergeben muss (die Anzahl aller Seiten). Auch wenn es gar nicht so aussieht, so findet sich das Meiste davon im zweiten „Maximumsbalken“ gleich danach (4.643.436 zu 1.901.207). Die ca. 30-tausend Seiten die noch fehlen sind dann ueber die anderen Balken (auch links vom Peak!) verteilt.

Ich habe das so genau diskutiert, weil ich zeigen wollte, dass man manchmal (oft?) sehr genau hinschauen muss und Rundungen nicht aufgehen. Haette ich die Zahlen auf hunderttausend (also die erste Stelle nach dem Komma) gerundet, dann sieht es naemlich ueberhaupt nicht so aus, als wenn das passt. Tut’s aber … zum Glueck.

Aber letztlich sind das alles Einzelheiten. Aber Einzelheiten gehøren zur „Data Science“ oft genug dazu :).

Zum Abschluss sei noch gesagt, dass ich (trotz des oben gesagten) nicht nochmal genau hinschaue, was denn das fuer Seiten sind, deren Maximum der Verteilung der neuen Links (z.B.) vier Linklevel ueber (oder unter) dem Maximum der allermeisten Seiten liegt. Ich bin mir sehr sehr sicher, dass ich im wesentlichen wieder nur auf die selben Effekte stosze wie bei den totalen Links und welche ich oben (nochmals) auffuehrte.

… dieser Maxiserie ist noch nicht da, denn ich meine das Ende der Gesamtverteilung der totalen Links per Linklevel … hier nochmal zur Erinnerung:

Den „Schwanz“ der Verteilung (ich sag jetzt mal ab ca. LL25) sieht man natuerlich nur in der logarithmischen Darstellung und der verlaeuft ziemlich flach. Mit dem Wissen was wir bereits haben kønnen wir dies relativ leicht mittels einer Fermi-Abschaetzung erklaeren.
Wenn ich die Zahlen ganz grob aus dem Diagramm ablese, dann sehe ich, dass ich nach 25 Schritten nur noch ca. 500 totale Links habe. (Nicht vergessen: der grosze Wert auf der Ordinate muss durch ca. 6 Millionen dividiert werden, denn die Summe der totalen Links bildete ich ja ueber die Summe der Verteilungen aller Seiten). Zu dem Zeitpunkt habe ich dann aber die allermeisten Seiten schon besucht. Mein „Bauchgefuehl“ sagt mir, dass ich bei LL25 90 % dieser Links deswegen nicht weiter verfolge. Bleiben noch 50 neue, nicht besuchte Links uebrig.
Bei so hohen Linkleveln befinden sich vermutlich nur noch wenig zitierte Seiten (denn wenn die oft zitiert werden wuerden, haette ich die schon eher gesehen). Von frueher wissen wir, dass wir bei dieser Ueberschlagsechnung mit durchschnittlich 10 Links pro Seite rechnen kønnen. Das bedeutet dann, dass ich dann beim LL26 wieder 500 totale Links habe.
Schwuppdiwupp, ist der flach verlaufende Schwanz der Verteilung qualitativ (!) erklaert. Dabei ist zu bedenken, dass man bei einer Fermi-Abschaetzung versucht die Grøszenordnung richtig hin zu bekommen. Also waere ein Ergebniss von 50 oder 5000 auch gut gewesen.

Das ist ein guter Punkt, um endlich auf die naechste gemessene Grøsze ueber zu gehen: die Anzahl der _neuen_ Links pro Linklevel. Im linken Diagramm sieht man die Verteilung der Summe aller neuen Links pro Linklevel als rote Kurve:

Die Summe ist wieder so zu verstehen, dass ich die Anzahl der neuen Links aller Seiten aufaddiert habe, um obige Kurve zu erhalten.
Die rote Kurve ist sehr aehnlich der Verteilung der Summe der totalen Links (schwarze Kurve) … was zu erwarten war. Der grøszte Unterschied ist, dass die Amplitude pro Linklevel geringer ist … aber das muss ja so sein. Ebenso wird das Maximum (die zwei (!) høchsten Punkte) ein Linklevel eher erreicht … auch das war zu erwarten, wenn man mal drueber nachdenkt.

Im Diagramm auf der rechten Seite habe ich diese Verteilung mal grob „normiert“ auf die Anzahl aller Wikipediaseiten. Grob deswegen, weil ich 6 Millionen als Teiler genommen habe und nicht die wahre Anzahl (welche auch beruecksichtigen muesste, dass Seiten „rausfallen“ wenn deren Linkkette aufhørt). Das ist aber genug um die durchschnittliche Anzahl der neuen Links pro Linklevel zu sehen.
Der Verlauf dieser Kurve ist selbstverstaendlich (!) der Selbe. Aber durch die deutlich kleinere Skala sieht man (wieder), dass man zwischen Linklevel 20 und 45 durchaus mit ca. 10 neuen Links rechnen kann.
Auszerdem sieht man, dass die (normierte) Kurve ab LL48 parallel zur Abzsisse verlaeuft mit einem Wert von 1. Dies ist natuerlich Ausdruck des ausfuehrlich besprochenen Artefakts und soll nicht nochmal Thema sein.

Ich denke nicht, dass ich hier noch viel rausholen kann, aber ich schicke diese Zahlen mal durch die gleichen Analysen wie vorher. Daraus mach ich dann ’ne Zusammenfassung, auszer, wenn ich auf was Ungewøhnliches stosze.

Neulich schrieb ich etwas bzgl. dessen, dass es ja (im Wesentlichen) gar nicht stimmt, dass Leute mit zunehmendem Alter konservativer (im politischen Sinne) werden.

Nun faellt mir aber an mir selber das Folgende auf: ich bin die letzten Jahre vorsichtiger (und mglw. auch widerstrebender) geworden werde bzgl. vieler (oftmals gar nicht so radikalen) Ideen der Jugend.

Das hat wenig damit zu tun, dass ich konservativ werde.
Einschub: Diese Aussage gilt natuerlich nur im politischen Sinne, war ich doch noch nie ein Konservativer. Im Wortsinne hingegen (des Adjektivs! nicht des daraus abgeleiteten Substantivs, welches die politische Position einer Person beschreibt!) bin ich ganz auszerordentlich konservativ; ich møchte bspw. die, von denen die vor uns kamen (oft blutig) erkaempften, (nicht nur) Arbeiterrechte erhalten.

Vielmehr hat diese Entwicklung mit einem Konzept zu tun, welches im englischen Sprachraum als Chesterton’s Fence bekannt ist:

[…] reforms should not be made until the reasoning behind the existing state of affairs is understood.

Ein Beispiel waere die derzeitige Diskussion bezueglich der Arbeit von zu Hause. Ich bin absolut einig mit den Menschen, die gerne weniger oft ins Buero kommen wollen, denn das will ich auch. Aber die Anwesenheitspflicht faellt unter das gleiche Prinzip wie die Stechuhr. Und darueber wie toll Letztere ist habe bereits vor ueber 5 Jahren geschrieben.

Worauf ich hinaus will ist, dass ich bei mehr und mehr Sachen die jungen Menschen implementieren wollen sehe, warum besagte Sachen mglw. nicht so funktionieren wuerden wie vorgeschlagen oder negative Konsequenen haben kønnen.
Aber (wie gesagt) liegt das nicht daran, dass ich konservativer werde und nur meinen Lebensstil beschuetzen will. Vielmehr liegt es an drei Sachen, die junge Menschen per definitionem nicht haben kønnen
1.: (Viel) mehr Lebenszeit und dadurch Lebenserfahrung insb. durch das Scheitern vieler Plaene die sich doch eigentlich so toll angehørt haben.
2.: Das deutlich grøszere Zeitkontingent, welches ich benutzte um (ganz allgemein) zu lesen und mich ueber Zeug zu informieren welches nicht in meiner unmittelbaren Interessensphaere liegt (siehe auch hier).
3.: (Hoffentlich) erhøhte mentale Kapazitaeten; ich meine damit in diesem Zusammenhang sowas wie das Konzept der kristallisierten Intelligenz:

[…] learned procedures and knowledge […] [that] reflects the effects of experience and acculturation.

Der dritte Punkt folgt natuerlich aus den ersten Beiden, erlaubt mir aber ausgesprochene Ideen und Konzepte (wie bspw. Heimarbeit s.o.) schneller in grøszere Zusammenhaenge zu bringen.
Oder anders: ich sehe all die Zaeune und weisz warum Chesterton die da hingestellt hat.

Warum? Weil’s geht und die Konstruktion dieses Taschencomputers mit Telefonfunktion vom Design so ausgelegt ist, dass man die obigen Komponenten austauschen kann (und soll!) wenn die kaputt sind. Man muss sich also kein neues Telefon kaufen, nur weil beispielsweise der USB Anschluss etwas grackelig ist. Es ist sogar ein sueszer, kleiner Schraubendreher fuer die klitzekleinen Schraeubchen mit normalem (!) Schraeubchenkopf schon beigelegt, wenn man das Fairphone kauft :) .

Toll wa! Das spart Ressourcen und ist auch gut fuer den Geldbeutel.

Neulich las ich mich zum zweiten Mal durch Sandman. Dort gibt es einen sehr interessanten Charakter — Hob Gadling — der sich eines Tages im Jahre 1389 entscheidet nicht zu sterben. Ueber die Jahrhunderte hat er natuerlich Freunde und Familie(n) und wird bekannt mit vielen Menschen … und alle diese Menschen sterben, waehrend er zurueck bleibt.

Im vierten Band der Absolute Edition ist er in der Mitte der 90’er Jahre des 20-sten Jahrhunderts angekommen und mein Lesefluss stockte bei diesem Panel:

Entnommen aus Neil Gaimans The Absolute Sandman Volume Four, DC Comics, 2006, p. 430. Urspruenglich erschienen in Sandman #73, Vertigo, 1995-10-17, Penciler + Inker: Michael Zulli, Colorist: Daniel Vozzo + Digital Chameleon, Letterer: Todd Klein, Editor: Karen Berger

Das Bild an sich ist irrelevant, nur der Text ist wichtig. Der Hintergrund zum Text ist ein Gespraech, welches Hob (weisze Kaesten) mit seiner Freundin fuehrt. … … … Mehr muss ich eigentlich gar nicht dazu sagen, denn dieses Bild spricht fuer sich selbst … bzw. sprach es fuer sich selbst als es zum ersten Mal erschien. Heutzutage haben wir (als „westliche“ Gesellschaft) aber den Hintergrund (mehr oder weniger) vergessen.

Und auch diesmal ist dies eigentlich ein Ausdruck ganz groszen medizinischen und wissenschaftlichen Fortschritts … leider nur auf diesen Gebieten, denn das furchtbare soziale Leid, welchem HIV-infizierte in den 80’ern und 90’ern ausgesetzt waren wuerde heutzutage vermutlich genauso passieren … *seufz* … immer nur ein Schritt nach dem anderen … aber so lange es ein stetiger (wenn auch langsamer) Fort_schritt_ ist kann ich wenigstens daran glauben, dass zukuenftige Generationen es besser haben werden … und wenn weniger Menschen leiden, ist’s mir auch egal wenn vergessen wird, wie es frueher war.

Einen Teil der ersten Frage hatte ich bereits hier beantwortet, wo ich schrieb, …

[…] dass alles was ich schrieb und beobachtete tatsaechlich in den Daten vorkommt. Das ist also in dem Sinne „die Wahrheit“ […].

So wie die Daten sind, sehe ich wirklich zwei „Phasen“.

Ich dekonstruierte dieses Bild aber wieder, weil ich vermutete, dass die zweite „Phase“ durch ein Artefakt der Datenbehandlung zustande kommt. Ich erwaehnte an anderer Stelle, dass in den „Extremen“ (bspw. zum Ende des Linknetzwerks) …

[…] von mir gemachte Fehler [in der Datenaufbereitung] deutlich sichtbar werden.

Waehrend den Artikeln zur Dekonstruktion zeigte ich, wie ein spezifisches Artefakt das gemessene Signal plausibel erklaeren wuerde. Ich zeigte zwar immer nur alles bis LL59 aber das geht tatsaechlich ungefaehr bis zum Anfang dieser „festen Phase“. Zwar nicht absolut, denn es schummeln sich irgendwann ein paar andere Seiten als die des São Paulo FC dazwischen und die Jahre werden auch nicht mehr unbedingt von allen Seiten in der „richtigen“ Reihenfolge durchschritten, aber das was ich schrieb stimmt ist richtig fuer die Majoritaet der Seiten.

Damit kann ich direkt uebergehen zur anderen Frage im Titel. Die individuellen Verteilungen der totalen Links gaben mir ein Bauchgefuehl, dass da was zu holen ist. Spaeter hatte ich die Idee mit den Phasenuebergaengen. Den Gedanken untersuchte ich im Laufenden weiter und fand, dass die „Messungen“ diese Idee durchaus unterstuetzen.
Das war ein begeisternder Prozess! Mir praesentierte sich ein „Mysterium“ und ich wollte rausfinden was das ist. Ich fand eine Beschreibung die passt und das war natuerlich voll toll und ich schrieb die entsprechenden Beitraege mit høchster Begeisterung … bis auf den zuletzt verlinkten Beitrag. Denn zwei Tage bevor ich den schrieb fiel mir der Umstand auf, der zur Dekonstruktion fuehrte … ich denke, dass man beim Lesen merkt, dass da weniger Elan drin steckt. Aber die Dekonstruktion an sich war dann wieder voll toll! Ein neues Mysterium was es zu løsen galt!

Ein Grund warum ich diesen Prozess so detailliert aufschrieb (davon abgesehen, dass das zum Kevin Bacon Projekt an sich gehørt) ist die beschriebene Freude, an der ich euch, meine lieben Leserinnen und Leser, teilhaben lassen wollte.

Apropos Freude, diese vøllige Abstraktion weg von Wikipediaseiten mit (totalen) Links zu (besetzten) Zustaenden brachte mir auch groszes intellektuelles Vergnuegen. Zum Ende hin konnte ich in beiden „Bildern“ (Seiten mit Links vs. Zustaende) gleichzeitig denken … das ist unglaublich toll und es gibt mir Energie eine Sache so abstrahieren, bedenken und beschreiben zu kønnen … Physiker halt :)

Aber ich schwoff ab, denn ich wollte einen weiteren Grund fuer all diese Artikel nennen: so sollte die wissenschaftliche Herangehensweise an ein Thema funktionieren. Nur weil ich eine coole Sache vermute und dafuer „Beweise“ finde, heiszt das noch lange nicht, dass die coole Sache auch richtig ist. Gerade wenn eine Beschreibung zu schøn ist um wahr zu sein, muss man das extra genau beleuchten.
Hier kam heraus, dass meine These von den Phasenuebergaengen nicht in der Staerke haltbar ist, wie ich sie in den entsprechenden Artikeln vertreten habe. Irgendwie ist das ja auch klar, und ich erwaehnte es bereits, in was fuer „Phasen“ sollen denn Wikipediaseiten uebergehen?
Ich lasse das aber so stehen wie es ist, eben um oben erwaehnten Prozess zu beleuchten … auszerdem habe ich mir nun schon die Arbeit gemacht das alles aufzuschreiben.

Andererseits ist auch nicht alles verloren. Auch wenn ich (fast) alles ab ca. LL45 als hauptsaechlich durch das besprochene Artefakt zustande kommend ansehe, so ist das Verhalten der „Zustaende“ davor immer noch interessant.
Man schaue sich nochmal die individuellen Verteilungen in dem Bereich an, den ich manchmal als „fluessige Phase“ bezeichnet habe (ungefaehr zwischen LL13 und LL42). Es ist schon verwunderlich, dass die Anzahl der totalen Links fuer alle der fast 6 Millionen Seiten auf diesen Linkleveln so dicht beisammen liegt. Oder anders: Auf LL1 und LL2 reichen die Zustaende bis in den Bereich von mehrere 10 Millionen aber dies von ganz vorne; es sind also Zustaende mit nur 5, 23 oder 137 totalen Links besetzt. Warum ist aber auf LL23 kein Zustand oberhalb ca. 1.500 bzw. unterhalb von ca. 450 totalen Links besetzt? Warum begrenzt sich die Anzahl der Zustaende derart? …
Diese Frage(n) kann ich leider nicht beantworten, aber darum ist es mglw. doch gar nicht so verkehrt hier von einer Phase zu sprechen. Dies deswegen, weil das beschriebene Verhalten typisch fuer alle Wikipediaseiten (als ein System) ist, dabei aber nicht bei vorherigen Linkleveln auftritt.

Sooo … das soll nun aber genug sein damit. Der naechste Artikel ist nochmal ganz kurz was zu den totalen Links und dann gehe ich zu einer anderen „Messgrøsze“ ueber — den neuen Links pro Linklevel. Das sollte relativ schnell gehen, weil ich vermute, dass alle auftretenden Phaenomen mit dem bisherigen Wissen erklaert werden kønnen. Da muss ich das dann nicht mehr im Detail besprechen. Andererseits dachte ich das auch bzgl. der totalen Links.

Das feine Bild mit den Pfeilen vom letzten Mal ist ein Ausdruck der Hypothese, dass (fast) alle Seiten zum Ende ihres Linknetzwerkes auf den selben Seiten landen. Dort legte ich auch dar, dass die dort gezeigten Daten sehr sehr sehr stark fuer die Richtigkeit dieser Hypothese sprechen.
Aber man schaue sich das Bild nochmal an und nehme LL59 genauer unter die Lupe. Ich schreibe zwar, dass sich die drei „Mitglieder“ die Gruppe Alpha in der Saison des São Paulo FC von 1943 befinden, aber ich habe keine direkten Beweise dafuer. Prinzipiell kønnten naemlich auch irgendwelche anderen Seiten sich bei LL59 auf wiederum irgendwelchen anderen Seite mit 37 totalen Links befinden und diesen Zustand dadurch besetzen. Oder anders: die Gruppen (und Jahre) die ich dort angebe kønnten prinzipiell wild durcheinandergewuerfelt sein, womit die Beschriftung der Datenpunkte vøllig sinnlos waere.

Ich gebe zu, dass die Chance, dass fast 6 Millionen Seiten zum Ende hin nur diese paar Zustaende besetzen (welche auch noch mit den totalen Links der Seiten der Hypothese uebereinstimmen), unglaublich klein ist.
Dennoch wollte ich gerne noch eine weitere Sache untersuchen, welche die Richtigkeit der Hypothese kraeftigen wuerde.

Diese weitere Sache ist die Høhe der Balken, oder besser ausgedrueckt die Amplitude des „gemessenen“ Signals.
Bisher habe ich mir nur die Position der Balken angeschaut. Im uebertragenen Sinne waere das so, wie wenn ich Nachts in den Himmel schaue, dort den Vollmond sehe und daraus schliesze, dass das wohl die Sonne sein muss. Die Sonne ist (fuer mich gesehen) naemlich eine leuchtende „Scheibe“ (Signal) mit gleicher Grøsze am Himmel (Position). Erst die Auswertung der „Leuchtkraft“ (Signalstaerke/Amplitude) erlaubt mir zwischen Sonne und Mond zu unterscheiden.

Hier wird es nun ein klein bisschen komplizierter, denn ich muss zwischen zwei verschiedenen Amplituden unterscheiden: der gemessenen Signalstaerke in jedem Zustand und der Amplitude der einzelnen Gruppen.
Ersteres kann ich aus den einzelnen Verteilungen einfach ablesen. Letzteres ergibt sich aus der Verteilung der „Aussteiger“ pro Linklevel, denn alle Wikipediaseiten die beim selben Linklevel aussteigen gehøren zu einer Gruppe. Hier nochmal der relevante Teil von Letzterem ein bisschen modifiziert.

Laut der Hypothese sollte diese Verteilung sich genau so wie sie ist, d.h. OHNE Veraenderung der Amplitude der einzelnen Zustaende, durch die letzten Linklevel ziehen.
Das kønnen wir aber, in der Art und Weise wie die oben verlinkten individuellen Verteilungen bisher gezeigt wurden, nicht, bzw. nur indirekt, sehen. Das hat zwei Gruende. Der Erste ist, dass im obigen Bild die Gruppen gezeigt sind, die Abzisse der individuellen Verteilungen aber aufsteigende Zahlen die møgliche Anzahl der totalen Links (bzw. die møglichen Zustaende) wiederspiegelt. Der zweite Grund ist, dass manche Jahre/Saisons des São Paulo FC gleich viele totale Links haben und somit mehrere Gruppen in den selben (!) Zustand des gemessenen (!) Signals fallen.
Ersteres kann durch eine Achsentransformation geløst werden, Letzteres durch abzaehlen und aufpassen.

Etwas detaillierter: laut der Hypothese werden die Jahre/Saisons der Reihe nach (rueckwaerts) durchlaufen. Diesen Prozess habe ich beim letzten Mal im Detail beschrieben. Nun trage ich auf der Abzsisse nicht alle Zustaende auf, sondern _nur_ die tatsaechlich Besetzten. Auszerdem trage ich diese nicht in der Reihenfolge auf in der sie innerhalb der natuerlichen Zahlen auftauchen, sondern in der Reihenfolge, in der diese (rueckwaerts „laufend“) von Gruppe Alpha „aktiviert“, und dann der Reihe nach von den anderen Gruppen durchlaufen, werden. Mehrfach besetzte Zustaende tauchen mehrfach auf, unterschieden durch In­di­zes.
Ein Bild sagt mehr als 1000 Worte:

Hier sehen wir das gemessene Signal auf LL59 als blaue Balken; ich komme darauf gleich zurueck. Die roten Balken sind identisch mit denen aus dem vorigen Bild; die obere Abzsisse zeigt an welche Gruppe dem jeweiligen (roten) Balken zuzuordnen ist. Cool wa! Bisher hatte ich unterschiedliche Farben wenn dann nur an den Ordinaten … das geht natuerlich auch bei den Abzsissen … aber ich schweife ab.
Die rote Beschriftung der unteren Abzisse ist eigentlich nicht nøtig, hilft aber mglw. beim Verstaendniss und bezeichnet das Jahr in welchem sich die jeweilige Gruppe gerade befindet. Dies wird in der darunterliegenden Beschriftung in den richtigen Zustand der diesem Jahr entspricht projiziert.
Nun zu mehrfach besetzten Zustaenden. Die Seiten der Jahre 1933 und 1934 haben gleich viele Links — 26 — aber (laut Hypothese) befindet sich nur Gruppe Kappa im Jahre 1934 und nur Gruppe Lambda im Jahre 1933 (auf LL59). Das Gruppensignal aus dem Jahre 1934 — 1 — traegt dann mit dem Gruppensignal aus dem Jahre 1933 — auch 1 — zum gemessenen Signal im Zustand 26 — 1 + 1 = 2 — bei. Das sollen die Pfeile andeuten. Bei diesem Beispiel kann man das gut nachvollziehen. Aufgrund der logarithmischen Achse wird das aber schwerer (bzw. unmøglich) mit grøszeren Zahlen. Deswegen schreibe ich (hier) bei Zustand 31 und Zustand 34 ran wie viele Webseiten ich in diesen Zustaenden tatsaechlich messe. Und das stimmt ueberein mit der Summe der Signale der Gruppen die sich in diesen Zustaenden befinden.

Wie oben erwaehnt sollten sich bei voranschreitendem Linklevel die roten Balken so wie sie sind nach links schieben. Die blauen Balken sollten diese Verschiebung wiederspiegeln. Und das ist auch das was tatsaechlich passiert:

Oder vielmehr „passiert“ nur das gemessene Signal. Das schlieszt nicht aus, dass andere Seiten mit gleich vielen Links „besucht“ werden. Ich sehe die Gruppensignale nicht wirklich, ich nehme nur an, dass diese dem gemessenen Signal zu Grunde liegen. Aber, dass ueber mehrere Linklevel genau die richtigen Seiten mit der richtigen Anzahl an Links besucht werden und auch in genau der richtigen Menge sodass das gemessene Signal erhalten bleibt ist sehr unwahrscheinlich. Die einfachere und plausiblere Erklaerung ist meine Hypothese: die Gruppen besetzen tatsaechlich der Reihe nach die jeweiligen Zustaende.

Im uebrigen enthaelt das hier Gezeigte auch das was ich beim letzten Mal diskutierte. Das war aber leichter es so rum „aufzuziehen“ und so rum habe ich mich auch selber der Problemstellung genaehert.

Ich denke, dass ich nun genug gezeigt habe bzgl. des Artefakts in den Daten, welche letztlich den zweiten Phasenuebergang ausmachen. Fuer heute soll es genug sein. Beim naechsten Mal komme ich aber nochmal darauf in einem grøszeren und allgemeineren Zusammengang zurueck. Weil’s so cool ist :)

Ach doch, eine Sache noch. Auch wenn alles darauf hindeutet, so ist all dies natuerlich immer noch kein direkter Beweis, dass es sich bei den Zustaenden wirklich um die Seiten der Saisons des São Paulo FC handelt. Wenn ich es nicht vergesse, dann werde ich darauf an anderer Stelle nochmal zurueck kommen.