Archive for the ‘Allgemein’ Category

Dieses Weblog macht ’ne kurze Pause, denn wenn dieser Beitrag erscheint bin ich gerade in der Luft und auf dem Weg nach Helsinki um dort einen andere groszen Metallvogel zu benutzen, der mich ans andere Ende der Welt bringt.
Das letzte Mal machte dieses Weblog vor langer Zeit (und aus weit schwerwiegenderen Gruenden) eine Pause. Dieses Mal liegt’s einfach daran, weil ich trotz deutlicher reduzierter Beitragsanzahl es nur gerade so schaffe, jede Woche einen Artikel zu haben. Eine Pause von vier Wochen hilft da ungemein.

Wieauchimmer, ich møchte die Pause mit etwas Besonderem fuellen und deswegen kann es nur etwas sein, was in Verbindung mit einem der Highlights meines Lebens im letzten Jahr steht; naemlich diesem Buch:

Und wie der Titel des Beitrags bereits vermuten laeszt, geht es mir um die Periheldrehung des Merkur. … … … Das sollte ich vielleicht etwas naeher erlaeutern, deswegen der Reihe nach.

Zunaech denke man sich, dass es NUR den Merkur und die Sonne gibt. Das wohlbekannte erste Keplersche Gesetz besagt dann, dass sich der Merkur in einer perfekten Ellipse um die Sonne bewegt. Das Perihel ist dabei der Punkt an dem der Merkur den geringsten Abstand zur Sonne hat. Bei nur 2-Kørpern ist dieser Punkt IMMER an der gleichen Position. Ihr, meine lieben Leserinnen und Leser ahnt sicher, worauf wir hier zusteuern, denn …

… es ist nun so, dass es in unserem Sonnensystem noch andere Planeten gibt. Einige davon sind ganz schøn schwer und alle zusammen støren die Bahn des Merkur. Das fuehrt zu einer leichten Verschiebung der Position des Perihels des Merkurs im Laufe eines Jahres. Ich habe das Prinzip hier mal vøllig uebertrieben skizziert:

Das sind natuerlich idealisierte Momentaufnahmen und die Skizze ist auf die folgende Art und Weise zu interpretieren. Zur ersten Beobachtung schauen wir uns den Merkur an wenn er den geringsten Abstand zur Sonne hat und die graue gestrichelte Kurve beschreibt den mathematisch idealisierten Orbit des Merkur zu diesem Zeitpunkt. Im Laufe des Jahres nach der ersten Beobachtung geht die gestrichelte graue Kurve kontinuierlich in die durchgezogene graue Kurve ueber. Nach einem Jahr befindet sich der Merkur wieder in seinem Perihel und wir machen wieder eine Momentaufnahme. Die durchgezogene graue Kurve entspricht dann dem mathematisch idealisierten Orbit des Merkur zu genau diesem Zeitpunkt. Im Laufe des naechsten Jahres geht der Orbit dann in die schwarze durchgezogene Kurve ueber und den Rest schreibe ich jetzt nicht nochmal.
Der Punkt ist: aufgrund von Størungen des Orbits dreht sich die Position des Perihels um die Sonne. Im Grunde gar nicht so schwer zu verstehen.

Nun ist es so, dass ich den Eindruck habe, dass die Periheldrehung des Merkur als DER (erste!) Triumphmoment von Einsteins Gravitationstheorie ueber Newton angesehen und gelehrt wird. Und das auf eine Art und Weise, dass ich bis vor Kurzem dachte, dass Newton das ueberhaupt nicht beschreiben kann. Und das ist beinahe komplett falsch, denn ich erwaehnte ja bereits oben den Einfluss anderer Planeten und dieser Einfluss kann sehr wohl mittels Newtonscher Mechanik beschrieben werden.

Ein weiterer Størfaktor auf den Orbit des Merkur ist der Fakt, dass die Sonne keine perfekte Kugel ist. Die dreht sich naemlich um sich selber und ist deswegen abgeflacht. Das fuehrt dazu, dass das Gravitations“feld“ (genauer: das Gravitations_potential_) der Sonne (gravitative) Multipolmomente hat. In der Physik ist das was ganz normales (und es ist eigtl. immer Ausgangspunkt voll fetziger Phaenomene) und das kann auch ganz „klassisch“ mittels Newton beschrieben werden.

Ich gebe zu, da haette ich von alleine drauf kommen kønenn, aber wenn das beim „Triumph Einsteins“ ueberhaupt nie erwaehnt wird, dann sei mir hoffentlich verziehen, dass das immer an mir vorbeigegangen ist.
Denn es stimmt AUCH, dass es einen NICHT-klassischen Einfluss auf den Merkurorbit gibt, der nur durch Einstein erklaert werden kann. ABER: der ist WINZIG! Und ich dachte immer, dass der (relativ) grosz ist.

Der Einsteinsche Anteil an der Periheldrehung ist so klein, dass Newton davon ueberhaupt nix wissen konnte. Die Diskrepanz wurde gerade mal 20 Jahre vor Einsteins Geburt entdeckt, weil erst dann die Messinstrumente gut genug waren. Und das ist der erste Punkt, warum es mich ein bisschen anpiept, dass das als „Triumph“ dargestellt wird … mal davon abgesehen, dass es mich ohnehin anpiept, dass in den Medien vermittelt wird, dass Wissenschaft mittels „Triumphen“ funktioniert; dem ist mitnichten so, auch wenn es von auszen und mit (oft groszem) zeitlichen Abstand so aussieht … aber ich schwoff ab, denn eigtl. wollte ich sagen, dass es echt arschig waere, wenn ein Gewinner der Olympiade zu jemandem im Publikum geht und mit seiner Medaille angibt, obwohl Letzterer ja gar nicht am Wettkampf teilgenommen hat.
Aber so kommt mir das in diesem Fall vor. Obwohl Newton ueberhaupt nichts von der Diskrepanz wissen konnte (da die Messinstrumente zu seinen Lebzeiten noch gar nicht gut genug waren), hab ich das Gefuehl dass das in den meisten Buechern (und heutzutage auch anderen Medien) so dargestellt wird, das Einsteins Gravitationstheorie ja was Besseres ist, weil die das eben „richtig macht“.
In diese Effekthascherei verfaellt mein dickes schwarzes Buch zum Glueck nicht, denn das ist ein wissenschaftliches Buch und dort wird das von Anfang an im korrekten Zusammenhang dargestellt.

Und nun zum zweiten Punkt warum mich das „Triumphgehabe“ so anpiept. Den hatte ich schon erwaehnt, denn es geht um die Winzigkeit des Effekts. Es ist UNGLAUBLICH frech (finde ich), dass „Periheldrehung! Einstein! Hurra!“ zelebriert wird, ohne zu erwaehnen, dass es eigtl. „Periheldrehung! NEWTON! HURRA HURRA HURRA HURRA!“ heiszen muesste. Aber am besten zeige ich dazu die Tabelle in Box 40.3 „Perihelion Shifts: Experimental Results“ (S. 1112f) aus meinem dicken schwarzen Buch (von Interesse ist hier nur der „Quantity“-Teil):

Wait! What? Die Periheldrehung ist zu (fast) 90 % NUR ein Beobachtereffekt (Punkt (b), „general precession“) und ueberhaupt nicht real wenn man von weit weg auf unser Sonnensystem schaut! … AARGHGHG!!! Noch so eine eigentlich urst krass wichtige Sache (fast 90 % des gemessenen Effekts!) die KOMPLETT unerwaehnt bleibt!

Und vom Rest sind UEBER 92 % komplett mittels Newton erklaerbar! Einsteins Beitrag ist also geringer als 1 %!

Es geht mir nicht in den Kopf, dass Einsteins „Beitrag“ zur Periheldrehung so massiv „ueberhøht“ werden muss! Einsteins Gravitationstheorie ist ein Triumph (mit Absicht benutzt) der Wissenschaft an sich (so wie Newtons Mechanik oder Darwins Evolutionstheorie) und zwar einfach deswegen, weil sie das Universum noch besser erklaert ohne auf Hokuspokus zurueckgreifen zu muessen!

Ja klar! Die interessanten, von Newton abweichenden, Effekte liegen im (sehr) Kleinen … aber das macht die deswegen doch nicht weniger spannend! Und auszerdem gibt’s da noch eine Vielzahl anderer Effekte die klassisch ueberhaupt nicht auftreten kønnen … die aber nur dann zu sehen sind, wenn man EXTREM genaue Messinstrumente hat … auch dann, wenn sie am Ort der Entstehung ungeheuerlich grosz sind (bspw. Gravitationswellen).

Najut … genug aufgeregt, denn eigentlich hatte ich mich urst gefreut, als ich obige Tabelle das erste Mal las. Ich fuehlte førmlich, wie sich mein „Tellerrand“ etwas erweiterte … *freu* … was der Grund ist, warum ich da unbedingt drueber schreiben wollte.

Und damit, meine lieben Leser und Leserinnen, entlasse ich euch (und mich) in den wohlverdienten Sommer.

Ach doch, eine Sache noch: die Position des Perihels ALLER Planeten aendert sich im Laufe eines Orbits und wir kønnen das heutzutage sogar messen. Aber nur beim Merkur „lohnt“ es sich drueber zu reden.
Und dann noch eine andere Sache: die Størung des Orbits des Merkur durch das gravitative Quadrupolmoment der Sonne betraegt gerade mal 0.6 Promille (!) von dem was Einstein ausmacht … ist zwar klassisch, aber trotzdem winzig … ich find gravitative Multipolmomente nur so fetzig (denn nur die kønnen Gravitationswellen machen … wenn sie mindestens Quadrupole sind … anders als bei elektromagnetischen Wellen, kønnen Graviationswellen NICHT durch gravitative Dipole erzeugt werden), dass ich das unbedingt erwaehnen wollte.

Beim letzten Mal schrieb ich:

Das muesste man sich mal in kumulativer Darstellung anschauen […].

mit dem expliziten Hinweis:

[…] mach ich aber nicht mehr.

Natuerlich hat mir das keine Ruhe gelassen und ich hab das jetzt doch noch gemacht.

Das Gute ist, dass ich dadurch fix noch zwei Analysewerkzeuge geschrieben gehackt habe, die ich sowieso øfter mal brauche und das ist gut, dass die jetzt mal systemati- und generalisiert (ich bin mir ziemlich sicher, dass man das so nicht machen kann … ich lass das dennoch einfach mal so stehen) sind.

Weil ich heute weder beschreiben muss, was man hier …

… sieht (denn das ist das Gleiche wie beim letzen Mal … mglw. sogar das Selbe, aber da bin ich mir nicht ganz so sicher, denn es sieht ja anders aus), noch was kumulative, doppellogarithmische Diagramme sind und warum man das so machen will (wenn ihr, meine lieben Leserinnen und Leser das nicht mehr wisst, muesst ihr nur dem Link im ersten Zitat folgen), muss ich fast gar nix dazu schreiben.

Nur zwei Sachen seien gesagt. Zum Einen habe ich mich jetzt doch an die kumulative Darstellung gemacht, um zu schauen ob die Punkte im langen Schwanz des urspruenglichen Histogramms zu den Selbstreferenzen dem maechtigen Gesetz folgen, welches man aus den Daten zwischen Maximumswerthaeufigkeiten von 1 und 100 (im urpsruenglichen Histogramm) erwartet. Im Diagramm links unten sieht man wieder einmal, wie krass kumulative log-log-Darstellungen sind, denn das besagte maechtige Gesetz kann man nun ueber FUENF (!) zusaetzliche (!) Grøszenordnungen als gegeben annehmen.
Zum Zweiten reproduzieren die 2023 Daten wieder die 2020 Daten. Aber das war zu erwarten, denn die Diagramme hier benutzen schlieszlich die selbe Datengrundlage.

Naechstes mal dann … was anderes.

Beim letzten Mal reproduzierte ich die Verteilungen der Linklevelpositionen der Maxima der ursprungsseitenabhaengigen Linklevelverteilungen der vier Messgrøszen von Interesse. Damit ich nicht so viel schreiben muss, kuerzte ich das einfach als Maximapositionen ab. Beim Neuschreiben der entsprechenden Analyseprogramme bemerkte ich, dass bei der Auswertung bzgl. der Maximapositionen auch automatisch die Werte der Maxima anfallen. Das hatte ich damals komplett uebersehen und darum stelle ich die entsprechenden Verteilungen hier und heute zum ersten mal vor.

Los geht’s mit den totalen Links. Im linken Diagramm …

… ist die erwaehnte Verteilung der Werte, welche die Maxima der jeweiligen Linklevelverteilungen annehmen, dargestellt. Man sieht sofort, dass da nicht so viel zu holen ist. Bei den Werten „flach“, 0 und 1 auf der Abzsisse tummeln sich ein paar Seiten. Ich nehme an, dass das Seiten selben Seiten sind, die auch bei diesen kleinen Werten ihr Maximum haben. Die haben also keine Links („flach“) einen Link oder zwei und dann setzt die Linkkette sich nicht weiter zu allen anderen Seiten des Wikipedialinknetzwerkes fort.

Alle andere Seiten haben vøllig unstrukturiert zwischen 60 Millionen und 90 Millionen (sieht man nicht, weil rote Vierecke drueber liegen) (2020 Daten) bzw. 75 Millionen und 122 Millionen (2023 Daten) totale Links. Bei ’ner logarithmischen Abzsisse wuerde das breite Gebiet mit den vielen Punkten uebrigens recht schmal werden. Das liegt also alles ungefaehr im gleichen Bereich.
Letzteres wundert mich nicht, denn die allermeisten Seiten sehen frueher oder spaeter ja doch das komplette Linknetzwerk. Das heiszt also, wenn eine Ursprungsseite ihr Maximum in der Verteilung der totalen Links sieht, dann tragen da immer mehr oder weniger gleich viele Seiten (auf dem jeweiligen Linklevel) zu den totalen Links bei. Und im Mittel haben die immer gleich viele Links. Dass die Verteilung bei linearer Abzsisse doch recht breit ist, ist einfach dem „zufaelligen Wandern“ durch das Linknetzwerk geschuldet.

Die 2023 Daten sind etwas nach rechts verschoben (und die Verteilung ist etwas verbreitert), einfach weil es mehr Seiten gab und diese Extraseiten tragen gleichmaeszig bei (fast) allen Ursprungsseiten zum Signal bei.
Wichtig festzuhalten ist, dass auch in diesem Fall die 2023 Daten die 2020 Daten reproduzieren (wenn man das Mehr an Daten in Betracht zieht).

Aber letztlich sieht man hier nicht viel. Es gibt keine Struktur in den Daten und auch keinen schønen „Berg“ wie beim letzten Mal.Deswegen habe ich mir mal angeschaut, wie haeufig jeder Maximumswert auftritt.
Bei den 2020 Daten gibt es zwischen 90 Millionen und 60 Millionen genuegend Werte, dass die ca. 5.8 Millionen Wikipediaseiten fuenf mal „reinpassen“ wuerden, ohne sich „auf die Fuesze zu treten“. Oder anders: prinzipiell kønnte jeder Maximumswert nur ein einziges Mal auftauchen. In der Realitaet „treten“ die sich aber ein paar Mal „auf die Fuesze“ denn es gibt nur ca. 4.6 Millionen unike Maximumswerte.
Jedenfalls, sieht man diese Verteilung der Maximumswerthaeufigkeiten im rechten Diagramm, mit doppellogarithmischen Achsen … und hier reproduzieren die 2023 Daten die 2020 Daten ganz genau, trotzdem Erstere viel mehr Seiten beinhalten.

Wie so oft herrscht auch hier wieder ein maechtiges Gesetz … oder vielmehr zwei, denn ueber die ersten drei Werte geht das deutlich schneller nach unten als ueber den Rest. Andererseits sind maechtige Gesetzmaeszigkeiten im Kevin Bacon Projekt alte (und haeufige … Wortspielkasse!) Bekannte, sodass das euch, meine lieben Leserinnen und Leser, sicher nicht mehr wundert.

Deswegen geht’s gleich weiter mit den neuen Links:

Davon abgesehen, dass die Werte anders sind, gibt’s zur Verteilung der Maximumswerte nichts weiter zu sagen. Die Verteilung der Maximumswerthaeufigkeiten ist da schon deutlich spannender. Die hat so ’ne elegante Kurve bei Werten zwischen 1 und ca. 20.
Wenn man diese Verteilung mit denen der totalen Links vergleicht, sieht man, dass die Haeufigkeiten bei Werten kleiner als vier auf der Abzsisse kleiner, und zwischen 4 und ca. 20 auf der Abzsisse deutlich erhøht ist. Danach liegen die Kurven im Wesentlichen uebereinander. Man muss schonein bisschen genauer hinschauen um Unterschiede auszumachen … diese Unterschiede kønnten relevant sein um Phaenomene im Linknetzwerk zu erklaeren und sollten naeher untersucht werden … aber nicht mehr von mir.
Dazu abschlieszend sei nur zu sagen, dass in beiden Faellen die 2023 Daten wieder die 2020 Daten reproduzieren.

Nun zu den Selbstreferenzen:

Høh? … Das kommt mir irgendwie sehr bekannt vor! Nach laengerem Ueberlegen bin ich zu der Ueberzeugung gekommen, dass die Bekanntheit taeuscht.
In den Diagrammen in den verlinkten Beitragen sind die Verteilungen der Anzahl der Selbstreferenzen pro Linklevel gezeigt. Wenn man also ’ne dicke fette (und sehr laaaaaange) Matrix nimmt, bei der die Linklevel auf der horizontalen Achse und jede Seite auf der vertikalen Achse aufgetragen sind, dann habe ich fuer die dort dargestellten Diagramme vertikale Schnitte gemacht; fuer jedes Linklevel einen Schnitt. Bei den Darstellungen hier hab ich die selbe Matrix „zerschnitten“, aber in horizontaler Richtung; fuer jede Seite einen Schnitt. Bei den untersuchten Dingen handelt es sich also buchstaeblich um zwei verschiedene (und orthogonale!) Dimensionen.

Das das aehnlich aussieht liegt nun einfach nur daran, dass das was ich messe, sich in beiden Faellen nach Potenzgesetzen verhaelt. Hier: es gibt viele Seiten die einen Maximumswert von nur (ich sag jetzt mal) 5 Selbstzitierungen haben und nur wenige mit einem Maximumswert von 1000. Dort: es gib nur wenige Seiten die auf einem gegebenen (relativ kleinen!) Linklevel 1000 Selbstreferenzen haben, und viele die auf einem gegebenen (relativ kleinen!) Linklevel nur 5 Selbstzitierungen aufweisen. Hørt sich aehnlich an, sieht aehnlich aus, sind aber zwei total verschiedene Sachen.

Zur Maximumswerthaeufigkeitsverteilung gibt’s nix zu sagen, was nicht schon gesagt wurde. Interessant ist nur der sehr lange Schwarz zu sehr hohen Werten auf der Abzsisse. Das muesste man sich mal in kumulativer Darstellung anschauen … mach ich aber nicht mehr.

Ach ja … auch hier wieder: Reproduktion erfolgreich.

Als Letztes noch die Linkfrequenz:

Øhm … joa … da muss ich nix weiter zu sagen. … … … Ah doch: der „vertikale Strich“ am linken Rand im linken Diagramm ist wieder die „Abkuerzung“ zu den Archipelen. Das sieht man bei linearer Abzsisse nur nicht so gut.
Und ansonsten kann ich mich auch hier bzgl. der Reproduktion nur wiederholen: hat geklappt.

Das soll reichen fuer heute … bin gespannt, was es naechstes Mal wird.

Der Hikari (Shinkansen) dahin faehrt 20:36 Uhr in Kyoto ab:

Das Ziel ist zwar Tokyo, aber ein Zug mit der Nummer 666 wird auf dem Weg sicherlich die Tore zur Hølle durchfahren.

Tihihi … fetzt, wa!

Via „Spaetzuender“ (auch als „grobe Abweichler“ bezeichnet) bin ich damals auf die Idee gekommen, mir mal anzuschauen auf welchen Linkleveln eigentlich die meisten Seiten das Maximum in der Kurve einer gegebenen Grøsze von Interesse haben.

Fuer die Anzahl der totalen Links ist das hier reproduziert:

Wie erwartet gibt es zwischen den 2020-Daten und den 2023-Daten keine wesentlichen Unterschiede; insb. veraendern sich die Grøszenverhaeltnisse der Balken von Linklevel zu Linklevel nicht. Das ist also als reproduziert anzusehen.
Die blauen Balken bei LL1 und LL9 sehen zwar deutlich grøszer / kleiner aus, aber man beachte die logarithmische Ordinate. Da sind im ersten Fall also nicht mal 10 Seiten dazu bzw. im zweiten Fall deutlich weniger als 10 Seiten „abhanden“ gekommen … die viel kleinere Erhøhung bei LL4 entspricht fast einer Million Seiten. Logarithmische Achsen sind schon was Feines, nicht wahr! Die halten irrelevante Information von einem weg … man muss aber auch aufpassen, dass andere irrelevante Information nicht ueberinterpretiert wird.

Ansonsten gibt es nur eine Sache zu sagen und das ist ein wichtiger Unterschied im Vergleich zum damaligen Diagramm. Dort war naemlich der Balken bei LL0 zu hoch und es stellte sich dann heraus, dass es ueber 5-tausend Seiten OHNE Links gibt die da drin mitgezaehlt wurden … und nur ca. 100 Seiten mit einem echten Maximum der totalen Links auf LL0. Erstere haben eine flache totale-Links-per-Linklevel Verteilung; ohne Links als Ausgangspunkt kommt man nicht auf andere Seiten mit mehr Links … es startet also alles bei Null und bleibt auch dabei. Das wurde von meinem Algorithmus faelschlicherweise als „Maximum“ auf LL0 interpretiert.
Wieauchimmer, solche Seiten werden jetzt richtig erkannt und auf die „flach“-Position auf der Abzsisse gesondert dargestellt … und das gilt fuer alle Diagramme in diesem Beitrag.

Nun zu den neuen Links. Die Verteilung der Maximaspositionen der entsprechenden Kurven hatte ich damals der gleichgearteten Verteilung der totalen Links gegenuebergestellt. Das wiederhole ich heute nicht, denn es ist nur von Interesse ob Erstere reproduziert werden. … Und ich wuerde mal sagen …

… das man das so sehen kann. Ich muss das nicht weiter besprechen, denn ich wuerde nur das weiter oben Geschriebene wiederholen. Heraus sticht nur die eine (!) neue Seite mit dem Maximum auf LL1; aber auch das wurde oben schon behandelt.

Nun zu den Selbstreferenzen. Damals wurde ich stutzig, denn der LL0-Balken war zu hoch. Nur durch diesen einen Balken entdeckte ich dann die Archipele! Aber das dauert noch ein bisschen, bevor ich dort angelangt bin.
Hier ist die Reproduktion (sagt man das so?) der Verteilung der Maximaspositionen der Selbstreferenzkurven aller Seiten:

Uff! Der Balkenwald wird dichter. Aber wenn man genau hinschaut, dann sieht man, dass die roten und blauen Balken auch hier wieder im Wesentlichen uebereinstimmen. Mit møglicherweise (!) einer kleinen, møglicherweise (!) systematischen, Abweichung zwischen LL8 und … mhm … schwer zu sagen … ich sag jetzt mal LL19. Bis auf einen Balken sind dort naemlich alle blauen Balken kleiner, es gibt also kein „rauschendes Auf und Ab“ … das kønnte was sein, das lohnt sich also mglw. mal naeher zu untersuchen (ich werde das aber nicht tun) … ich wuerde aber erstmal nicht unbedingt ’ne Wette drauf abschlieszen, dass da wirklich ein echtes Phaenomen hinter ist. „Statistik“ macht manchmal komische Sachen (ich erinnere an dieser Stelle an die wohlbekannte, 5σ sichere, „Entdeckung“ des Θ+-Pentaquarks in den Nullerjahren, die sich dann als falsch herausstellte).
Alles in allem gilt auch hier: Reproduktion (wenn man das so sagt) gelungen.

Als Letztes bleibt die Verteilung der Maxima der Linkfrequenzkurven. Damals war es die erste konkrete Bestaetigung, dass da irgendwie mehr am „São Paulo FC“-Artefakt sein muss (und es war, aber so weit bin ich auch hier noch laengst nicht). Die Reproduktion (ich sag das jetzt einfach so) …

… ist wieder als  erfolgreich anzusehen … auch wenn dabei der Balkenwald zu dicht wurde um noch was zu erkennen, weswegen ich (wie so oft) auf ein Streudiagramm fuer das Histogramm zurueckgriff.

Im Wesentlichen hat man das gleiche Resultat wie bei allen anderen Verteilungen: die 2023-Daten reproduzieren die 2020-Daten. Es gibt møglicherweise (!) eine kleine, møglicherweise (!) systematische, Abweichung kurz nach LL40. Die 2020-Daten „beulen“ sich da etwas aus. Aber insgesamt sprechen wir von nur sehr wenigen beteiligten Seiten und ich wuerde hier noch weniger drauf wetten, dass da was ist. Das sollte mal wer untersuchen … lohnt sich mglw.

Puuuh … das war jetzt ’n ganz schøner Ritt. Aber ich habe viel geschafft.
Nun ist’s aber so, dass auch in diesem Fall die Auswerteprogramme neu von mir geschrieben und generalisiert wurden. Deswegen faellt jetzt bei der Analyse eine weitere Sache an, die mir bei den damaligen Betrachtungen ueberhaupt nicht in den Sinn kam: wenn ich die Position des Maximums kenne, dann kenne ich auch den WERT des Maximums und da kann man sich die Verteilungen doch auch mal anschauen. DAS, meine lieben Leserinnen und Leser, verschiebe ich aber auf’s naechste Mal.

Ich lasse das mal gelten, denn um das (westliche) Schwarzeis anlecken zu kønnen, muss ich ja auch davor stehen:

Ist nun auch schon wieder etwas laenger her (die Zeit rast!). Und eigtl. ist das auch nicht der Geschmack der eigentlichen Gletscherzunge die ich mit meiner eigenen Zunge teste, sondern nur ein dicker Brocken, der kurz bevor ich kam vom groszen Ganzen abgefallen ist … ich stuetze mich also wieder mal auf die Transitivitaet.

Beim letzten Mal gruebelte ich noch, hatte mich dann aber relativ schnell entschieden, doch zunaechst die Reproduzierung(en) der noch ausstehenden Linklevelverteilungen, der anderen drei untersuchten Grøszen von Interesse, vorzunehmen.

Im Nachhinein sehe ich, dass ich das thematisch alles schon in diesen Beitrag haette packen sollen. Hab ich nicht gemacht und deswegen hole ich das jetzt alles auf einmal nach. Andererseits lag in meinen urspruenglichen Betrachtungen eine Art „Fluss“, und Ausgangspunkt waren oft eben diese Linklevelverteilungen. Den „Fluss“ dessen was aus den den (totalen) Links pro Linklevel folgte støre ich mit dem Beitrag hier. Und wenn ich die Reproduzierung von Folgesachen der anderen drei Grøsze angehe, dann hat der „Fluss“ keinen natuerlichen Ausgangspunkt sondern ich muss immer hierauf verweisen … aber ich schweife ab, denn wie die Existenz dieses Artikels zeigt, ist die „Flusssache“ anscheinend dem „Themapunkt“ untergeordent.

Es geht gleich los mit der (Summe der) neuen Links pro Linklevel:

Damals hatte ich die schnell abgehandelt, als ich die (Summe der) totalen Links pro Linklevel abschloss. Es gab bei dieser Verteilung naemlich nicht viel zu holen. Und auch bzgl. der Reproduzierung gibt’s nix Neues zu sagen (Wortspielkasse! … wegen „nix Neues bei neuen Links“ … tihihihi … falls das unklar sein sollte) was nicht schon bzgl. der totalen Links gesagt wurde.

Deswegen geht es sogleich weiter mit den Selbstzitaten pro Linklevel:

Hier ist der damalige Beitrag dazu und es gibt i.A. (nocheinmal) nicht viel zu sagen, was im Wesentlichen nicht bereits frueher gesagt wurde. Zwei Sache stechen aber hervor, wenn man genauer hinschaut und mal drueber nachdenkt.
Waehrend die Kurven (im Wesentlichen!) uebereinander liegen, es sich also nicht viel aenderte, so gibt es auf Linklevel 0 tausend Mal mehr Selbstzitate. DAS ist signifikant und sollte untersucht werden … aber nicht von mir.
Auszerdem scheint mir der „Einbruch“ roten Kurve bei Linkleveln grøszer als ungefaehr 20 systematisch zu sein. Das kønnte taeuschen, ich denke aber, dass das eine genauere Untersuchungen wert ist … ihr, meine lieben Leserinnen und Leser ahnt es bestimmt schon (und seid sicherlich ein bisschen traurig deswegen): diese naehere Untersuchung werde ich auch nicht mehr vornehmen.

Ich hatte mich damals dann in einem Muster „verlaufen“, was gar nicht da war (sozusagen eine Fata Morgana). Ich kann mich nicht erinnern, dass ich das jemals wieder aufgegriffen haette. Zum Glueck hatte ich auch geschrieben:

[…] sollte ich nix weiter in diese Richtung finden, dann erwaehne ich das still und heimlich einfach nicht mehr.

Folgt mir! Liegt mir zu Fueszen! Benennt eure Kinder nach mir, denn ich bin ein Prophet!  … … … oh … ich schwoff ab und wollte eigtl. sagen, dass das damit auch „reproduziert“ ist, denn es gibt hier eigtl. nix zu reproduzieren.

Nun die (Summe der) Linkfrequenz pro Linklevel:

Damals hatte ich das mit der gleichen Kurve bzgl. der totalen Links verglichen. Ich denke, dass das an dieser Stelle unnøtig ist, und sei es aus dem gleichen Grund wie oben: es gibt auch hier bzgl. der Veraenderungen in den 2023 Daten nix weiter zu sagen, was nicht schon gesagt wurde.

Sehr gut … Das ging diesmal fix und mehrere Sachen schaffte ich in einen Beitrag zu packen … das passiert ja nicht so haeufig.

Die beim letzten Mal reproduzierten Untersuchungen fuehrten mich damals zu einem der wichtigsten Kevin Bacon Resultate ueberhaupt: die durchschnittliche Anzahl der Zitate unterliegt einem maechtigen Gesetz. Oder anders: das ist bei doppellogarithmischen Achsen linear! Krass wa!

Wichtig: bei diesen Untersuchungen wurde davon ausgegangen, dass die Anzahl der Zitate die UNabhaengige Grøsze ist. Oder anders an einem Beispiel: alle Links einer Seite mit 5 Zitaten hab ich genommen und auf einen „Haufen“ geworfen. Auf diesen Haufen kamen NUR die Links von Seiten mit 5 Zitaten (egal wieviele Links das waren). Auf einem anderen Haufen haeufte ich alle Links aller Seiten mit 6 Zitaten an; usw. Fuer den Durchschnitt teilte ich am Ende einfach die Anzahl aller Links in einem gegebenen Haufen mit der Anzahl aller Seiten die zu diesem Haufen beigetragen haben.
Ich habe das nochmal so ausfuehrlich beschrieben, damit sichtbar wird, dass ich damals auch hier wieder NICHT die umgedrehte Konstellation betrachtet habe. Oder anders: wird das das Gleiche, wenn man die Anzahl der Zitate einer Seite durchschnittifiziert, wenn man die Anzahl der Links der besagten Seite als unabhaengige Grøsze hernimmt?

Tja … und hier sieht man nun beide Sachen:

Tada! Das ist auf den ersten Blick nicht das Gleiche … aber ich kann euch, meinen lieben Leserinnen und Lesern versichern, dass es sehr wohl das Gleiche ist.

Am wichtigsten ist, dass die Anstiege der linearen Teile der Daten im Groszen und Ganzen uebereinstimmen. Aufgrund unterschiedlicher Skalen sieht man das nur nicht so gut. Aber wenn man das gleich skaliert dann ist’s im Wesentlichen das gleiche Ergebniss … ich hab das jetzt zwar nicht konkret ausgerechnet, aber ich hab ’n Lineal an’n Monitor gehalten und parallel verschoben (bei richtiger Achsenskalierung) und das war im Wesentlichen das gleiche … OKOK … es war kein Lineal und Parallelverschiebung, sondern ’n Blatt Papier an den Monitor gehalten, dann hab ich (MIT LINEAL) den einen Anstieg „durchgepaust“, das Papier an der Unterkante des Monitors zum naechsten Graphen (parallel)verschoben, dort den Anstieg abgepaust … und das hatte zwar kleine Abweichungen, aber innerhalb der Genauigkeit aller Untersuchungen (und insb. der „Pausmethode“) wuerd ich sagen, dass das alles gleich war.
Und das SOLLTE auch so sein (was der Grund ist, warum das so wichtig ist), dass die Anstiege gleich sind. Auch wenn das in den beiden Faellen aus anderen Gegebenheiten so ist, denn die Anzahl der Seiten mit einem gegebenen Zitatewert ist unabhaengig von der Anzahl der Seiten mit dem selben LINKwert. Aber im Mittel ueber (sehr) viele Seiten, sollte das das Gleiche sein.
Dass dem wirklich so ist fetzt und bestaetigt im Nachhinein, dass mein Ansatz mit dem Mittelwert gar nicht so falsch ist … das ist wichtig, denn darauf basierten ein paar Schlussfolgerungen und Erklaerungen im weiteren Verlauf des Kevin Bacon Projekts.

Warum das auf den ersten Blick so ungleich aussieht, ist das unterschiedliche Verhalten des Verlaufs der beiden Durchschnitte bei hohen Werten auf der Abszisse. Was natuerlich nicht weiter verwunderlich ist, eben wg. besagter Unabhaengigkeit und weil wir hier in den Bereich kommen, wo oft nur sehr wenige, in vielen Faellen einzelne, Seiten einen ganzen Datenpunkt ausmachen … da kann man also mittels einer Durchschnittifizierung keine „versteckte“ Information „rauskitzeln“.

Ach ja, es ist eine reine Formalitaet (denn man sieht’s ja), aber ich sollte erwaehnen, dass die 2023 Daten die 2020 Daten reproduzieren.

Sooo … das ging schøn schnell heute.

Damals hatte ich dann nur noch den Rest der Verteilung der totalen Links angeschaut und da war nix weiter zu holen und ich hatte die gesamten Verteilungen bereits reproduziert. Und dann folgte (wie so oft) eine kurze Betrachtung der „Ausreiszer“, die ich hier auch nicht wiederholen werde. Dito, bzgl. der daran anschlieszenden Fehlerbetrachtungen.

Tjoa … jetzt muss ich ueberlegen ob ich mir erstmal die Linklevelverteilungen fuer die anderen drei Grøszen von Interesse anschaue (und damit dem damaligen „Spielplan“ vorgreife), oder „chronologisch“ weitermache.
Ich tendiere zu Ersterem, aber das muss ich nicht jetzt entscheiden.

Ja ich weisz, es ist schon laenger her. Ich war aber mit anderen Sachen beschaeftigt und durch die (stark) verminderte Anzahl an Beitraegen pro Monat ergab sich bisher einfach keine Gelegenheit endlich mal die Feinstaubmessungen fertig zu machen.

Rein technisch bastelte ich zunaechst noch rum, damit der Mikrokontroller die Ergebnisse auf eine externe SD-Karte speichert. Auszerdem fand ich auch noch heraus, wie ich (Teil)Ergebnisse mittels Radiouebertragung auslesen kann. Ersteres funktionierte prima, Letzteres war zwar voll spannend, aber hab ich aus anderen Gruenden nie wirklich benutzt.
All das (Sensor, Mikrokontroller, periphaerer Kram) verpackte ich in ein U-førmiges Regenrinnenstueck, machte ueber die Enden so ’ne Art sehr grobmaschigen Stoff drueber (damit mir da nix reinkrabbelt und ’n Kurzschluss verursacht) und haengte das Ganze drauszen auf. Es war der 14. Januar 2021, ein Donnerstag.

Und am 23. Januar holte ich alles wieder rein. Urspruenglich sollte das nur ein Testlauf sein … aber aufgrund der Verkettung von Umstaenden kam ich nie dazu nochmal wirklich was Laengeres zu machen. Zum Einen lag es daran, dass der Zaehler fuer die Uhr des Mikroprozessors „ueberlaeuft“. Und dann arbeitet der nicht mehr richtig. Ich haette das einfach nur alle zwei Wochen oder so resetten muessen, und ich hatte auch schon ueberlegt wie das gemacht werden kønnte … aber die Testergebnisse fanden zu einer interessanten Zeit statt (es war kalt und alle heizten wie verrueckt) und die waren trotzdem nicht wirklich spannend.

Dennoch, hier sind sie nun:

Aha! Das wackelt ja ganz schøn. Man sieht schnell, dass an kalten Tagen (Temperaturen unter dem Gefrierpunkt) die Feinstaubbelastung deutlich grøszer ist, als an warmen Tagen. Das war zu erwarten, denn dann waermen die Leute hier ihre Wohnungen mittels Holzøfen auf (zum Glueck keine Kohle!) um Strom zu sparen.

Die abgeschnittenen Spitzen scheinen einem Muster zu folgen (immer so gegen 21 Uhr oder halb 2 Uhr rum). Ich kriege das nicht richtig zugeordnet. Die wahrscheinlichste Erklaerung ist, dass das wieder vom Duschen kommt, denn der Sensor hing nur ca. einen Meter vom Badfenster entfernt und das ist beim Duschen immer auf. Aber ich kriege das nicht mehr nachvollzogen und das kønnte auch nur ein „Schluckauf“ sein, denn um die Zeit rum ist die Partikeldichte ohnehin hoch und vielleicht hat sich da was festgesetzt. Das wuerde ich aus dem Abhandensein solcher Spitzen an warmen Tagen schlieszen. Andererseits erklaert das nicht eine der høchsten Spitzen morgens 10 Uhr und es ist auch komisch, dass das immer zur ungefaehr gleichen Zeit passiert.
Ich erzaehle das so (relativ) detailliert, denn hieran sieht man, warum ich nicht so richtig zufrieden bin. Das-grosze-Drauszen ist ein offenes System ueber das ich nicht nur keine Kontrolle habe, sondern bei dem ich noch nicht mal weisz, was da passiert. Deswegen kann ich die Beobachtungen nicht zuordnen und das ist unbefriedigend … und dadurch wie gesagt der Hauptgrund, warum ich das nach dem Testlauf nie weiterverfolgt habe.

Eine systematische Sache sieht man allerdings an kalten Tagen. Ich zoome mal bei einem Tag rein:

In der Nacht ist die Partikeldichte gering — die Øfen sind aus. Ab ca. halb acht steigt sie langsam bis ca. 18 Uhr an. Bzw. kønnte man insb. auch die schwarze Kurve so interpretieren, dass der Anstieg schon bis ca. 10 Uhr fertig ist und dann die Werte um einen gewissen Plateauwert zappeln. Mhmmmmm … das kønnten dann Rentner sein, die es sich nach dem Aufstehen schonmal gemuetlich warm in der Stube machen.
Ab ca. 18 Uhr dann springt die Partikeldichte auf einen ca. 2 bis 5 Mal høheren Wert. Nun sind auch alle anderen Leute zu Hause und das Abendbrot ist gekocht und gegessen und beim gemuetlichen Entspannen vor dem Fernseher wollen auch diese Menschen es schøn warm haben. Der ca. 2 bis 5 Mal høhere Wert ergibt in dem Bild durchaus Sinn. Ich wuerde einen solchen Wert auch ganz grob abschaetzen als das Verhaeltniss aus den Leuten die tagsueber nicht zu Hause sind, und solchen die es sind (warum auch immer).
Ab ca. 21 Uhr fangen die Leute an kein Holz mehr nachzulegen. Die Feinstaubdichte geht runter und gegen 23 Uhr sind die meisten Øfen wieder aus.
Die kleine Spitze bei ca. 1 Uhr war vermutlich tatsaechlich ich, beim heiszen duschen.

Aber das zappelt alles so doll hin und her. Ich hatte gehofft, dass ich damit die Feinstaubbelastung durch Autos messen kønnte (vor allem Dieselautos und Abrieb der Strasze wg. Spikes an den Reifen). Kann ich aber nicht, bzw. scheint das im Dreck der Holzøfen unter zu gehen.

Mehr seh ich hier nicht und somit war’s das dann mit dem ganzen Thema. Die Messungen in der Kueche waren durchaus spannend, weil es viel zu entdecken und erklaeren gab. Warum ich das Ganze aber eigentlich machte dann letztlich nicht. Andererseits gebe ich zu, dass sich auch hier „der Weg ist das Ziel“ einstellte. Das ganze Knobeln an der Hard- und Software hat mir mal wieder viel mehr gegeben als die Messergebnisse am Ende.

Hurra! Damit ist das endlich abgeschlossen!

Die Sachen die ich beim letzten Mal reproduzierte (und leicht erweiterte) machten mich damals stutzig, denn die Kurven hatten fuer meinen Geschmack einen viel zu starken Anstieg. Deswegen untersuchte ich (damals) wie stark Seiten mit unterschiedlichen Anzahlen an Zitaten und Links auf Linklevel 0 zur Anzahl der totalen Links auf Linklevel 1 beitragen.
Das wollte ich jetzt natuerlich nochmal machen und die entsprechenden Programme hatte ich schon vor Monaten geschrieben. Leider habe ich diesmal nicht richtig hingeschaut und das als „Beitrag zur Anzahl der total Links auf LL0“ (man beachte den Linklevelindex!) gelesen (anstatt „auf LL1„). Dadurch hab ich dann Zeit verschwendet, weil besagte Programme vermeintlich falsche Zahlen lieferten. Der Fehler klaerte sich nach ca. 2 Stunden auf.

Aber der Reihe nach und als Erstes nochmal kurz worum es heute geht. Wenn ich an ’ne Sache rangehe, mache ich oft erstmal ’ne Fermi Abschaetzung. Etwas genauer: ich schau mir Mittelwerte an und ueberlege mir wie diese Sache aussehen sollte, wenn man nur mit den Mittelwerten rechnet. Damals kam aber ganz schnell heraus, dass die durchschnittliche Anzahl der Links und Zitate, gemittelt ueber ALLE Seiten, einen VIEL kleineren Anstieg der totalen Links verursachen sollte. Ich hatte dann relativ schnell die Idee, dass mglw. Seiten die extrem oft zitiert werden einen ueberproportionalen Anteil an dem Anstieg haben kønnten, der mitnichten mittels einer Mittelwertsueberschlagsrechnung erfasst werden kann.
Oder anders (mit Zahlen): eine Seite die auf LL0 fuenf mal zitiert wird und die fuenftausend Links hat, traegt auf LL1 25-tausend (totale) Links bei. Der Beitrag einer Seite mit nur einem Link, die aber 250-tausend Mal zitiert wird, ist hingegen zehn Mal so hoch.

Das soll reichen zu dem was man hier (wieder) sieht; mehr Details gibt es in den entsprechenden Artikeln von damals.
Ach ja, wenn ich schon dabei bin sollte ich auch auf einen Fehler hinweisen. Bei der Kurve bzgl. des kumulativen Beitrags habe ich damals die Werte fuer NULL mal zitierte Seiten mit dazugezaehlt. Die tragen aber NICHT bei, weil die ja nicht zitiert werden. Das fuehrt aber NICHT zu einer Aenderung des Anstiegs der Kurve, sondern nur zu einer konstanten Verschiebung von weniger als 1 Million … da die Ordinate bis fast 40 Milliarden geht, sieht man das gar nicht und HIER ist das jetzt alles richtig!

Aber nun die Diagramme. Zunaechst das zur Reproduzierbarkeit …

… bei der (wie damals) als Unterscheidungsmerkmal der betrachteten Seiten die Anzahl der Zitierungen herangenommen wurde. Die schwarzen Punkte (linke Ordinate) repraesentieren die Summe aller Produkte von Anzahl Links und Anzahl Zitierungen aller Seiten mit einer gegebenen Anzahl Zitate auf LL0. Die Punkte der 2023 Daten sind im Wesentlichen die Gleiche wie die fuer die 2020 Daten.
In den 2023 Daten gibt es aber mehr Seiten mit unterschiedlichen Anzahlen an Zitierungen. Wegen der logarithmischen Komprimierung sieht man die entsprechendne Punkte nicht. Die sind aber ein Grund, warum die kumulative Anzahl Links auf LL1 (blaue Punkte, rechte Ordinate) der 2023 Daten schneller waechst als die der 2020 Daten. Desweiteren liegen die schwarzen Punkte ein bisschen ueber den grauen Punkten. Man muss genau hinschauen und sieht es vermutlich am besten am Anfang um 10 Zitate rum … der Unterschied ist gering, aber echt. Oder anders: es gibt in den 2023 Daten nicht nur mehr Seiten mit anderen / unterschiedlichen Zitaten als in den 2020 Daten, sondern auch mehr Seiten die bspw. 5 Zitate haben. Und das „haut dann rein“ bei den kumulativen Kurven … denn das liegt ja schon in der Definition der kumulativen (!) Kurven.
Aber alles „geht mit rechten linken Dingen zu“, denn die Form der Anstiege (im Wesentlichen linear) aendert sich nicht.

Damals nicht betrachtet hatte ich, wie das Ganze aussieht, wenn man die Anzahl der Links herannimmt als Unterscheidungsmerkmal der betrachteten Seiten. Aber das ist ja das Schøne, wenn man die entsprechenden Programme nochmal neu schreibt und dabei allgemeiner fasst; es „fallen mehr Sachen raus“. Auf den ersten Blick das sieht das …

… erstmal sehr aehnlich zum obersten Diagramm aus, sowohl qualitativ als auch quantitativ. Letzteres natuerlich nur bzgl. der Ordinate. Insb. verhalten sich die 2023 Daten nicht anders als die 2020 Daten (innerhalb der zu erwartenden Grenzen).
Auf den zweiten Blick sieht die Verteilung der schwarzen Punkte dann aber doch anders genug aus, sodass ich da mal „reingezoomt“ habe:

Tatsaechlich! bei vielen Zitaten „gehen die Punkte hoch“, waehrend sie „runter“ gehen bei vielen Links … da kann wer anders mglw. was mit machen, ich lasse das hier nur noch ohne weitere Kommentare stehen.

An der Stelle liesz ich damals die durchschnittliche Anzahl Links (bei gegebener Anzahl an Zitaten) folgen. Das verschiebe ich auf den naechsten Beitrag, weil dies eines der wichtigsten Ergebnisse ueberhaupt war, welches oft zur Erklaerung anderer Phaenomene herangezogen wurde.

Ich kam dann damals nochmals auf die Beitraege der einzelnen Seiten (gruppiert nach der Anzahl der Zitate) zurueck und schaute mir das in einem zweidimensionalen Grafen an, in dem Information ueber eine dritte Dimension (besagte Gruppierung) in den einzelnen Punkten „versteckt“ war.
Das war wichtig, denn diese Kurve zeigte ungeheuer beeindruckend wie stark _ganz_ wenige Seiten mit vielen Zitaten die Dynamik der total Links insb. am Anfang beeinflussen … womit der Grund der oben erwaehnten Stutzigkeit gefunden war.
Hier sind die entsprechenden Kurven:

Bzgl. dessen wie dieses Diagramm zu lesen ist verweise ich auf den damaligen, verlinkten, Beitrag. Nur drei Sachen seien gesagt.
Zum Einen schaue ich mir nicht nur die Gruppierung nach Anzahl der Zitate (rote Punkte) an, sondern auch nach Anzahl der Links (schwarze Punkte).
Zum Zweiten unterscheiden sich die 2023 Daten nur insofern, dass sie sich weiter nach rechts „ausdehnen“. Das liegt natuerlich wieder daran, weil es in den 2023 Daten mehr Seiten gibt.
Zum Dritten scheint die Dynamik der Kurven in denen die Seiten nach der Anzahl der Links gruppiert sind, etwas „ruhiger“ zu sein als die der Kurven in denen die Seiten nach Anzahl der Zitate gruppiert sind. Oder anders: die roten Kurven verlaufen ab ungefaehr 5 Millionen auf der Abzsisse etwas „flacher“ (nicht viel) als die schwarzen Kurven um dann zum Ende einen „Extraschub“ hinzulegen und staerker zu „beschleunigen“. Am Endergebnis aendert das nix, kønnte aber mglw. durchaus von Interesse sein sich mal naeher anzuschauen … fuer andere … nicht (mehr) fuer mich.

Das soll genug sein fuer heute. Wie bereits erwaehnt: beim naechsten Mal dann die durchschnittlichen Links / Zitate bei gegebener Anzahl Zitate / Links.