Archive for November, 2023

Nach allem was ich beim letzten Mal bzgl. nicht effizienten Arbeitsplaetzen schrieb muss ich sagen, dass trotz dieser empfundenen Ineffizienz Sachen getan werden.

Klar, auf der Baustelle stehen 7 Leute und glotzen ins Loch waehrend nur einer arbeitet … in anderen Laendern ist das nicht anders. Aber Løcher bleiben nicht Monate lang offen sondern sind schnell auch wieder zu gemacht.
An der (beim letzten Mal erwaehnten) geøffneten Rolltreppe (und auch an der Ampel) wurde tatsaechlich gearbeitet und nicht nur ein „Bis auf weiteres auszer Betrieb“-Schild aufgestellt. Das geht natuerlich, weil es noch mehr Arbeiter gibt, die sich um die anderen (kaputten) Rolltreppen kuemmern. Eine „Nebenwirkung“ dieser Umstaende ist natuerlich, dass „verstimmte“ Dinge schnell wieder funktionieren.

Und wenn es immer zwei Leute gibt die an einer Sache arbeiten, dann bedeutet das natuerlich auch, dass immer zwei Leute Bescheid wissen. Wenn dann einer krank wird, dann kann die andere Person trotzdem weiterarbeiten und die Sache wird erledigt.

Baustellenausfahrt- oder Fahrradgaragenaufpasser sind oft aeltere Leute … also wirklich alt, nicht nur „ueber 50“. Da Arbeit (als Konzept auf verschiedenen Ebenen) sehr wichtig ist fuer Menschen und die Gesellschaften in denen diese zusammen leben, fuehrt ein groszer Bedarf an solchen Arbeitsplaetzen zu einer besseren Integration von Personen die „klassischer Arbeit“ nicht (mehr) nachgehen (kønnen). Das geht natuerlich WEIT (!) ueber das Geld was man dadurch verdient hinaus und gilt auch fuer Menschen mit geringer Bildung oder Leute die aufgrund ganz anderer Ursachen schwer in „klassische Berufe“ passen.
Das soll natuerlich NICHT ausdruecken, dass das u.U. nicht dennoch extrem langweilig ist, den ganzen Tag an der Baustellenausfahrt rumzustehen … ich sehe hier nur eine Art selbstorganisierte-Løsung fuer ein massives Problem in meiner eigenen Gesellschaft.

Ein ganz anderer Aspekt ist natuerlich der extrem gute Kundenservice. Wenn bspw. an jedem Ausgang der U-Bahn mindestens eine Person steht, dann wird einem auch sofort (!) geholfen falls die Maschine das Ticket frisst, wenn man sich unsicher ist was man machen muss oder wenn man einen Fehler gemacht hat. Ersteres ist mir tatsaechlich passiert und in den mir viel besser bekannten Laendern (weil ich da wohn(t)e) haette ich vllt. høchstens den „Service“ anrufen kønnen (etwas ueberspitzt gesagt) denn mal physische (und auch besetzte!) Serviceschalter gibt es nur noch an den Verkehrsknotenpunkten. Und die Leute dort kønnen einem oft genug auch nicht weiterhelfen (nicht mal dann, wenn mein Problem waehrend der Øffnungszeiten auftritt). Oder besagte Servicemitarbeiter sind mit den Problemen anderer Leute so sehr beschaeftigt, dass man ewig warten muss, eben weil Servicestellen aus Effizienzgruenden notorisch unterbesetzt sind … egal welcher gesellschaftliche Service, denn das gilt nicht nur fuer den øffentlichen Nahverkehr, sondern auch fuer die Telefongesellschaften, Krankschwestern (und -brueder), Kindergaertnerinnen und Kindergaertner etc. pp.
Das heiszt nicht, dass es KEINE Warteschlangen gibt. Ich habe am Bahnhof in Tokyo (und Kyoto) warten muessen (und auch in einem (vielleicht sogar zwei) Hotels). Aber das fuehlte sich ganz anders an als hier im „Westen“.

Das soll fuer heute reichen beim naechsten Mal ordne ich das in einen grøszeren Zusammenhang ein.

Ich versprach beim letzten Mal Freude und die kann man anhand dieses Diagramms erfahren:

Und wie so oft sage ich hier zunaechst mein beruehmtes: aber der Reihe nach … tihihi.

Die grauen, als „Rohdaten“ beschriftete, Punkte sind das Resultat einer Simulation. Bei dieser unterlag die Wahrscheinlichkeit einen gegebenen, ganzzahligen (!) „Messwert“ im Intervall [1, 10k] zu erhalten einem simplen Potenzgesetz mit einem Exponent von -2.23 und keinen Vorfaktoren oder anderweitigen Konstanten.
Ich machte 100-tausend „Messungen“ und zaehlte wie oft jeder Messwert auftrat. Hier ist also in den grauen Punkten (mal wieder) ein Histogramm zu sehen und das verhaelt sich wie erwartet; eine Gerade im log-log-Plot … zumindest bis zu Messwerten von ca. 100 (ganz konkret geschah der „Schnitt“ bei 130). Auch erwartet ist der „Schwanz“ bei Messwerten ueber 100 hinaus. Mit bspw. 1000-2.23 = 2 x 10-7 ist die Wahrscheinlichkeit zwar sehr klein aber eben nicht null und bei 100k Messungen ist das nicht unplausibel den Wert 1000 ein Mal zu messen. Das ist also ECHT! Das sind KEINE Ausreiszer!

Die hohen Messwerte muss ich aber „abschneiden“, um mittels linearer Regression (lila, nicht durchgehende Kurve) den Anstieg der Geraden zu -2.2028 ermitteln zu kønnen. Das ist gar nicht mal so schlecht, bedeutete aber in diesem konkreten Fall, dass ich 133 Messwerte ignorieren muste … schade eigentlich, nicht wahr.

Aber keine Sorge, Rettung naht in Form der blauen Punkte welche so berechnet wurden:

Weil es sich hierbei um diskrete Werte handelt kann das Integral als eine einfache Summe berechnet werden. Ich werde das aber weiterhin als Integral bezeichnen (und betrachten).
Die Grenzen des Integrals sind so zu verstehen, dass der Wert desselbigen bei einem gegebenen Messwert x die Summe ueber ALLE f(x) von dem gegebenen Messwert bis zum maximalen Messwert ist.

Das kann man auch anders ausdruecken, indem man f(x) derart normiert, dass die Flaeche unter der Kurve 1 wird (der Anstieg aendert sich dadurch ja nicht). Dann kann f(x) direkt als die Wahrscheinlichkeit angesehen werden x zu messen. Das ist leicht zu verstehen, insb. wenn man in Betracht zieht was (wie oben beschrieben) bei der Simulation passiert, wenn eine „Messung“ gemacht wurde.
Bei dieser „Wahrscheinlichkeitsinterpretation“ entspricht ein Integralwert zu  einem gegebenen x der Wahrscheinlichkeit, dass eine Messung einen Wert produzieren wird der grøszer oder gleich x ist.
Diese Interpretation ist in vielen Situationen sehr hilfreich weswegen ich die hier erwaehne. Wirklich sinnvoll ist die aber nur fuer negative Exponenten (kleiner als -1).
Fuer positive Exponenten kommt man mit einer solchen Interpretation ganz schøn in die Bredouille; auch wenn die Mathematik natuerlich erhalten bleibt. Was der Grund ist, warum ich diese Interpretation eher vermeide und solche Normierungen im Weiteren nicht vornehme.

Zurueck zum Diagramm; man sieht leicht, dass ich bei den blauen Punkten auch Werte ueber 130 benutzen kann um den Anstieg selbiger zu ermitteln. Dieser betraegt -1.2486 und da es sich hierbei um das Integral handelt muss man dran denken, dass dieser um eins erniedrigt werden muss um den Exponenten zu erhalten.
Der Unterschied zum wahren (hier NICHT in Anfuehrungszeichen, da ich den exakten Exponenten fuer die Simulationen kenne) Wert betraegt fuer die „Rohdaten“ 0.0272 und fuer das Integral nur 0.0186. Letzteres ist also ca. 50% genauer. Der Unterschied hier ist aber nicht so wichtig (kann in anderen Zusammenhaengen aber wichtig werden.

Das Integral hat zwei (!) viel wichtigere Konsequenzen die weit ueber den kleineren Unterschied hinaus gehen. Zum Ersten muss ich KEINE (oder in anderen Zusammenhaengen weniger) Messwerte ausschlieszen UND zum Anderen ist der lineare Zusammenhang (hier auf der Abszisse) ueber zwei weitere Grøszenordnungen zu erkennen.
Ersteres ist selbsterklaerend und Letzteres ist krass urst gut, denn dadurch werden Ergebnisse robuster (und man kann denen dadurch noch mehr vertrauen).

In einer zweiten Simulation aenderte ich das Vorzeichen (aber nicht den Wert) des Exponenten; grosze Messwerte sind damit viel wahrscheinlicher als kleine Messwerte und das spiegelt sich in den grauen Punkten (linke Abszisse) in diesem Diagramm wider:

Der grøszte Unterschied zum ersten Diagramm ist, dass es keinen „Schwanz“ (der in diesem Fall zu kleineren Werten gehen muesste) gibt. Demnach kann ich auch keine Messwerte „ignorieren“ bei der linearen Regression (lila, nicht durchgehende Kurve) und selbige fuehrt zu einem Anstieg von +1.8832 … was ganz schøn schlecht ist.

Wenn man nun das Integral mit den Grenzen wie oben bildet, erhaelt man die schwarze Kurve (rechte Abszisse). Da passiert erstmal gar nichts und dann ganz pløtzlich passiert was sehr schnell. Das wird verstaendlich, wenn man (ausnahmsweise) die „Wahrscheinlichkeitsinterpretation“ her nimmt. Bei derartigen Grenzen besagte diese, dass der Integralwert zu einem gegebenen Messwert angibt, wie grosz die Wahrscheinlichkeit ist, diesen oder einen høheren Messwert zu erhalten. Weil hohe Messwerte sehr viel wahrscheinlicher sind als kleine Messwerte aendert sich der Integralwert zunaechst nicht stark und dann pløtzlich urst dolle.
Die schwarzen Punkte bilden sicherlich keine Gerade und diese „komische Sache“ fuehrte bei mir zu gehørigem Kopfzerbrechen … worauf ich ja aber im nicht Detail eingehen wollte. Ich sage nur so viel: die Mathematik ist hier nicht „kaputt“. Das ist nur eine der Sachen bei der kontinuierliche Mathematik die von minus Unendlich bis plus Unendlich reicht mit echten diskreten Messwerten „kollidiert“, die nicht mal bis Null (wichtig!) und sicher nicht bis Unendlich reichen. Man kann das fixen und dann wird das wieder schøn gerade, auch bei diesen Grenzen … das war zwar interessant auszuknobeln, aber wie gesagt, das soll hier nicht das Thema sein.

Anstatt das kompliziert zu machen gebe ich die viel einfachere Løsung (welche man in den blauen Punkten (auch rechte Abszisse) sieht) direkt an — „invertierte“ Integralgrenzen:

In der „Wahrscheinlichkeitsinterpretation“ wuerde das der Aussage entsprechen, dass der Integralwert zu einem gegebenen x angibt, einen Messwert _kleiner_ oder gleich x zu erhalten … aber wie erwaehnt, kann man die „Rohdaten“ bei positiven Exponenten NICHT mehr streng als Wahrscheinlichkeiten interpretieren (auszer in ganz konkreten Beispielen mit endlichen Messungen). Ich fand das nur so anschaulich, weswegen ich das erwaehne … aber das „vergesst“ ihr, meine lieben Leserinnen und Leser, ganz schnell wieder und merkt euch nur die schnelle Løsung um auch bei positiven Exponenten Geraden in log-log-Plots von Integralen zu erhalten.
Zum Glueck tritt dieser Fall zumindest bei der Analyse des Wikipedianetzwerkes nicht so haeufig auf.

Wieauchimmer, die lineare Regression des Integrals fuehrt zu einem Anstieg der blauen Punkte von +3.2282, was auch um eins reduziert werden muss und dann sehr nah am wahren Wert ist … das ist mal echt urst cool, wa!

Genug fuer heute. Beim naechsten Mal fange ich an, nochmal durch (fast) alle doppellogarithmischen Diagramme durch zu gehen. Das werden also ein paar Artikel. ABER ich schaue mir das nicht nochmal im Detail an; das werden also Artikel mit Bildern und (meist) nicht ganz so viel Text wie hier … mit der Ausnahme, wenn es was Neues oder Interessantes zu sehen gibt.

Heute geht’s mal schnell, denn ich mache nur die mathematische Einfuehrung zu dem was in den kommenden Artikeln kommt.

Hier begruendete ich, warum ich so gerne doppellogarithmische Plots zeige. Kurz zusammengefasst ist das so eine tolle Darstellungsweise, weil ich bei einem funktionalen Zusammenhang welcher einem Potenzgesetz …

… folgt, dann eine lineare Funktion …

… erhalte und der Anstieg der linearen Funktion in doppellogarithmisher Darstellung entspricht dem Exponenten in normaler Darstellung.
Das ist schon fetzig … aber beinhaltet oft auch einen subjektiven Faktor. Man muss naemlich schauen, welche im „Schwanz rumzappelnden“ Datenpunkte ignoriert werden muessen, damit die Gerade schøn passt; siehe bspw. hier, hier oder hier.

Nun beinhaltet der Schwanz aber mglw. noch Information. Ich brauchte viele Stunden mit Nachdenken, Probieren und Neuanalysiern bevor ich das Folgende wenigstens halbwegs verstanden hatte. Darauf gehe ich aber nicht naeher ein und sage kurz und knapp, dass man an besagte Information ran kommen kann, wenn man die Funktionswerte integriert.

Unter der Annahme, dass eine Grøsze sich nach einem maechtigen Gesetz verhaelt, ist das anhand eines Beispiels schnell erklaert. Mathematisch ist das sowieso ganz einfach, denn das Integral eines Potenzgesetzes …

… ist immer noch ein Potenzgesetz, nur mit einem um eins erhøhten Exponenten (und einem leicht veraenderten Vorfaktor, der interessiert hier aber nicht weiter und ich lasse den im Folgenden weg). Jaja, das ist ein unbestimmtes Integral und ich habe die Konstante weggelassen … das wird aber letztlich unten ein bestimmtes Integral, die Grenzen muessen aber diskutiert werden, und es geht doch sowieso nur um den Exponenten.

Obige Aequivalenz gilt natuerlich weiterhin …

… und das ist mal urst geil, denn unser Exponent A ist auch beim Integral der Funktionswerte unveraendert der Anstieg im log-log-Plot nur eben um eins erhøht … das absolute Glied ist anders, aber das interessiert uns meist eh nicht weiter.

Die Mathematik ist schøn (im aesthetischen Sinne) simpel und war nicht der Grund warum ich so lange brauchte das halbwegs zu verstehen. Vielmehr lag es daran, weil die Resultate aus der Anwendung besagter Mathematik auf meine bisherigen Ergebnisse nochmal interpretiert und verstanden werden mussten; Letzteres galt insb. fuer „komische“ Sachen … aber wie gesagt, darauf wollte ich nicht weiter eingehen … das passt hier nicht rein.

Warum mich das alles nun so sehr begeistert wird beim naechsten Mal ersichtlicher … *froi*.

Vor laengerer Zeit liesz ich mich an zwei Stellen zur Chancengleichheit aus. Die Illustrationen im ersten Beitrag simplifizieren das Problem natuerlich massiv. Menschen sind nunmal sehr unterschiedlich; egal wie gern ich Poesie verstehen møchte, so geht diese leider doch komplett an mir vorueber. Andere Menschen kønnen das bzgl. der Mathematik oder Sprachen oder Computern etc. pp. sagen. Diese differenzierte Betrachtung aendert aber natuerlich rein gar nichts an dem dahinterstehenden fundamentalen Problem, was letztlich die (allgemeine) Ausgrenzung (von was auch immer) vieler Menschen zur Folge hat um den status quo der Eliten (und derer die sich dafuer halten) zu erhalten. Aber darum soll es heute nicht gehen, denn darueber habe ich mich in den verlinkten Artikeln bereits ausgelassen.

Ich bringe das nur nochmal weil ich neulich ueber diesen Cartoon …

Laut Lily-Maybe auf reddit von Barry Linton, zuerst verøffentlicht im New Zealand Herald, November 2000. Die obige Kopie ist von hier (dort falsch attribuiert).

… gestolpert bin. Den wollte ich nur kurz zeigen, weil dadurch obiges Problem so schøn illustriert wird.

Im Versuch heraus zu finden, wer der Autor des Cartoons ist (siehe Bildunterschrift), stolperte ich darueber, dass das Original dtsch. ist:

Hans Traxler, Chancengleichheit, in: Michael Klant , [Hrsg.] , Schul-Spott: Karikaturen aus 2500 Jahren Pädagogik, Fackelträger, Hannover 1983, S. 25. Die obige Kopie ist von hier.

Leider fand ich es nur in schlechter Qualitaet aber die Unterschiede der beiden Bilder sind erkennbar und interessant.

Ebenso interessant (und auch empørend) ist, dass die englische Adaption von Barry Linton, (wenn ueberhaupt) Hans Traxler zugeordnet wird. Nun kønnte man meinen, dass das eine Art Fortschritt ist, denn allermeistens wird das Bild nur geklaut und es findet ueberhaupt keine Attribuierung statt … *seufz*.
Ich finde, dass dem nicht so ist, denn gefaelschte Bilder werden schlieszlich auch nicht den eigentlichen Malern zugeordnet. Bzw. umgekehrt sind beide Cartoons berechtigt als eigenstaendig anzusehen (siehe die interessanten Unterschiede) und da gilt dann das Prinzip Ehre-wem-Ehre-gebuehrt … meiner Meinung nach.

Aber das tut eigtl. alles nix zur Sache. Ich wollte nur ganz kurz den Cartoon zeigen, zum dazugehørigen Thema aber nix weiter zu schreiben. Auszerdem fand ich das worueber ich stolperte aufschreibenswuerdig, und wollte euch, meine lieben Leserinnen und Leser, daran teilhaben zu lassen.

Beim letzten Mal zeigte ich dasVerhaeltnis der totalen Links zur Linkfrequenz (per Linklevel) und …

[e]inzig von Interesse ist, dass das Maxium […] [dieses Verhaeltnisses] bei LL4 liegt, waehrend die [Verhaeltnisse der totalen Links zu den neuen Links bzw. den Selbstreferenzen] den grøszten Wert erst bei LL5 erreichen […]

Zur Erklaerung erinnere ich an die Entwicklung der totalen Links in Abhaengigkeit vom Linklevel. Das Maximum der Verteilung liegt bei LL4. Der Unterschied zum Wert bei LL5 ist aber eher klein (was wichtig ist).
In diesem Diagramm …

… sieht man nun, wie sich die drei anderen Grøszen von Interesse in Abhaengigkeit von den totalen Links entwickeln. Ich gebe zu, es ist etwas unuebersichtlich, ich gehe da aber Schritt fuer Schritt durch.

Das Folgende ist zu beachten (davon abgesehen, dass die Linien wieder nur der Visualisierung dienen, zwischen den Punkten gibt es keine Werte):
– Da die Anzahl der Selbstreferenzen (blau) so klein ist, brauchen die ihre eigene Ordinate (rechts) und die Zahlen der beiden Ordinaten unterscheiden sich um (ueber) 6 Grøszenordnungen!
– Die Zahlen zur Anzahl der totalen Links auf der Abzsisse sind nochmal (mehr als) einen Faktor 10 grøszer als die der Linkfrequenz (rot).
– Die Kurve der neuen Links (schwarz) und der Selbstreferenzen „geht“ im Uhrzeigersinn, die der Linkfrequenz hingegen im mathematisch positiven Drehsinn.

Im Allgemeinen gilt, dass die Anzahl der totalen Links immer grøszer ist als die der anderen drei Grøszen und fuer Letztere gilt, dass deren Zahlen „nach oben“ gehen wenn ich mehr totale Links habe und nach unten wenn derer weniger werden. Fuer alle Grøszen gelten aber unterschiedliche Limitierungen und deren „Dynamik“ von einem Linklevel zum naechsten ist unterschiedlich … hier wird’s jetzt kleinteilig

Die Selbstreferenzen sind am einfachsten zu erklaeren. Die Chance eine Selbstreferenz zu erhalten ist umso grøszer je naeher man am „Ursprung“ (also bei kleinen Linkleveln) ist. Deswegen macht die blaue Kurve als Einzige auch gleich auf LL1 einen solchen „Satz nach oben“. Die blaue Kurve steigt im Wesentlichen nur deswegen nach LL1 noch weiter an, weil dann (zunaechst) immer urst krass mehr totale Links zur Verfuegung stehen und davon eben auch welche Selbstreferenzen sind. Aber nach LL3 ist damit Schluss, die Chance eine Selbstreferenz zu erhalten ist zu klein und trotz weiter wachsender totaler Links nimmt der Wert der Selbstreferenzen nach LL3 ab. Weil die totalen Links bis LL4 weiter wachsen, nimmt auch das Verhaeltniss weiter zu.
Dass Selbiges aber auch noch zu LL5 waechst, trotz abnehmender totaler Links, liegt daran, weil die Selbstreferenzen schneller weniger werden. Die Anzahl Letzterer reduziert sich in diesem Schritt auf nur ca. 1/3 (von ca. 29M auf ca. 9M) waehrend die Anzahl der totalen Links nur auf etwas mehr als 4/5 reduziert wird (von ca. 390T auf ca. 330T).
Nach dem Maximum geht die Kurve aber wieder runter, weil sich der eben erwaehnte Umstand umkehrt; die totalen Links nehmen schneller ab als die Anzahl der Selbstreferenzen. Ich gebe zu, das sieht man nur bedingt im Grafen.
Sobald das Linknetzwerk sicher im Bereich der Zitierketten ist pegelt sich alles ein und beide Grøszen vermindern sich gleich schnell (wenn auch mit unterschiedlichen absoluten Werten), woraus die (mehr oder weniger) gerade Linie bei høheren und hohen Linkleveln folgt.

Bei den neuen Links liegt im Wesentlichen die gleiche Situation vor. Bis LL4 nimmt deren Anzahl zu, vor allem weil es einfach immer mehr totale Links gibt und davon sind halt etliche auch neu. Wenn man die Zahlen bis LL4 aufsummiert und durch die Anzahl alle Seiten teilt sieht man, dass jede Ursprungsseite bis dorthin (im Durchschnitt) bereits ueber 4 Millionen neue Links gesehen hat. Von LL4 zu LL5 liegt die gleiche Situation wie bei den Selbstreferenzen vor (aber aus anderen Gruenden). Eine Ursprungsseite sieht zwar immer noch viele totale Links (deren Anzahl nimmt nur geringfuegig ab) aber bis LL4 sind bereits 2/3 aller møglichen Links gesehen worden, es sind also nicht mehr viele ueber die als „neu“ gelten kønnen. Deswegen geht das Verhaeltniss der beiden Grøszen weiter nach oben; wie bei den Selbstreferenzen, so nehmen auch die neuen Links auf LL5 schneller ab als die totalen Links.
Dann werden diese beiden Grøszen bis ca. LL10 „im Gleichschritt“ weniger woraus das „Plateau“ folgt (und was man im Grafen wieder nur bedingt sehen kann). Der „Absacker“ im Verhaeltniss bei ungefaehr LL10 liegt darin, weil dort das Ensemble aller Wikipediaseiten (relativ schnell) zu groszen Teilen in die Zitierketten uebergegangen ist. Und da gibt es dann nur noch ein paar weniger neue Links und deren Anzahl im Verhaeltniss zu den totalen Links ist immer gleich, weil im Durchschnitt alle Seiten gleich viele totale Links (ca. 10 bis 30) haben und in einer Zitierkette im Durchschnitt immer nur ein neuer Link zu sehen ist.

Auf zur Linkfrequenz und dafuer muss man sich (wieder mal) erinnern, wie diese zustande kommt … das kann man hier nachlesen und ich baue darauf auf … in kurz ist die Linkfrequenz die „gedeckelte“ Anzahl der totalen Links … aber der Reihe nach.
Auf LL4 gibt es in der Summe fast 400 Billiarden totale Links. Bei ca. 6 Millionen Ursprungsseiten bedeutet dies, dass jede Ursprungsseite auf LL4 die Links zu ca. 65 Millionen Wikipediaseiten sieht. Von Ausnahmen (die bei diesen Zahlen aber nicht so schwerwiegend sind, dass sie die hier getaetigten Aussagen ungueltig machen wuerden) abgesehen, bedeutet das im Wesentlichen, dass jede Ursprungsseite auf LL4 jede (!) andere Seite 10 Mal sieht. Fuer die Linkfrequenz wird die dann nur ein mal gezaehlt (deswegen gedeckelt). Der wirkliche Wert der (Summe der) Linkfrequenz (aller Seiten, per Linklevel) auf LL4 liegt bei ca. 24 Billiarden was nahe genug dran ist an der eben durchgefuehrten Ueberschlagsrechnung (nicht mal ein Faktor 2 Unterschied … gut wa!).
Oder anders: wenn hinreichend viele totale Links vorhanden sind, ist der Linkfrequenzzaehler fuer alle Seiten maximal, weil sie eben von jeder Ursprungsseite aus kommend „gesehen“ werden.

Das ist der wesentliche Unterschied zu den Selbstreferenzen und den neuen Links. Wie oben gesagt ist die Anzahl der Ersteren von den totalen Links abhaengig, besagte Anzahl wird aber dadurch (massiv) eingeschraenkt, weil die Wahrscheinlichkeit fuer eine Selbstreferenz mit zunehmendem Linklevel rapide (!) abnimmt. Der erste Teil dieser Aussage gilt auch fuer neue Links, deren Anzahl wird aber deswegen eingeschraenkt, weil jeder ein Mal gesehene Link beim zweiten Mal nicht mehr neu ist und deswegen nicht mehr gezaehlt wird.

Fuer die Linkfrequenz gilt keine dieser Einschraenkungen. Und deshalb bleibt deren Zaehler auf LL5 grosz, bei gleichzeitiger (hinreichend kleiner) Abhnahme der Anzahl der totalen Links, was zu einem kleineren Verhaeltnis dieser beiden Grøszen fuehrt, anstatt zu einem weiter ansteigenden.
Danach geht’s dann ganz fix in die „Zitierkettenphase“ mit dem Umstand, dass in den Zitierketten im Wesentlichen die totalen Links (fast) der Linkfrequenz entsprechen.

Zum Abschluss dazu sei gesagt, dass das alles bekannt ist. Hier kommen aber einige der vorhergehenden Erkentnisse zusammen und alle werden gebraucht um so eine kleine Diskrepanz eines um ein Linklevel verschobenen Maximums zu verstehen.

Schade, dass es so ein antiklimaktischer Ausstieg aus der Analyse der Daten zum Wikipedialinknetzwerk ist. Aber so ist das nun mal in der Wissenschaft. Das Allermeiste ist kleinteilig, muss genau betrachtet werden und ist fuer Auszenstehende oft eher langweilig … siehe auch hier und hier. Und so war es ja eigentlich schon auf der ganzen „Reise“ … viel „Routine“, gesprinkelt mit ein paar coolen Entdeckungen.

Das ist aber noch nicht ganz das Ende von Kevin Bacon. Ich møchte noch eine Sache ansprechen und eine Zusammenfassung schreiben … und vielleicht auch noch ein bisschen Meta diskutieren, aber da bin ich mir gerade noch nicht so sicher.

Wenn man sich Japan vorstellt, dann haben viele Menschen ein „hypermodernes und hocheffizientes Gesamtsystem“  vor dem inneren Auge. Und waehrend Letzteres durchaus stimmt, so denke ich, dass Ersteres laengst nicht daraus folgt. In diesem Beitrag møchte ich diesbezueglich vor allem ein paar Beispiele aus dem Arbeitssektor geben.

Ich sage gleich als Erstes, dass es (in meiner (!) Interpretation des Gesehenen) ungeheuer viele Bullshit Jobs gibt von der Art wie in der ehemaligen Sowjetunion. Das bedeutet NICHT (!), dass es tatsaechlich fuer die Arbeiter Bullshit Jobs sind, oder, dass diese nicht fuer die die Gesellschaft wichtig waeren. Ganz im Gegenteil, aber dazu komme ich beim naechsten Mal.

In Resturants oder Einkaufslaeden arbeiten (oft stehen) urst viele Leute wo es bei uns nur einen gaebe, der die Arbeit macht.
An jeder (!) Ausfahrt einer Baustelle steht den ganzen Tag eine Person die nur ein und ausfahrende Autos anhaelt, falls Fuszgaenger vorbei kommen (und umgekehrt).
Jeder U-Bahnausgang hat mindestens 2 Personen die dort im Kabuff sitzen.
Ich habe in einer unterirdischen Fahrradgarage auch so ein Kabuff gesehen und dort sasz auch den ganzen Tag wer drin, der auf die Fahrraeder geschaut hat.
Die Menschen schmeiszen dort nix auf den Boden; dennoch habe ich an einem Bahnhof einen Mann mit Besen gesehen, der selbst die letzten paar Kruemel noch aufgefegt hat.
Wenn irgendwas repariert werden musste (bspw. eine Ampel oder eine Rolltreppe), denn haben sich das mindestens immer 2 Leute angeschaut.

Das alles sind Sachen, die bei uns seit langem „hocheffizient“ von so wenig wie møglich Leuten gemacht werden. ACHTUNG: diese Aussage ist unzulaenglich vereinfacht und das Wort „hocheffizient“ ist nicht umsonst in Anfuehrungszeichen. Aber ich denke dass ihr, meine lieben Leserinnen und Leser euch denken kønnt, worauf ich hinaus will.
Und ja klar, viele Leute in Menschen sind unter Stress und arbeiten urst viel, aber ich habe den Eindruck, dass das im Schnitt kompensiert wird von den vielen Leuten die in anderen Sektoren in ineffizienten und redundanten Jobs arbeiten.
Im Internet habe ich auszerdem von Auswanderern gelesen, dass die Leute zwar viele Stunden im Buero sind, dort aber auch viele persønliche Pausen machen (a.k.a. rumsitzen und im Internet browsen). Das kann ich nicht aus eigener Hand berichten, halte das aber fuer plausibel, nach allem was ich gesehen habe.

Mehr sage ich dazu heute nicht und beim naechsten Mal werfe ich einen zweiten Blicj auf die beschriebenen Begebenheiten.

… und das ist das Verhaeltnis der totalen Links zur Linkfrequenz per Linklevel.
Zur Erinnerung: bei den neuen Links kam ich zu dem Schluss, dass besagtes Verhaeltnis im Wesentlichen konstant ist (auch wenn man da drei „Stufen“ ausmachen kann).
Bei den Selbstreferenzen war ich ueberrascht, dass das auch einen konstanten Wert annimmt. Durch die Entdeckung der „Zitierketten“, dass aus diesen heraus populaere Seiten zitiert werden und dass die Anzahl der totalen Links im Durchschnitt sehr aehnlich ist fuer Kettenseiten, ist das Ueberraschende als aufgeklaert anzusehen. Bezugnehmend auf die erwaehnten „Stufen“ bei den neuen Links, spekuliere ich bzgl. der Selbstreferenzen, ob es zwischen LL9 und LL22 mglw. einen Mechanismus gibt (welchen ich mittels des Analogons einer „Strømung“ versuche zu veranschaulichen), der fuer die Form der Kurve verantwortlich ist. Ich denke, dass ich da meiner eigenen Mustererkennung auf den Leim gegangen bin. Das Einzige was da sein kønnte ist wieder im Zusammenhang der Zitierketten zu sehen, denn in dem Bereich geht die Menge dieser viel schneller nach unten als nach LL22. Aber das ist kein extra Mechanismus sondern nur dem Umstand geschuldet, dass es deutlich mehr kurze als (sehr) lange Zitierketten gibt. Damit sind die zwei Sachen auch geklaert und die „Stufen“ sind nicht als eigenstaendiges Phaenomen sondern nur als Schwankungen der „Messwerte“ anzusehen.

Diese beiden bereits behandelten Verhaeltnisse sind in diesem Diagramm nochmals zum Vergleich in blassschwarz und blassblau eingetragen, zusammen mit dem was ich oben „verspreche“ (on kraeftigem rot):

Das ist eigentlich vøllig langweilig. Wie nach vorherigen Untersuchungen zu erwarten war, geht die Kurve sehr schnell dem Grenzwert 1 entgegen. Von allen Verhaeltnisses ist bei der die Linkfrequenz im Nenner steht am kleinsten. Auch dies kann wieder durch dadurch erklaert werden, dass die Linkfrequenz im wesentlichen die „gedeckelte“ Anzahl der totalen Links ist, ein Umstand auf den ich bei den erwaehnten vorherigen Untersuchungen genauer eingegangen bin. Dies fuehrt dazu, dass der Wert des Nenners fuer diesen Fall, „naeher“ an den Wert des Zaehlers kommt.
Ach ja, die „Multiplikationswerte“ im Diagramm bedeuten, dass man fuer die gegebene Kurve den an der Ordinate abgelesenen Wert damit multiplizieren muss, um auf den wirklichen Wert fuer das jeweilige Verhaeltnis zu erhalten.

Einzig von Interesse ist, dass das Maxium der roten Kurve bei LL4 liegt, waehrend die anderen beiden Kurven den grøszten Wert erst bei LL5 erreichen (das Gezappel des Verhaeltnisses der neuen Links um den Wert 15 (x5) interpretiere ich als „Plateau das den Høchstwert annimmt“). Die Erklaerung dafuer ist einleuchtend und folgt aus der schrittweisen Entwicklung der Grøszen innerhalb des (gesamten) Linknetzwerkes.

Die Erklaerung ist leider eher weniger spannend und sehr kleinteilig. Aber das ist ja nix Neues und trifft auf etliche Beitraege in dieser Maxiserie zu.
Weil hier viele Erkentnisse zusammen kommen und gleichzeitig bedacht werden muessen, mache ich mich da deswegen beim naechsten Mal trotzdem dran.

Er war und ist mein Lieblingsheld unter all den Superhelden des DC Universums. Auch hier trugen wieder verschiedene Personen diesen Superheldennamen aber mein Flash war Wally West.

Wally ist ein nur wenige Jahre bevor es Comics endlich mal ordentlich auch in Dtschl. gab in die Flitzefuszpuren von Barry Allen getreten. Letzterer ist einen bedeutsamen Heldentod gestorben … leider waren auch hier wieder die „Fans“ damit uneinig und Barry Allen tauchte, so wie Hal Jordan, immer wieder auf und wurde in den 00-Jahren endgueltig zurueck gebracht. Ich fand das schade, denn so wie bei Green Lantern sind die Menschen hinter dem Helden doch sehr verschieden und ich konnte mich eher mit Barry identifizieren.

Leider dauerte der „Aufenthalt“ des Flash in Dtschl. nur ein paar Ausgaben, dann konsolidierte sich der Comicmarkt neu und der Flash war nicht mehr dabei.

Andererseits, zu dem Zeitpunkt war es mglw. nicht mehr ganz so sehr „leider“ fuer mich persønlich, denn mein Leben hatte zu dem Zeitpunkt eine bedeutende Wendung genommen … aber das ist eine Geschichte fuer einen zukuenftigen Beitrag.

War ja klar, dass da noch was kommt. Ich bin ja nie fertig mit einer Miniserie nach dem letzten Eintrag.

Aber ich stolperte neulich ueber den Artikel „Alcohol use and burden for 195 countries and territories, 1990–2016: a systematic analysis for the Global Burden of Disease Study 2016“ in The Lancet 392 (10152), 2018, pp. 1015–1035 zu dem mehr als 500 Personen beigetragen haben. Letztere befinden sich „hinter“ dem Kuerzel „GBD 2016 Alcohol Collaborators“.

Der ist an sich sehr interessant, packt den Finger aber eigentlich „nur“ auf Dinge die schon laenger bekannt sind.
Aber das ist bitte nicht falsch zu verstehen, denn das ist super wichtig weil besagte Dinge oft ueber viele Artikel verstreut und allein fuer sich mitunter nicht all zu aussagekraeftig sind. In der im Titel zuerst genannten Miniserie ging ich ein bisschen darauf ein.
Diesbezueglich ist auch der bereits mehrfach (wenn auch indirekt) erwaehnte „Smoking and Health: Report of the Advisory Committee to the Surgeon General of the United States“ nochmals zu nennen. Wie schlecht Rauchen ist war schon vor 1964 hinreichend bekannt. Dieses Wissen unterlag aber obigen Limitierungen und kam damit nicht gegen die Propaganda der Tabakindustrie an. Besagter Report war der Anfang vom Ende des ueberall-Rauchens-und-das-toll-finden.

Wieauchimmer, relevant bzgl. der beiden im Titel genannten Miniserien sind eigentlich nur zwei der acht Diagramme in Abbildung 4 … naemlich die Krebs-relatierten.
Die einzelnen Datenpunkte zappeln natuerlich. In den angepassten Daten (vulgo: man hat mathematische Werkzeuge auf die Daten geworfen) sieht man aber deutlich, dass selbst der (regelmaeszige) Genuss geringer Mengen Alkohol mit einem erhøhten Risiko fuer (die dort aufgetragenen Arten von) Krebs hat.

Wenn man auf die selbe Abbildung aber andere Diagramme schaut, kønnte man auf die Idee kommen, sich mit sowas wie „aber ein bisschen Alkohol verringert die Chancen bzgl. koronarer Herzkrankheit“ oder so rauszureden. Aber das hatte ich ja zum Glueck bereits an anderer Stelle diskutiert.

Mehr gibt’s dazu nicht zu sagen. Ich erwaehnte bereits frueher, dass diese zwei Sachen zusammengehøren. Ich fand’s aber prima, dass das wer in einer exzellent praesentierten und wissenschaftlich relevanten Form diskutiert hat und wollte darauf hinweisen.

Das kommt nicht ganz ueberraschend, denn die Notation in der Musik ist sehr komplex (fuer jemanden wie mich der davon keine Ahnung hat) und beinhaltet schon von sich aus Schleifen.

Und mit Choon (das ist so obskur, es gibt nicht mal ’ne Wikipediaseite dazu) gibt es auch eine Programmiersprache die besagte Notation benutzt um damit Programme zu schreiben.
Es gibt zwar keinen Speicher, aber der Output sind Noten und jede schon gespielte Note kann wiederholt werden. Die „Wetware“ vor der Tastatur muss sich dann halt merken was schon gespielt wurde.

Da stellt sich dann natuerlich die Frage ob eine Programmiererin dann legitim als Komponistin bezeichnet werden darf … *gruebel*.