Archive for März, 2024

Ich esse Blumenkohl sehr gerne. Aber die mglw. grøszte Freude bereitet es mir, beim Schnippeln die rohen Stueckchen zu futtern.
Vor ein paar Jahren ging ich gar so weit, dass ich mir einen ganzen Kopf kaufte um den als Snack zu verspeisen. … Ich gebe zu, das war zu viel des Guten. Zum Glueck habe ich mich nicht derart ueberfressen wie an Bananen kurz nach der Wende, denen ich seitdem eher abgeneigt bin … naja … alle paar Jahre esse ich mal eine … aber das waere sehr schade, wenn mir das mit Blumenkohl passiert waere.

Brokkoli esse ich mittlerweile auch ganz gerne (bevorzuge aber Blumenkohl). Dem war aber nicht immer so, denn Brokkoli gab’s in dem Haushalt in dem ich aufwuchs nicht … bzw. so selten, dass ich mich nicht dran erinnere. Wenn mir dieses Gemuese dann ab dem Studium ueber den Weg lief, hab ich’s immer gemieden, denn man kann den Jungen zwar aus dem Dorf treiben, aber das Dorf nicht aus dem Jungen … bzw. was der Bauer nicht kennt, frisst er nicht.
Es dauerte noch ein paar Jahre laenger, bevor ich mehr oder weniger gezwungen wurde Stockholm Syndrom bzgl. Brokkoli zu entwickeln … wobei das natuerlich auch ohne Zwang recht lecker ist … was aber natuerlich jemand mit Stockholm Syndrom auch sagen wuerde.

Das letzte Blumenkohlding das mir bekannt ist, ist Romanesco. Mit der fraktalen Anordnung der Knospen sieht’s definitiv am schicksten aus … sozusagen piekfein … tihihi … Wortspielkasse … wg. spitz = pieksen … okok, ich gebe zu, dass ist etwas weit hergeholt. Mich duenkt, ich habe das nur ein oder zwei Mal (oder so ungefaehr und definitiv nicht deutlich øfter) gegessen. Das liegt daran, weil ich Gerichte wo das „dazu gehørt“ nicht in meinem Repertoir habe und wenn ich traditionell eher ’n Blumenkohl fuer den gleichen Zweck (als Gemuesebeilage) nehmen kann, dann wird’s der Blumenkohl … weil ich schon beim Einkaufauf das schnabulieren waehrend des Schnippelns freue.
Auszerdem liegt Romanesco auch im „Spezialgemuese(kuehl)regal“ im Supermarkt und da geh ich nur sehr selten hin … man sieht, da beiszt sich die Katze in den Schwanz.

Ich erzaehle das alles, denn ich finde es interessant, dass diese Gemuese alle von der selben Art sind — Brassica Oleracea. Die Pflanzen kønnen also „Kinder“ miteinander haben die NICHT unfruchtbar sind (also anders als bei Nachkommen von Pferd und Esel, die ja beide unterschiedlichen Arten angehøren)  … da frag ich mich doch, was ein Blumescoli ist … tihihi.
Fuer mich als Mensch, dem eine gewisse Ess(en)kultur anerzogen, wurde sind diese drei Kultivare aber so unterschiedlich, dass ich deutlich unterschiedliche Esserlebnisse mit diesen verbinde.

Beim naechstem Mal wird’s bleibt’s lecker, wird aber zum Teil etwas „verrueckt“.

Im Diagramm vom letzten Mal finden sich viele Partikelereignisse, die ueber die Nullinie hinaus gehen. Um euch, meine lieben Leserinnen und Leser nicht all zu lange warten zu lassen, geht’s heute sofort um die offensichtlichsten Ererignisse. Hier ist gleich das Erste im Detail:

In den Partikelkurven zeichnen sich solche Ereignisse durch die sprunghaft ansteigende Partikeldichte aus, welche dann ueber viele Stunden exponentiell abfaellt. Der sprunghafte Anstieg geschieht innerhalb von ca. fuenf bis zehn Minuten. Die rote rote Kurve ist „kleiner“, aber davon abgesehen im Wesentlichen nicht „andersgeartet“ als die schwarze Kurve. Ich stelle das so heraus, weil das ein Unterscheidungsmerkmal zu einem anderen Ereignis wird.
Weiterhin finden diese Ereignisse immer nur Abends oder in der Nacht statt und sind begleitet durch einen (ebenso) sprunghaften Anstieg der Temperatur.
Letzteres ist hier ueberlagert durch das „Lueftungsereigniss“ (ausgezeichnet durch die abrupte Spitze nach unten, wie beim letzten Mal erklaert). Der Anstieg ist nicht riesig und man muss das vom Wert vor’m Lueften betrachten. Auf das Lueften komme ich gleich nochmal zurueck.

Weil der Sensor auf dem Kuechentisch lag, liegt eine Erklaerung fuer diese Ereignisse nahe (und der Titel dieses Beitrags hat’s eigtl. schon verraten): da hab ich wohl was in der Pfanne gebraten. Von der Zeit haut das hin (auch wenn das manchmal sehr viel spaeter als halb sieben stattfindet) und das erklaert auch den Sprung in der Temperatur, denn Ofen und Herd sind heisz.
Nun ist das erste derartige Ereignis etwas Besonderes, ist es doch ein „Paradebeispiel“. Das lag nicht zuletzt daran, dass ich VOR dem Kochen lueftete … eben weil ich sehen wollte, wie stark die Luft in der Wohnung durch’s kochen verschmutzt wird.

Meistens luefte ich jedoch NACH dem Kochen, was den Temperatureinbruch entsprechend verschiebt (hier nochmal ganz kurz nach Mitternacht) … und manchmal gar nicht (wenn nicht so viel Rauch entsteht).

„Richtig“ kochen tue ich nur jeden zweiten Tag (zumindest, wenn der junge Mann nicht bei mir ist). Die Tage dazwischen waerme ich die Reste vom Tag zuvor auf. Das hat (zum Teil gewaltig) geringere Partikelbildung zur Folge, insbesondere bei Teilchen kleiner als 2.5 µm (das meine ich mit „andersgeartet“ weiter oben). Aber die Temperatur steigt in der Kueche natuerlich dennoch an … auch wenn das oft nicht ganz so eindeutig zu erkennen ist. Beides ist hier natuerlich nicht zu sehen, weil der 28. Oktober 2020 ein „richtiger“ Kochtag war.

Mit diesem Wissen kann man das Kochen (K) und Aufwaermen (A) im Diagramm vom letzten Mal kennzeichnen:

Man sieht, dass nicht alles Kochen mit gewaltigen Rauchmengen verbunden ist … aber der Temperaturanstieg (und die ungefaehre Zeit) verraten solche Ereignisse. Das Aufwaermen ist schwerer zu identifizieren, geschieht aber im Wesentlichen auch durch die Kombination aus erhøhtem Partikelsignal, Temperatur und Uhrzeit (i.A. etwas spaeter als „richtiges“ kochen).
Und ja am 01. November 2020 hab ich erst ’ne Stunde vor Mitternacht mit dem Essen machen angefangen … manchmal wird’s nicht nur etwas spaeter (wie man an ein paar Tagen sieht), sondern viel spaeter.

Zwei deutliche Ereignisse habe ich mit Fragezeichen versehen. Auf den ersten Blick sehen die wie eben besprochen aus … aber … oh … ich eile voraus … das decke ich beim naechsten Mal auf.

Mit dem vorigen Beitrag møchte ich die „formalen“ Betrachtungen in der Kevin Bacon Maxiserie nach (heute auf den Tag genau) zwei Jahren und elf Monaten abschlieszen. Aber keine Sorge, die drei Jahre kriege ich sicherlich noch voll, denn zwei zu Kevin Bacon gehørende Sachen habe ich noch. Die kommen aber in den „Anhang“, denn bzgl. des Wikipedialinknetzwerkes werde ich nix Neues anfangen.

Zum Einen bin ich vor kurzem auf eine Datenquelle gestoszen, in der fuer jede Seite die tatsaechlichen „so-oft-wurde-ich-angeschaut“-Zahlen zu finden sind. Damit kann ich schauen ob meine Vermutung, dass die Anzahl der (internen) Zitate die eine Seite erhaelt (wie oft diese also auf andenen Seiten verlinkt ist), mit der „Beliebtheit“ (oder auch „Wichtigkeit“) korreliert, stimmt.

Zum Anderen muss ich schauen, ob die Resultate i.A. reproduzierbar sind. Dafuer habe ich mir zum Einen die Wikipedia nochmal beschafft (das war schon im Dezember, also ziemlich genau drei Jahre spaeter). Auszerdem gehe ich gerade durch die vielen (Analyse)Programme welche ich im Zuge dieses Projektes schuf durch und schreibe die nochmal neu aber (hoffentlich) klarer, strukturierter und allgemeiner (oder spezifischer, falls gegeben) … also i.A: besser (hoffentlich). Ebenso verpasse ich den Programmen eine ausfuerhliche Dokumentation. Damit ich das dann auch mal der Welt zur Verfuegung stellen kann.
Beides zusammen genommen ist also eine gute Gelegenheit den neuen Code auf seine Richtigkeit und die vorherigen Ergebnisse auf ihre Reproduzierbarkeit zu ueberpruefen. Das werde ich dann aber i.A. nur noch kurz zeigen à la „Hier ist alt, hier ist neu, passt schon“.

Wieauchimmer, das ist Zukunftsmusik. Der heutige Beitrag soll die Serie „im Geiste“ abschlieszen mittels eines zusammenfassenden Rueckblicks.

Los ging alles mit einer fixen (und definitiv NICHT konkreten) Idee und ich dachte damals, dass das Ganze in sechs Beitraegen fertig wird … HAHA!
Die fuer die Realisierung der Idee nøtigen Rohdaten waren schnell gefunden und in den Beitragen III bis VII sortierte ich all den Kram raus, der fuer die Analyse irrelevant war. Am Ende blieben 5,798,312 Seiten zur Analyse uebrig und so schnell ging’s (mehr als) sechs Beitraege zu schreiben. Dabei hatte ich noch nicht mal angefangen mich damit zu beschaeftigen, womit ich mich urspruenglich beschaeftigen wollte. Auszerdem konnte hier zum ersten Mal ein Phaenomen beobachtet werden, welches im weiteren Verlauf der Maxiserie mit schøner Regelmaeszigkeit auftauchte: eine weitere Unterteilung der „Kapitel“, wenn ein Thema zu viel wurde fuer einen einzigen Beitrag.

Aber dann ging’s endlich richtig los … ich „sprang“ in die Daten um zu schauen, was die mir so erzaehlen … und wurde sofort abgelenkt vom urspruenglichen Ziel, denn ich schaute mir zunaechst an, was man machen kann ohne dass man das Linknetzwerk aller Seiten „abschreitet“.

Die Analyse der Laenge der Titel fand zwar alles unter dem selben rømischen Numeral statt, umfasste aber sechs Beitraege … und brachte mir sogar eine „Superabschweifung“ in Form eines Geburtstagsbeitrags ein :) .

Bei der Analyse wie oft eine Seite (intern) von anderen Seiten zitiert machte mich sofort auf zwei Phaenomene aufmerksam, welche im weiteren Verlauf der Maxiserie immer wieder zur Erklaerung anderer Phaenomene herangezogen wurden. Zum Einen, dass ein paar wenige Seiten urst krass viel øfter zitiert werden als die „durchschnittliche Seite“. Zum Anderen, dass es Seiten gibt die kuenstlich aufgeblaeht sind, einfach weil jemand bspw. zu allen „Dørfern“ eines Landes eine Wikipediaseite mit zwei Saetzen erstellt hat, welche dann immer das lokale Wort fuer „Dorf“ verlinken. Die Wichtigkeit dieser Beobachtungen war mir zu dem Zeitpunkt aber natuerlich noch nicht bewusst.
Desweiteren traten bereits hier doppelllogarithmischer Diagramme und (ein) maechtige(s) Gesetz(e) auf … deren Bedeutsamkeit sich durch die ganze Serie zog und nicht unterschaetzt werden darf!
Unter rømisch zehn tat ich das Gleiche fuer die Anzahl der Links und sehr aehnliche Resultate.

Was mich auf die Idee brachte dies „zusammen zu ziehen“ und die „Relevanzdiskussion“ mal mit Zahlen anzugehen weisz ich nicht mehr. Dabei traten aber zwei Dinge zutage, welche sich ebenso mehr als ein Mal bemerkbar machen sollten.
Zum Einen, dass die Analyse und das Verstaendniss der Daten oft relativ grosze Abstraktionsgrade erfordert. Der Sprung von der Anzahl der Zitate einer Seite zum (lueckenlosen) „Relevanzwert“ einer Seite war da noch recht einfach … was mglw. fuer die kurz darauf folgende „komprimierte Relevanz“ nicht mehr gesagt werden kann.
Zum Anderen, dass es Anomalien in den Daten gibt, die gesonderte, detaillierte Betrachtungen erfordern um sie erklaeren zu kønnen. Zum Glueck bin ich so „gestrickt“, dass mir sowas keine Ruhe laeszt und derartige, oft (eigtl. immer) zeitaufwaendige „Abschweifungen“ von der Masse der Daten hin zu „Minoritaeten“, sollte mir im Weiteren Verlauf der Serie die besten Erlebnisse und Entdeckungen bescheren … wenn auch oftmals nach vielem Haareraufen.

Dann ging es aber endlich weiter … naja … nicht so richtig, denn das Linknetzwerk musste ja erstmal „abgeschritten“ werden, bevor ich mich der urspruenglichen Idee widmen konnte. Dafuer „mathematisierte“ ich von „Kapitel“ XII bis XV das Problem und der einzige „technische“ Artikel der ganzen Serie ist dem „Geniestreich“ gewidmet, der das „Abschreiten“ (und damit die Realisierung der Idee) ueberhaupt erst møglich machte.

Das wahrhaft technische habe ich euch, meinen lieben Leserinnen und Lesern, gar nicht „angetan“ und „versteckte“ es in nur einem einzigen Beitrag. Ich wollte aber wenigstens einen Beitrag haben bzgl. der tatsaechlichen Umsetzung des „Geniestreichs“ in funktionierenden Code, war es doch das, was mir in diesem langen Projekt die grøszte Zufriedenheit brachte. Ich musste naemlich so viele Sachen lernen, von denen ich vorher nicht die geringste Ahnung hatte um sehr spezifische, sehr technische Probleme zu løsen von denen ich vorher noch nicht mal wusste, dass es die gibt. Der Weg zum besagten, nicht nur funktionierenden, sondern auch praktikabel schnellen (!) Code war so befriedigend, dass ich ernsthaft ueberlegte, das Projekt an der Stelle zur Ruhe zu legen … dachte ich doch, dass das nicht getoppt werden kønnte … damit lag ich zwar richtig, aber zu dem Zeitpunkt konnte ich natuerlich noch nichts von den Entdeckungen (und weiteren, zu ueberkommenden Problemen) ahnen, welche mir fast genausoviele intellektuelle Orgasmen bescheren sollten :) .

Ach ja, an der Stelle sollte ich nochmal erwaehnen, dass erst dieser Code die praktische Durchfuehrbarkeit des Projektes ermøglichte. Der „Geniestreich“ machte es prinzipiell møglich, aber erste Implementierungen haetten ein halbes Jahrhundert gebraucht um zu Ergebnissen zu gelangen. Durch besagten Code konnte das auf ca. vier Monate Gesamtrechenzeit reduziert werden (und ca. 2 Monte tatsaechliche Rechenzeit, weil ich mehr als einen Laptop 24/7 damit beschaeftigt hielt).
Und ja, ich bin da bis heute maechtig stolz auf mich … meiner Meinung nach durchaus berechtigt denn bevor ich damit anfing dachte ich immer, dass ich gewisse erwartete Probleme nie im Leben løsen kønnte, weil ich dafuer nicht genug Kompetenz habe … und dann hab ich mir die Kompetenz zu eigen gemacht und das doch geschafft … toll wa :) .

Bevor es dann mit den Untersuchungen der Resultate des „Abschreitens“ des Linknetzwerks aller Wikipediaseiten los gehen konnte, stellte ich in Kapitel XVII die Grøszen vor, deren Entwicklung bei besagter Linknetzwerkanalyse ueberhaupt untersucht wurden. Am schwierigsten … oder eher abstraktesten war dabei die Grøsze, die ich „Linkfrequenz“ nannte. Spaeter stellte sich heraus, dass es sehr gut war, dass ich das mit untersuchte, denn war diese doch sehr sehr „fruchtbar“.

An dieser Stelle breche ich fuer heute ab und fuege dem (urspruenglichen) Titel ein „rømische I“ hinzu. Wie so oft gibt’s mehr zu erzaehlen als in einen Artikel passt … aber es war ja auch (bzw. ist immer noch) eine sehr langanhaltende Serie.

In den vorherigen Beitraegen habe ich untersucht, wie schnell man (im Durchschnitt) von den spezifischen Seiten einer Untergruppe zu irgendeiner (!) anderen Seite kommt … u.U.

Eine Sache die von Interesse ist kann ich leider nicht untersuchen: wie schnell kommt man von den spezifischen Seiten einer Untergruppe zu den spezifischen Seiten einer anderen Untergruppe … u.U. Ich wuerde bspw. vermuten, dass ich am schnellsten von Seiten mit vielen Links zu Seiten mit vielen Zitaten komme.
Die dafuer nøtige Information faellt bei der Netzwerkanalyse an. Die konnte aber leider nicht gespeichert werden, denn das wuerde ca. 100 TB erfordern. Ich hatte schon angefangen und das programmiert, denn ich hatte ein paar Ideen, wie man die Information verlustfrei (!) komprimieren kønnte … ich habe mir also meinen eigenen „Zip“-Algorithmus ueberlegt. Ich war maechtig stolz auf die Ideen die ich hatte, aber leider ist die Entropie in den entsprechenden Daten so grosz, dass ich das Datenvolumen auf maximal 1/3 reduzieren kønnte. Ungefaehr 30 TB sind immer noch zu viel. Dies insb. im Lichte dessen, dass erstens die Ergebnisse vermutlich nicht viel mehr Erkentnissgewinn zur Folge gehabt haetten, als das was ich mittels der neuen Links und der Linkfrequenz herausbekommen habe, ich zweitens nicht gewusst haette, was ich sonst noch mit den Daten machen soll, und dass ich drittens dann die gesamte (mehrmonatige) Netzwerkanalyse nochmal haette durchlaufen lassen muessen.

Anstatt dessen schau ich heute mal, wie ein „Nutzererlebniss“ aussieht, denn das ist ja doch anders als die abstrakten Betrachtungen vorher … naja … abstrakt bleibt es vermutlich, denn ich zeige immer noch Diagramme.

Da ich ein Nutzer der Wikipedia (meist mehrfach pro Tag) und ganz normal[Citation needed] bin, nehme ich meine eigene Erfahrung diesbezueglich als repraesentativ an.
Zunaechst ist dann zu sagen, dass ich praktisch gesehen die meistzitierten Seiten nie aufrufe. Klar, die laenderspezifischen Seiten sind sicherlich interessant fuer Millionen von Schulkindern pro Jahr, aber danach schauen die auch nie wieder drauf. Sicher, Japan schaute ich mir an im Zuge der Vorbereitung auf meine grosze Reise im Jahre 2023; aber Letztere war auszergewøhnlich und ich habe die Seite nie in einem anderen Zusammenhang besucht.
Desweiteren schaue ich mir nie die am wenigsten zitierten Seiten an … auszer im Rahmen dieses Projekts, da habe ich buchstaeblich tausende von denen gesehen. Aber ansonsten wuerde ich nie im Leben drauf kommen mich ueber Bacon in Ohio zu informieren.

Vielmehr schaue ich als Nutzer nach „normalen“ Seiten … hier ’ne Stadt … dort ’ne Person … und ab und zu mal ein Dingens (sehr weitgefasst). Beispielhaft dafuer nehme Kevin Bacon (wen auch sonst), das durch Monty Python beruehmt gewordene Trondheim, das Erzbistum Magdeburg und den guten alten Bleistift.

In diesem Diagramm zeige ich mittels der farbigen Baender nochmals die Bereiche der sechs Untergruppen und wie sich die vier Beispiele dazu verhalten:

Interessant! Ich haette nicht erwartet, dass Trondheim so beliebt ist.
Wieauchimmer, man sieht, dass die von mir als „normal“ empfundenen Seiten das zumindest teilweise mglw. gar nicht sind. Pencil und Kevin Bacon liegen bzgl. der Anzahl der Zitate von andere Seiten in der „mittelvielen“ Gruppe (die ich unterbewusst als „normal“ betrachte … hier sieht man aber einen der Gruende, warum ich fuer den Namen der Gruppen dieses Adjektiv nicht benutzen wollte). Man kønnte argumentieren, dass sie nahe genug an der gleichen Gruppe bzgl. der Anzahl der Links liegen, denn prinzipiell kønnte man da auch etwas (mehr) Spielraum einraeumen, wenn man die Grenzen fuer die Gruppen festlegt. Diese Argumentation kønnte man auch fuer Magdeburg vornehmen (auch bzgl. der Zitate), aber definitiv nicht fuer Trondheim. Letzteres liegt genau zwischen zwei Gruppen bzgl. beider Charakteristika.

Ganz schøn viele „kønnte“ in obigen Saetzen. Letztlich ist das aber nicht so wichtig. Fuer mich sind das „normale“ Seiten und ich wollte nur mal schauen wo die liegen. Von Interesse sind die kumulativen Anteile:

Bemerkung: mit „Zitate“ meine ich natuerlich die Linkfrequenz, aber das ist so viel zu schreiben und ich wollte es nicht abkuerzen … und das Diagramm war schon fertig … und so schlimm ist das nicht, denn Letztere kommt ja wegen Ersteren zustande.

OI! … alle vier Beispiele werden ungefaehr ein Linklevel „schneller“ von anderen Seiten gesehen (kumulativer Anteil Zitate, helle Kurven), als dass sie andere Seiten erreichen (kumulativer Anteil neue Links, nicht-helle Kurven) … *kurzer Blick auf das erste Diagramm* … das sollte mich eigtl. nicht verwundern, denn alle Beispiele haben (signifikant) mehr als Links als Zitate.

Wenn wir mal zur Analyse der Untergruppen zurueck schauen, so liegt der „50-Prozent-Uebergang“ der Beispiele bzgl. der Links an ca. der Stelle der Untergruppen mit den vielen Links / Zitaten. Das ist interessant, denn einige der obigen „das kønnte man auch dort und dort einordnen“ tendierten eher zur Untergruppe mit den „mittelvielen“ Links. Andererseits sprechen wir hier von vier Beispielen im Vergleich zu einer Gruppe mit ueber 2 Millionen Seiten.
Bzgl. des kumulativen Anteils der Linkfrequenz liegen die Beispiele zwischen den Untergruppen mit vielen bzw. mittelvielen Zitaten; Kevin Bacon und Pencil liegen naeher an Letzterer waehrend Trondheim und Magdeburg naeher an Ersterer liegen … was dem Erwartungsbild (nach dem ersten Diagramm) entspricht.

Alles in allem erwartete ich bei den vier Beispielen nix fundamental Unerwartetes und das ist dann auch eingetreten.

SO … nun aber … jetzt bin ich wirklich durch und beim naechsten Mal fang ich tatsaechlich (und endlich?) an „zusammen zu packen“.

Beim inflationsjustierten Wachstum der Gehaelter in Japan hab ich sie gefunden, die „verlorenen Dekaden“:

Ach du Kacke! … war da natuerlich meine erste Reaktion, denn das duempelt seit 1998 um ca. den Wert Null rum! Und die 5 Jahre vorher lag es im Schnitt auch nur bei ein bisschen ueber 1 %. Und in den 10 Jahren davor wurde gerade mal die Inflation ausgeglichen. Andererseits war das vermutlich nur eine Rueckkehr zum Normalzustand im Vergleich zum Jahrzehnt davor. Und dann hab ich keine Daten mehr.

Nun ist das aber nicht all zu verwunderlich, denn geringes Gehaltswachstum ist ein Kennzeichen einer Deflation und Japan hat seit Jahrzehnten Deflation. Desweiteren muss das prinzipiell auch nicht schlecht sein. Wenn die Lebenshaltungskosten gering und stabil sind, dann braucht man naechstes Jahr nicht mehr Geld als dieses Jahr … und bei ’ner Deflation steigen die Preise nicht (die kommt aber mit anderen Nachteilen).

Dennoch ist’s natuerlich eine gigantische Sauerei, wenn man den Zuwachs der Produktivitaet bedenkt. Aber so ist das ja eigtl. ueberall auf der Welt; die Arbeiter produzieren mehr, werden dafuer aber nicht proportional mehr entlohnt … ich sag da jetzt mal nicht mehr dazu … *seufz*

In dieser Analyse (PDF) wird das Phaenomen des langanhaltenden (nicht vorhandenen) Trends des Gehaltswachstums untersucht. Das ist recht informativ und der Autor geht auch auf etliche (durchaus plausible) Erklaerungsversuch ein. Aber Achtung! Das ist vom IMF … man muss also bei (fast) jeder Formulierung mitdenken um nicht deren Agenda all zu sehr auf den Leim zu gehen.

Wieauchimmer, letztlich zeigen die Daten, dass das auch hier wieder langanhaltende Trends sind und das was die (Vulgær)Økonomen mit „verlorene(n) Dekade(n)“ versuchen herbeizureden kann ich eigtl. auch hier nicht sehen.

Damit schliesze ich das Unterthema ab und komme beim naechsten Mal endlich wieder zur Japanreiseberichterstattung zurueck :) .

Nach den langen Erklaerungen vom vorletzten und letzten Mal kann ich heute die Betrachtungen bzgl. der Inter- und Intragruppenunterschiede der kumulativen Kurven der Untergruppen mit den vielen Links / Zitaten (UVL / UVZ) …

… tatsaechlich ziemlich kurz halten. Dafuer zeige ich sofort die Histogramme …

… und muesste vermutlich gar nicht viel weiter dazu sagen.

Die schwarze und graue Kurve liegen (beinahe) aufeinander, weil die allermeisten Seiten der UVL aehnlich viele Links haben wie ein signifikanter Anteil der Seiten der UVZ. Die schwarzen Balken gehen naemlich sehr schnell runter. Deswegen wuerde ich vermuten, dass die allermeisten Seiten der UVL eher 10 als bspw. 15 Links haben. Und 10 ist gar nicht so weit weg von den 5, 6 oder 7 Links, welche die meisten Seiten der UVZ haben. Auszerdem sieht man bei genauem Hinschauen ja auch, dass die schwarze kumulative Kurve ein klein bisschen høher liegt als die graue kumulative Kurve. So qualitiativ betrachtet passt das schon mit Hinblick auf dessen, was ich beim letzten Mal schrieb.

Die rote kumulative Kurve liegt nun unter der schwarzen kumulativen Kurve, weil im roten Histogramm betraechtliche Anteile (weit) links von 1000 Zitaten (dem høchsten Balken im schwarzen Histogramm … auch wenn dort die Links gezaehlt werden) liegen. Bzgl. der hellroten Kurve gilt umgekehrt (also høher und rechts) das Gleiche.

Und hier offenbart sich dann auch, warum der UVZ / UVL Intergruppenabstand der kumulativen Kurven berechnet aus der Linkfrequenz so grosz ist, dass ich diese Betrachtungen ueberhaupt erst anstellen musste. Die meisten Seiten der UVZ haben zehntausend Mal mehr Zitate als die meisten Seiten der UVL. Das Maximum des roten Histogramms liegt bei null, aber auch ein oder zwei Zitate sind nicht viel, verglichen mit den mindestens zehntausend Zitaten die alle Seiten der UVZ haben.

Toll wa! So schnell geht das bei guter Vorbereitung.

Wenn ich sage, dass Doom Turing-komplett ist, dann meine ich damit (oder vielmehr der Autor von dem ich das geklaut habe mich habe inspirieren lassen) dass man ein Doom-Level derart bauen kann, dass alles was passiert das gleiche Resultat zur Folge hat, wie logische Bauelemente.

In kurz, hat der Autor ein Level gebaut, in dem die Bewegung von (zur Vereinfachung erstmal nur zwei) Monstern stark eingeschraenkt ist. Im Wesentlichen kønnen die nur in einem Tunnel geradeaus laufen.
In einem Doom-Level kann man unsichtbare Linien installieren, die beim Uebertreten ein Ereigniss irgendwo anders ausløsen. Wenn die Monster von eben ueber so eine Linie treten, kann man die besagten Ereignisse so gestalten, dass eine Tuer die ein drittes Monster einsperrt geøffnet wird. Das waere dann ein OR-Gatter. Bei einem AND-Gatter muessen zwei Tueren geøffnet werden und bei einem NOT-Gatter muss eine Tuer geschlossen werden.
Dieses dritte Monster laeuft los (in die Richtung des Spielers) und ueberschreitet eine weitere Linie und diese løst dann das je nach Logikgatter richtige Resultat aus (in der Implementierung wird eine Saeule hoch oder runter gefahren).

Der Autor hat ein Video eines Halbaddierers als Machbarkeitsnachweis erstellt. … Geil wa!
Wie bei allen Beispielen hat die konkrete Implementierung Nachteile. Der grøszte liegt darin, dass aufgrund der Limitierungen von Doom an sich, allerhøchstens ca. 65-tausend von diesen Logikgattern in Doom selber implementiert werden kønnten … was aber wohl ausreichend waere fuer eine (SEHR) kleine CPU.

Mit diesem Leckerbissen schliesze ich die Miniserie ab. Es gibt natuerlich noch jede Menge andere Turing-komplette Systeme. Ich weisz aber keine mehr, bei denen das so dermaszen unerwartet ist, wie die vorgestellten Beispiele.

Weil ich beim letzten Mal alles so lang und breit erklaert habe, kann ich sofort und ohne viel Aufhebens (oder nochmalige Wiederholung) daran anknuepfen und zeige ohne Umschweife die kumulativen Kurven fuer die Untergruppen mit den mittelvielen Links / Zitaten (UWL / UWZ):

Rein qualitativ wuerde ich daraus die folgenden Dinge vermuten bzgl. der Histogramme. Weil die beiden schwarzfarbigen Kurven beinahe aufeinander liegen, sollten die Histogramme fuer die Links in den wesentlichen Eigenschaften gleich sein fuer beide Untergruppen. Die rote Kurve schmiegt sich anfangs sehr an die beiden zuvor genannten Kurven an. Deswegen wuerde ich vermuten, dass auch das entsprechende Histogramm der Zitate der UML den vorherigen beiden Histogrammen aehnlich ist.
Bzgl. der Verteilung der Zitate der UMZ wuerde ich denken, dass diese „rechtslastig“ ist, im Vergleich zu den anderen drei Verteilungen, weil die kumulative Kurve erhøht ist. Aber genug der vielen Worte hier sind die Histogramme:

Ich bleibe bei einer qualitativen Diskussion der Ergebnisse und auf den ersten Blick scheint alles so zu sein wie oben vermutet. Der jeweils høchste schwarze und graue Balken sind an der gleichen Stelle und das Histogramm entwickelt sich auch aehnlich.
Der høchste rote Balken liegt nur um einen „Eimer“ daneben und entwickelt sich auch aehnlich. Das wuerde mich nicht wundern, wenn ein so geringfuegiger Unterschied im Histogramm bei den kumulativen Kurven keinen groszen Unterschied hinterlaeszt. Ob eine Seite nun 10 oder 20 neue Links sieht … vom Bauchgefuehl haut das schon hin.
Die grøszte Schwierigkeit scheint darin zu liegen zu erklaeren, warum die hellrote kumulative Kurve sich nicht auch an die anderen Kurven anschmiegt. Die Histogramme sehr doch aehnlich aus, ja der høchste Balken ist an der selben Stelle. Ich denke, dass die Erklaerung darin zu suchen ist, dass es keine hellroten Balken links von 20 Zitaten gibt, waehrend alle anderen Histogramme dort doch betraechliche Anteile haben (was die kumulativen Kurven entsprechend „runter zieht“).

Nun schrieb ich im letzten Satz das Wort „scheinbar“ nicht umsonst, denn die eigentliche Schwierigkeit sieht man erst beim genaueren hinschauen: auch wenn das Maximum des schwarzen und des grauen Histogramms an der selben Stelle ist, so sind die grauen Balken rechts davon doch ungefaehr immer doppelt so hoch wie die schwarzen Balken. Wenn man da mal drueber nachdenkt, dann sollte das doch zu einer høheren kumulativen (grauen) Kurve fuehren, … tut es aber augenscheinlich nicht.
Das bereitete mir erhebliches Kopfzerbrechen und ich musste von einer qualitativen Betrachtung zumindest zu einer teilweisen quantitativen Betrachtung uebergehen um die Erklaerung fuer das NICHTvorhandensein von etwas Erwartetem zu finden  … aber der Reihe nach.

Zunaechst verweise ich auf die beiden Diagramme vom letzten Mal und zur vereinfachten Diskussion beschraenke mich auf die Daten fuer die neuen Links (das Folgende ist aber analog bzgl. allem was mit der Linkfrequenz zusammen haengt).
Die kumulativen Kurven gehen etwas, aber nicht weit auseinander. Die Kurven sind aber definitiv nicht (beinahe) deckungsgleich wie hier. Bei den entsprechenden Histogrammen sieht man, dass es sehr viele (und hohe) grauen Balken rechts vom Ende der schwarzen Balken gibt. Genauer gesagt haben ca. 75 % aller Seiten der UMZ mehr Links als die Seiten der UML. Das ist betraechtlich.
Fuer die kumulativen Kurven zaehlt aber letztlich nicht nur der Unterschied in der Anzahl der Seiten, sondern das Produkt aus der Anzahl der Seiten in jedem „Eimer“ mit der Anzahl der Links fuer die dieser „Eimer“ steht. Oder anders: jede Seite im høchsten grauen Balken (Anzahl Links = 10 bis 20)  ist doppelt bis viermal so viel „wert“ wie die Seiten im letzten schwarzen Balken (Anzahl Links = 5).

Worauf ich hinaus will ist der Fakt, dass die Histogramme doch schon DEUTLICH unterschiedlich sind, es aber dennoch nur zu einem relativ geringen Abstand in den kumulativen Kurven fuehrt. Damit kann ich zurueck zur obigen Schwierigkeit gehen.
Ca. 65 % der Seiten der UMZ sind in den (grauen) Balken rechts vom Maximum des Histogramms „einsortiert“. Fuer die Seiten der UML liegt der Wert bei ca. 45 %. Das ist ein Unterschied von gerade Mal 20 %. Klar, 20 % ist schon nicht mehr wenig. Andererseits kommt der Name des „ca.-10-Prozent-Fehlers“ nicht von irgendwo her; alles was nur so wenig von den Erwartungen abweicht ist schwer vom „Rauschen“ zu unterscheiden … und 20 % ist gerade mal doppelt so grosz. Auszerdem kann man in der grauen kumulativen Kurve ja auch eine kleine „Erhøhung“ erkennen … nur eben nicht so deutlich wie im entsprechenden Diagramm vom letzten Mal.

Ich brauchte Stunden (und musste eine Nacht drueber schlafen) um darauf zu kommen … wobei ich viel Zeit damit verbracht habe erstmal nochmal alles auszurechnen und das entsprechende Programm auf Fehler zu ueberpruefen, weil ich dachte, ich hatte irgendwo einen gemacht. Aber so ist das nun Mal, wenn man nach Wissen strebt und es bereitet mir trotz des vielen Haare raufens grosze Freude :) .
Wieauchimmer, ich nehme aus den hier sehr kurz gehaltenen Betrachtungen mit, dass die Unterschiede in den Verteilung ziemlich grosz sein muessen, um wenigsten moderate „Spuren“ in den kumulativen Kurven zu hinterlassen.
Das ist aber auch gut so, denn dadurch wird meine Aussage, dass ein Unterschied von einem Balken nicht so viel ausmacht, direkt (oder indirekt … ach ich will da jetzt nicht drueber nachdenken) bestaetigt.

Ebenso ist das auch nicht gegenteilig zu dem was ich oben bzgl. der jeweils hellroten Balken / Kurve schon sagte. Bei der schwarzen und grauen Kurve liegen jeweils ca. 20 % der Seiten links vom høchsten Balken, waehrend es ueberhaupt gar keine hellroten Balken dort gibt. Die rosa Kurve wird also in keinster Weise von solchen „kleinteiligen“ Anteilen „herunter gezogen“. Hinzu kommt, dass bei genauer Betrachtung die hellrote kumulative Kurve anfangs ja dann doch gar nicht all zu weit weg ist von bspw. der schwarzen kumulativen Kurve. Qualitiativ wuerde ich sagen haut das alles hin und mein Bauchgefuehl sagt mir, dass die obige Erklaerung bzgl. des Nichtvorhandenseins eines groszen Unterschieds zwischen der grauen und der schwarzen kumulativen Kurve nicht geaendert werden muss.

Uff, jetzt ist das doch so viel geworden … naja … dann muss die Erklaerung fuer die groszen Intragruppenunterschiede der UVL und UVZ (welche diese Betrachtungen ja ueberhaupt erst herbeifuehrten) noch bis zum naechsten Mal warten.

Man kennt das ja, ein Diagramm wird gezeigt und irgendwer dem das nicht in’n Kram passt (oder der’s nicht versteht sich aber (pseudo) intellektuell geben will) sagt dann sowas wie „nur weil es auf dem Land mehr Størche gibt und auf dem Land mehr Kinder geboren werden, heiszt das nicht, dass Størche die Kinder bringen“ … oder „die Dinosaurier konnten nicht lesen und jetzt sind sie ausgestorben, das bedeutet aber nicht, dass sie ausgestorben sind, weil sie nicht lesen konnten“ … oder „der Wind weht kraeftiger, wenn die Windturbinen sich schneller drehen, das bedeutet aber nicht, dass Windturbinen Wind produzieren“ … oder „je mehr Eis am Strand verkauft wird umso mehr Menschen ertrinken, das bedeutet aber nicht, dass Eis dafuer verantwortlich ist, dass Leute ertrinken“ … usw. usf.

Und bei diesen Beispielen gebe ich den erwaehnten Personen sogar Recht … es sind aber alles reichlich bekloppte (wenn auch sehr illustrative, den Punkt der Kritik klar machende) Beispiele die mir in die Haende spielen bzgl. dessen, was ich mit diesem Beitrag ausdruecken will.

Zunaechst sollte ich sagen, dass es richtig und voll gut ist, dass Leute sich bewusst sind, dass man bei Diagrammen gut aufpassen muss. Leider werden (pseudo)wissenchafltiche Resultate oft genug derart verpackt, sodass sie authoritaer aussehen um damit Menschen ohne wissenschaftliche (Grund)Ausbildung (und oft genug auch solche mit; ich mag mich davon nicht ausnehmen) von bestimmten (meist falschen) Behauptungen zu ueberzeugen. Dagegen ist zurecht die Aussage cum hoc ergo propter hoc — Obacht! Scheinkausalitaet! — anzufuehren!

Was in den Faellen in denen die Kritik berechtigt ist fehlt, sind plausible (und ehrliche!) Modelle, die den behaupteten Zusammenhang erklaeren kønnten. In ernsthaften (und ehrlichen) wissenschaftlichen Publikationen wird so’n Quatsch aber gar nicht erst gezeigt, eben weil man kein plausibles Modell dafuer finden wuerde. Vielmehr werden Diagramme erst dann verøffentlicht, wenn andere, unabhaengige Variablen gefunden sind, die dann einen (modellabhaengigen) Kausalzusammenhang plausibel machen.
Das bedeutet NICHT, dass ein Modell welches die Daten plausibel erklaeren wuerde auch richtig ist. Und selbst wenn es das ist, so bedeutet das dennoch NICHT, dass ein einziges Diagramm ausreicht um die Richtigkeit zu beweisen. Aber ich will hier nicht abschweifen.

Worauf ich hinaus will ist, dass man, wenn man ein Diagramm sieht und ein Kausalzusammenhang behauptet wird, sehr oft erstmal davon ausgehen sollte, dass das so stimmt.
Es sei denn wenn man:
– ein besseres Modell hat, welches die Daten besser erklaeren wuerde (bspw. dass mehr Leute an heiszen Tagen Eis essen UND baden gehen, wenn aber mehr Leute baden gehen, dann ertrinken auch mehr Menschen),
– bessere Daten hat (bspw. Windmessungen in Gebieten ohne Windturbinen ODER ausgeschaltete Windturbinen bei all zu starkem Wind), oder
– ein Schwurbler die (zu kritisierende) Behauptung aufstellt … Schwurbler (Klimaspinner, Impfspinner, Scheisz-Nazis etc. pp.) benutzen aber leider oft genug richtige Daten, interpretieren die aber dann nur so, wie es denen in den Kram passt (haben also ein Modell, das nur in derem Weltbild richtig ist … was (schon wieder) eine gute Ueberleitung zu einer massiv Abschweifung waere).

Andererseits bin ich auch verwøhnt mit dem was ich aus der Physik kenne … ich hoffe aber, dass die Wissenschaftler bspw. in der Psychologie oder der Soziologie einem aehnlichen, wissenschaftlichen Ethos unterliegen … bzw. weisz ich, dass der Mechanismus der wissenschaftlichen Selbstkorrektur ueber laengere Zeitraeume ganz gut funktioniert (und davon ist die Physik (trotz i.A. guter Daten und Modelle) nicht ausgenommen).

… … …

Jetzt aergert’s mich, dass ich hier mehr bzgl. dessen schreibe was ich eigtl. kritisiere. Das liegt natuerlich daran, weil heutzutage so urst viel Quark behauptet wird und man bei Daten und Diagrammen aufpassen muss.
Deswegen schliesze ich so ab: die Person von ganz oben hat einen durchaus berechtigten Punkt; aber dieser muss natuerlich ebenso mit einer Begruendung (bspw. ein besseres Modell) untermauert werden, bevor der Warnung gefolgt und das urspruengliche Ergebniss verworfen wird.

In meiner Japanreiseberichterstattung schwoff ich in den letzten Beitraegen etwas ab, weil ich die Fetzigkeit des Landes nicht mit der oft gelesenen Aussage von Økonemen bzgl. Japans sogenannte(n) „verlorene(n) Dekade(n)“ in Einklang bringen konnte. Bisher konnte ich diesbezueglich eigtl. ganz gut zeigen, dass diese Aussage ziemlicher Quark ist, wenn man mal das Gesamtbild anschaut (und nicht nur, den Teilaspekt, wie reiche Leute noch schneller noch reicher werden kønnen).
Zwei Beitraege møchte ich noch bei dem Thema verweilen (bevor ich endlich wieder zur Reiseberichterstattung an sich zurueck kehren werde) und heute geht’s um die Produktivitaet; oder in lang (und all zu vereinfacht): dem Verhaeltniss der Menge aller produzierten Gueter zur Menge der dafuer benøtigten Arbeit

Diese Grøsze wird von Økonomen als super wichtig betrachtet … und von dem Wenigen das ich diesbezueglich weisz, gehe ich da (ausnahmsweise) mit. Mit dem Wissen wuerde ich bei der Phrase „verlorene(n) Dekade(n)“ denken, dass die Produktivitaet Japans in der Zeit nicht oder nur sehr schwach gewachsen, ja mglw. sogar schlechter geworden ist. Leider habe ich Daten dafuer erst ab Anfang den 90’er Jahren. Ich kann das also nicht mit dem Zustand davor vergleichen. Aber das deckt auf jeden Fall den in Frage kommenden Zeitraum ab und so sieht die Entwicklung dieser Grøsze aus („gemessen“ im Vergleich zum Oktober 2023):

Mhmmm … also mit Augen zudruecken (damit ich den kleinen Buckel nicht sehe) wuerde ich vielleicht sagen, dass die Produktivitaet Anfang der 90’er Jahre flach verlaeuft. Das waere interessant gewesen zu sehen, wie das vorher aussieht. Aber ab 1994 setzte dann ein (ueber) zehn Jahre anhaltendes Wachstum ein … was ja øhm … æhm … *Papierraschel* … mittendrin in den „verlorene(n) Dekade(n)“ liegt.

Der starke Einbruch folgt den Geschehnissen der Finanzkrise 2007-2008, aber die Produktivitaet erholt sich dann schnell bis 2009 wieder auf (beinahe) „Vorkrisenniveau“ um seitdem (relativ) stabil zu bleiben. Letzteres ist im vorherschenden Wirtschaftsparadigma des ewigen Wachstums tatsaechlich beunruhigend, denn da passiert im Wesentlichen nix nun schon seit 1 1/2 Dekaden. Andererseits ist das ja ohnehin eine offene Frage, ob das anhaltende Wachstum immer so weiter gehen muss … es ist definitiv KEINE offene Frage, ob das immer so weiter gehen kann, denn die Antwort darauf ist definitiv ein klares NEIN! … Es sei denn es kommt wieder eine coole, in massiver Breite anwendbare Technologie von dir wir heute noch gar nix ahnen (wie der elektrische Strom vor ueber 100 Jahren, oder (mit signifikant minderer „Staerke“) der (Personal)Computer vor noch nicht ganz 50 Jahren).

Aber ich schweife ab. Die flache Kurve seit der Finanzkrise wuerde irgendwie in die „erweiterte“ Phrase der „verlorenen Dekaden“ (Plural) fallen. Das wuerde allerdings weiterhin voraussetzen, dass das schon vorher nicht so lief wie es „sollte“. Die Daten zeigen aber wiederum, dass dem nicht nur nicht so war, sondern dass es sogar innerhalb des vorherschenden Wirtschaftsparadigmas echt knorke lief in Japan.
Bei der Produktivitaet sehe ich (aufgrund des Datenmangels) keine seit langem anhaltenden Trends. Aber die Trends die ich sehe sind mitnichten kurzfristig und sprechen auch hier wieder weitestgehend gegen das Gebrabbel der Økonomen.

So, damit kann das auch „eingetuetet“ werden.