Archive for Juli, 2022

Trondheim hat im Winter richtig schlechte Luft. Das mag man gar nicht so glauben bei der Naehe zur Natur und zum Fjord.

Andererseits finden die Leute Holzøfen voll toll. Ist doch so gemuetlich und wenn man das Holz kauft wenn’s billig ist, dann kann es sogar die Stromkosten senken. Auszerdem ist’s klimaneutral! … Stimmt ja alles, aber der Rauch von zehntausenden Privathaushalten wird ja doch in die Umwelt geblasen.

Hinzu kommt, dass die Leute hier alle Auto fahren „muessen“ … der Kindergarten liegt doch so weit weg, oder die Arbeit, oder weil man am Ende des Tages doch schnell noch einkaufen fahren muss, oder weil Schnee und Eis das Vorankommen mittels anderer Verkehrsmittel so schwer machen … oder weil man ja irgendwie das Holz fuer den Ofen transportieren muss … *mit den Augen roll* … aber OK, individuelle Gruende versteh ich schon … ehrlich … ist im gesellschaftlichen Kollektiv nur suboptimal *seufz*. Jedenfalls haben wir also noch mehr Zeug in der Luft von den Abgasen und leider leider leider sind Dieselautos hier beliebt.
Das Probelm løst sich aber nur zu ca. 1/4 durch Elektroautos, denn im Winter brauchen die Autos Stachel an den Reifen. Wirklich nuetzlich sind die in der Stadt aber nur bei der Garageneinfahrt (etwas uebertrieben gesagt) und kurz nachdem neuer Schnee gefallen ist. Die meisten Straszen sind aber meist ziemlich gut freigeraeumt. Das soll bitte nicht missverstanden werden. Schon aus Sicherheitsgruenden sind Stacheln an den Reifen wichtig! Wenn aber Stacheln an den Reifen sind, dann nutzt das die Strasze mehr ab (wenn kein Eis drauf liegt wie in der Garageneinfahrt) und dieser (Fein)Staub wird dann schøn aufgewirbelt und steht dann in der Luft, fuer die Menschen zum einatmen.

Auszerdem kann es im Winter (oder im fruehen Fruehling) relativ kalt und trocken sein. Dann ist kein Schnee(matsch) (oder Wasser) auf den Straszen, der den erwaehnten Staub bindet und die Leute heizen mit den Holzøfen, damit die Elektroheizung nicht so dolle arbeiten muss. Wobei die Trockenheit sich viel mehr bemerkbar macht als die Kaelte (auszer wenn’s richtig kalt ist). Da kann man die Luft manchmal „schneiden“ wenn die Leute alle von der Arbeit nach Hause fahren :(
Und dann weht oft auch kein Wind, der den Staub aus der Stadt tragen kønnte … *seufz* … Smogcity … *doppelseufz*

Aber vor mittlerweile ueber einer Dekade, zur Zeit meiner ersten Doktorarbeit, meinte mein „Betreuer“ (die Anfuehrungszeichen deswegen, weil da nicht viel Betreuung (ohne Anfuehrungszeichen) war), dass das frueher noch viel schlimmer war.

Gesetze zur Verbesserung der Luftqualitaet fuehrten bei Autos zum weitverbreiteten Einsatz von Katalysatoren und effektiveren Motoren … wer haette das gedacht, dass die Groszindustrie was tut, wenn man sich nicht auf „Selbstkontrolle“ verlaeszt, sondern externe Anreize (in Form von Buszgeldern) schafft.
Bei der Stadtplanung fuehrten die Gesetze zu mehr verkehrsberuhigten (und -freien) Zonen, Verboten Kohle direkt zu verfeuern und zumindest in Norwegen dem Gebot bessere Øfen (welche Holz besser, weil vollstaendiger, verbrennen) zu verbauen.

Das passierte natuerlich nicht alles auf einmal in den 80’ern. Entsprechende Gesetze gab es schon vorher, doch oft nur lokal begrenzt (bspw. in London bereits in den 50’er). Ebenso war das nach den 80’ern nicht vorbei, sondern geht im Wesentlichen auch heute noch vor sich.

An die wirklich schlechte Luft erinnere ich mich nicht. Das war vor meiner Zeit (und weil ich auf’m Dorf aufgewachsen bin). Aber die Gesellschaft hat’s leider auch vergessen, was man nicht zuletzt daran sieht, dass man bei der Feinstaubdebatte viel zu oft hørt, dass das doch alles nicht so schlimm sei … und das wurde bei den Zigaretten auch schon gesagt und wer Beispiele aus noch frueheren Zeiten møchte, dem lege ich Marx‘ Das Kapital ans Herz.

Aber eigentlich ist dieses Vergessen mal wieder ein Ausdruck fuer den groszen Fortschritt den wir diesbezueglich gemacht haben.

Das hier wird keine richtige Fehlerbetrachtung. Aber hier sagte ich, dass ich 0.1 % aller „Ereignisse“ als Ausreiszer ansehe und diese bei den beim letzten Mal durchgefuehrten Betrachtungen nicht beruecksichtige. Die 0.1 % wuerde bei ca. 6 Millionen Wikipediaseiten bedeuten, dass (høchstens) ca. 3-tausend Seiten jeweils am Anfang und Ende der Verteilung(en) pro Linklevel wegfallen wuerden.

Ich gab zu, dass ich den konkreten Wert von 0.1 % hauptsaechlich aus aesthetischen Gruenden waehlte, dass man das Wesentliche aber auch sieht, wenn man (viel) weniger „Ereignisse“ als Ausreiszer definiert, wenn man weisz, wonach man gucken muss. Und hier ist der „Beweis“ dafuer:

In blau ist hier wieder das Ergebniss vom letzten Mal dargestellt und die rote Kurve ist das Gleiche, aber wenn man „vorne und hinten“ nur jeweils ca. 30 Ausreiszer rausschmeiszt.
Wie erwaehnt, sieht man auch dann noch alles, was ich beim letzten Mal als Resultat meiner Betrachtungen erwaehnte. Nur eben nicht mehr ganz so schøn — das erste Plateau ist kein richtiges Plateau mehr, die eigentlichen Uebergaenge sind nicht ganz so eindeutig und alles „zappelt“ mehr. Aber die entscheidenden Merkmale sind definitv noch da.

Das zweite Plateau ist in beiden Faellen beinahe identisch ist. Das liegt daran, dass ich Ausreiszer lieber dringelassen habe, wenn die Anzahl der „wegzuschneidenden“ Elemente mitten in einen Zustand fiel. Ich erklaerte das im Detail im verlinkten Beitrag. Im Falle der 0.1 % Ausreiszer zeigt dieses Diaramm, dass da (fast) alle Daten dringeblieben sind.

Ich wollte das hier mal erwaehnt wissen.

Wie beim letzten Mal gesagt, heute nun endlich:

„Butter bei die Fische“.

Und nach den langen Vorreden die letzten Male, gehe ich heute gleich in die Vollen und zeige sofort das Ergebniss (ACHTUNG: bei den hier dargestellten Daten wurden die Ausresizer rausgeschmissen, so wie beim letzten Mal diskutiert):

Cool wa! … Aber was ist hier eigentlich dargestellt?
Nun ja, das steht an der Abzsisse dran: ich habe mal geschaut, wie sich der Anteil der tatsaechlich besetzten Zustaende in Bezug zur Anzahl aller møglichen (und plausiblen) Zustaenden entwickelt.

OK, das ist leicht zu verstehen … aber was passiert hier eigentlich? … Øhm, das zu erklaeren dauert etwas laenger.
In der „Gasphase“ ganz am Anfang sind alle møglichen Zustaende auch mit mindestens einem „Partikel“ / Wikipediaseite besetzt. Waehrend des „Aufheizens“ steigt die Anzahl der _møglichen_ Zustaende stark. Beim vorletzten Mal haben wir gesehen, dass die Anzahl der tatsaechlich besetzten Zustaende auch stark ansteigt. Ersteres geht schneller als Letzteres und deswegen wird der hier dargestellte Quotient (multipliziert mit 100 um den Anteil zu erhalten) entsprechend kleiner. Das Tal zwischen LL3 und LL7 liegt daran, dass ich nur ca. 6 Millionen „Partikel“ habe. Die Konsequenzen dieser Limitierung wurde auch bereits beim vorletzten mal besprochen.
Waehrend des „Abkuehlens“ nimmt die Anzahl der møglichen Zustaende ab und das System besetzt mehr und mehr dieser _møglichen_ Zustaende, die somit _tatsaechlich besetzte_ Zustaende werden. Irgendwann sind alle „Partikel“ „kondensiert“ und (im Wesentlichen) wird jeder møgliche Zustand ab LL13 auch (von mindestens einer Seite) besetzt. Das System ist komplett von der „gasførmigen“ in die „fluessige Phase“ uebergegangen und dieser Phasenuebergang fuehrt zu einem „Plateau“ in der blauen Kurve. Dies bleibt so bis ca. LL43/44. Dann passiert etwas Interessantes: Der Anteil der besetzten Zustaende faellt sprunghaft auf 60 %. Das ist das erwaehnte pløtzliche „Gefrieren“ — ein weiterer Phasenuebergang.

Das das Signal am Ende so „zappelt“ liegt daran, dass ich hier im Bereich unterhalb von 100 Zustaenden, ab ca. LL50 sogar unterhalb von 10 Zustaenden arbeite. Da fuehren dann bspw. zwei zusaetzliche besetzte Zustand zu einem deutlichen Unterschied im Signal. Aber trotz dieser unguenstigen Voraussetzungen erkennt man dennoch eindeutig, dass die „feste Phase“ ein zweites, unabhaengiges Plateau bildet.
Umgekehrt sind diese unguenstigen Voraussetzungen auch genau der Grund warum ich meinem Bauchgefuehl echte Daten folgen lassen wollte. Denn das Gefrieren in nur ganz wenige Zustaende haette ja auch eine Art optische Taeuschung sein kønnen. Durch die logarithmische Komprimierung sehe ich naemlich gar nicht, ob bei 10-tausend totalen Links nicht vielleicht auch nur 50 % aller møglichen Zustaende besetzt sind.

Und das ist sooo krass, dass man durch „richtige“ Betrachtung der Daten den Phasenuebergang von „fluessig“ zu „fest“ (und eigentlich auch von „gasførmig“ zu „fluessig“) so klar sieht.

Ich bin aber noch nicht fertig damit, doch bevor ich weitermache zunaechst ein kurzer Einschub: normalerweise mag ich diese Art der Darstellung in einem Liniendiagramm nicht. Ich bevorzuge Punktdiagramme, denn die Linien sind ueberfluessig, gar irrefuehrend. Die Daten sitzen an bestimmten Punkten und dazwischen gibt es nix. Manchmal benutze ich diese Art der Darstellung dennoch, weil es dem Auge des Betrachters eine Art „Stuetze“ gibt, die hilft dem Verlauf besser zu folgen. Ich erwaehne dies, weil Daten oft bescheuert praesentiert werden und so viel vom Informationsinhalt unter und deswegen oft verloren geht.
Heute habe ich diese Form nicht als Stuetze fuer das Auge gewaehlt. Der Verlauf ist hier (erstmal) nicht so subtil, dass das vonnøten waere. Aber im naechsten Diagramm gibt es (mehr oder weniger) subtile Unterschiede die man besser sieht, wenn man eine Linie (anstatt von Punkten) benutzt. Damit das konsistent bleibt auch im obigen Diagramm eine Linie.

Letzteres ist auch der Grund warum die obige Linie ausnahmswiese blau ist. Die Farben rot und schwarz habe ich beim vorletzten Mal benutzt. Dort habe ich auch versprochen, dass diese Daten nochmals (in leicht modifizierter Form) auftreten werden. Nun ja, hier sind sie nun (in leicht modifizierter Form):

Die rechte Ordinate ist fuer die schwarze und die rote Kurve(n). Diese Kurven entstanden, indem ich die Anzahl der tatsaechlich besetzten (schwarz) und totalen Zustaende (rot) durch die Anzahl der (noch nicht ausgeschiedenen) Seiten dividiert habe.

Die Gruende fuer den Verlauf der Kurve wurde bereits oben (und beim letzten Mal) besprochen. Wie zu erwarten ist der Wert der Amplitude des Maximums der schwarzen Kurve ungefaehr eins (etwas kleiner, weil ca. 15 % aller Zustaende mehrfach besetzt sind) und die Anzahl der møglichen Zustaende (rote Kurve) ist ungefaehr zehn mal grøszer.
Etwas Interessantes passiert bei ca. LL23/13: hier fallen beide Kurven zusammen. Auch das war zu erwarten, denn die blaue Kurve geht bei diesem Linklevel zum ersten Plateau ueber mit einem Wert von 100 %. Das Interessante ist also nicht unerwartet.
Aus den selben Gruenden ist die Separation der beiden Kurven bei ca. LL44/45 nicht unerwartet. Nun wird’s aber interessant.

Der Grund fuer den Unterschied zwischen der roten und der schwarzen Kurve im Maximum waehrend des „gasførmigen Phase“ war, dass es einfach zu viele Zustaende gibt und diese mit der begrenzten Anzahl an „Partikeln“ nicht besetzt werden kønnen. Das ist aber bei der „festen Phase“ mitnichten der Fall! Jeder møgliche Zustand kønnte dort mehrere hundertausend Mal besetzt werden. Es sollte also keine Separation geben! Dass es diese dennoch gibt, ist natuerlich ein weiterer Hinweis darauf, dass das System der Wikipediaseiten (oder mglw. das System der Linknetzwerke) tatsaechlich „physikalisch“ zwei sehr unterschiedliche Dinge bei hohen bzw. niedrigen Linkleveln ist.
Was genau diese zwei „Dinge“ sind kann ich nicht beantworten. Denn „fluessig“ und „fest“, wie in der physikalischen Bedeutung dieser zwei Wørter, sind die Seiten ja schlieszlich nicht. Und wie eben kurz in der Klammer im vorigen Satz erwaehnt, sind es mglw. auch gar nicht die Wikipediaseiten selber, sondern deren Linknetzwerk (was ja noch einen Schritt „aetherischer“ ist).

Aber genug fuer heute. Ich bin maechtig stolz darauf, dass ich zwei Phasenuebergaenge entdeckt habe. Oder vielmehr habe ich das intuitiv in den Daten erkannt und die eigentlich spannende Information dann aus selbigen herausgekitzelt.

Trotz des Gebrauchs aehnlicher Wørter im Titel, hat dieser Beitrag nix mit dem hier zu tun.

Neulich ist mir aufgefallen, dass ich vier unterschiedliche Wørter fuer Wurst (bzw. Wuerstchen) kenne. „Wurst“ an sich aus der dtsch. Sprache, „sausage“ aus der englischen Sprache (wobei ich vermute, dass es aus dem Franzøsischen uebernommen wurde), „pølse“ aus dem Norwegischen und Daenischen und in Schweden verwirrte mich zunaechst der Gebrauch des Wortes „korv“.
Ich konnte beim besten Willen keinen gemeinsamen Wortstamm entdecken. Nicht mal zwischen der norwegisch/daenischen und der schwedischen Variante. Also setzte ich mich mal hin und schaute nach wo diese Wørter herkommen.

Zunaechst war interessant, dass alle diese Wørter aus dem Mittelalter stammen. Oder naja … das was Leute wie ich uns unter „Mittelalter“ vorstellen. Das waren schlieszlich 1000 Jahre Geschichtsschreibung, in denen sehr viel passiert ist und die in unterschiedliche Phasen (keine davon „dunkel“!) eingeteilt werden kann.
Aber ich schweife ab, denn interessant fand ich das deswegen, weil die Methode Fleisch zur Haltbarmachung zu raeuchern und in Daerme zu packen, um dieses laengere Zeit aufzubewahren, ganz sicher deutlich aelter ist als das Mittelalter. Das ist dann auch als die Hypothese fuer diesen Beitrag anzusehen: die Wørter haben was mit der Herstellung oder Lagerung von „Saecken“ mit Fleisch drin zu tun.

Ich fange mal mit der „Wurst“ an.
Der Ursprung dieses Wortes ist nicht genau bekannt, aber dessen indo-germanische Wurzel gehørt in die Wortfamilie der Aktivitaeten des Drehens, Wendens und Rollens und den Produkten solcher Aktivitaeten.
Die Wurzel „uert“ scheint eine Verbindung zum lateinischen „vertere“ oder dem sanskrit „vrt“ zu haben. Beide Wørter bedeuten Drehen/Wenden. Wenn man bedenkt, wie der Inhalt der Wurst zusammengemixt wird, sehe ich dies als ersten Hinweis an, der die Hypothese unterstuetzt.

Nun zur englischen „sausage“.
Wie vermutet gelangte es in die englische Sprache via des Franzøsischen „saussiche“. Aber der Ursprung liegt im Lateinischem „salsica“ welches wiederum von „sallere“ abstammt … und das bedeutet „salzen“.
Ein weiterer Hinweis der obige Hypothese unterstuetzt, dass die Wørter was mit der Herstellung zu tun haben.
Dies ist uebrigens der gemeinsame Ursprung aller Wurstwørter in romanischen Sprachen. Als ein weiteres Beispiel gebe ich mal das portugisische „chouriça“ an.

Nun die norwegisch/daenische „pølse“.
Wie schon bei der „Wurst“ ist der Ursprung nicht ganz klar, aber es mag verwandt sein zum niederlaendischen „peul“. Letzteres ist die Erbsenschale und es hat die gleiche Wurzel „bule“ — Beule.
Die Verbindung liegt hier also nicht beim verdrehten und gesalzenem Inhalt sondern darin wie dieser gelagert wird: in laenglichen „Saecken“, so wie Erbsen.

Und zum Abschluss die schwedische „korv“.
Wiedereinmal ist der Ursprung nicht ganz klar … das scheint ein (weiteres) gemeinsames „Thema“ zu sein. Wieauchimmer, „korv“ ist aehnlich zum islaendischen „kurfr“– (ab)geschnittenes Stueck — und dem altenglischen „cyrf“ — „to carve“, schneiden.
Der folgende Schluss ist mglw. ein bisschen weit hergeholt, aber soweit ich weisz, sind Wuerste (mehr oder weniger) kontinuierlich, oder vielmehr in ziemlich laengen Daermen, und kuerzere Stuecke werden davon abgeschnitten. Dies sehe ich somit als den vierten Hinweis, der meine Hypothese vom Anfang bzgl. der Herkunft dieser vier verschiedenen Wørter unterstuetzt.

Innerhalb dieses informellen Rahmens sind weitere Untersuchungen nicht notwendig. Ich fand es interessant, dass trotz der gleichen Sache und trotz des gleichen Kulturkreises diese vier Wørter sprachlich-technisch tatsaechlich keinen gemeinsamen Ursprung haben. Die Verbindung wird erst durch die Semantik der Wørter hergestellt — was ja meine Hypothese war.

… muessen wir uns dessen anpassen. Bzgl. dieser Anpassung hørt man bisher eigentlich nur Sachen die in den Umkreis der Barrierefreiheit fallen. Das ist natuerlich ganz wichtig, allein schon deswegen, weil der Kørper mit zunehmenden Alter weniger kann.
Bisher habe ich aber nichts bzgl. der sozialen Aspekte gehørt was ueber „alte Menschen sind oft allein“ hinaus geht. Und genau darauf will ich hinaus (das alte Menschen oft allein sind), aber unter einem anderen Blickwinkel als dem, dass das traurig ist (was es natuerlich oft ist).

Zunaechst sei das Folgende gesagt: der Umstand dass immer mehr Menschen im Alter allein sind, ist eine ganz ganz ganz grosze zivilisatorische Errungenschaft! Zum Einen bedeuet dies, dass aeltere und alte Menschen nicht mehr von ihren Kindern abhaengig sind. Das ist deswegen so gut, weil dadurch (viel) mehr Menschen mehr Freiheit haben. Zum Anderen bedeutet es auch, dass Geist und Kørper fuer die Mehrzahl der Menschen im Alter noch gut genug funktioniert, sodass man bspw. noch allein einkaufen gehen und Essen kochen kann. Letzteres ist das auch wegen des oben Gesagten møglich, eben weil mehr und mehr gesellschaftliche Institutionen (bspw. der Supermarkt, das Theater, das Fliegen etc.) barrierefrei werden.

Aber dass alte Menschen mehr und besser allein leben kønnen heiszt auch, dass man sich ueber andere Dinge als (nur) Barrerefreiheit Gedanken machen. Dieses Bild …

… drueckt das was ich sagen will meiner Meinung nach sehr gut aus. Direkte Uebersetzung: Schlag dich nieder! … tihihihi

Hierbei handelt es sich um eine Art Klappstuhl im Supermarkt. Das hat ueberhaupt nix damit zu tun, dass man den Preis besser lesen kann oder alles ebenerdig ist. Es hat aber viel damit zu tun anzuerkennen, dass aelteren Menschen, auch wenn sie autonom sind, schneller die Puste ausgehen kann. Das kommt natuerlich auch anderen Menschen zu Gute; bspw. wenn einem jungen Mann mit niedrigem Blutdruck pløtzlich schwindelig wird.

Dieser Beitrag hier soll nur einen Gedanken umreiszen der mir kam, als ich das was im Bild zu sehen ist zum ersten Mal sah. Mir fehlen die richtigen Worte um dieses Themengebiet innerhalb eines uebergeordneten Rahmens erklaeren zu kønnen. Aber ich hoffe, dass ich zumindest teilweise klarmachen konnte, worauf ich hinaus will, denn es gibt sicherlich noch viel mehr als nur dass einem die Puste ausgeht, ohne dass dies unter den Schirm der Barrierefreiheit fallen wuerde.

Das ist uebrigens auch der Grund, warum ich der Meinung bin, dass die Robotisierung nicht schnell genug voran geht. Man nehme bspw. ein Mann in seinen 70’ern an, der seine Blumen umtopfe will. Er schafft es zum Baumarkt zu gehen und Blumenerde auszusuchen. Die Saecke sind aber zu schwer um diese ueber weite Strecken zu tragen. Nun kønnte man das fuer 20 Euro extra nach Hause liefern lassen. Man kønnte aber auch ein autonomes Kleinstfahrzeug (Laenge = Breite = Høhe = 50 cm) haben mit einer Belademøglichkeit fuer mittelschweres Zeug. Dieses Fahrzeug folgt dem alten Mann nach Hause, wo er die Saecke mit Blumenerde dann nur noch abladen muss. Danach faehrt (oder geht) das Kleinstfahrzeug automatisch zurueck fuer den naechsten Auftrag.

Das soll dazu reichen, wie gesagt, ich weisz das Ganze ja selber gar nicht so richtig in Worte zu fassen.

Die beim vorletzten Mal eingefuehrte Analogie, in der Wikipediaseiten angesehen werden wie Partikel eines idealen Gases, welche bei bestimmten „Temperaturen“ (Linklevel) bestimmte Zustaende (Anzahl der totalen Links) einnehmen kønnen, hilft mir beim naechsten Mal zwei Phasenuebergaenge dingfest zu machen.
Aber weil’s so wichtig ist, møchte ich heute darueber sprechen, dass ich die Daten die ich beim letzten Mal praesentiert habe, nicht einfach so nehmen kann, wie sie sind.  Der Grund ist (wie ich beim vorletzten Mal schrieb), dass ich […]

[…] die Zustaende zwischen dem kleinsten und dem grøszten besetzten Zustand einfach abzaehle und damit dann die Anzahl aller (plausiblen) Zustaende auf einem gegebenen Linklevel erhalte.

Es gibt aber in jeder Verteilung Zustaende die so weit weg sind vom Rest der Verteilung, dass die alles „kaputt“ machen. Oder anders: durch den Abstand eines einzigen Zustands vom Rest der Gruppe entstehen so viele leere plausible Zustaende, dass die aus der Anzahl aller plausiblen Zustaenden errechnten Ergebnisse nicht mehr sinnvoll sind.

Bei richtigen Messungen nennt man sowas „Ausreiszer“ und die dtsch. Wikipedia schreibt dazu:

[…] man [spricht] von einem Ausreißer, wenn ein Messwert […] allgemein nicht den Erwartungen entspricht.

Das ist korrekt, aber etwas zu spezifisch. Denn ich habe keine Erwartungen, oder vielmehr wiesz ich nicht, was ich erwarten soll. Denn trotz der Analogie sind die Wikipediaseiten eben doch kein ideales Gas, von dem ich erwarte, dass es sich auf bestimmte Art und Weise verhaelt. Entpsrechend habe ich keinen Erwartungswert um den rum ich eine gewisse Streuung der „Messwerte“ als normal ansehe und alles was auszerhalb des Bereiches faellt falsch sein muss.

Deswegen gefaellt mir (mal wieder) besser, was die englische Wikipedia schreibt:

[…] an outlier is a data point that differs significantly from other observations.

AHA! Das ist doch mal was. Mich duenkt, die dtsch. Wikipedia wollte das so sagen, aber die spezifischen Worte die gebraucht wurden druecken das nicht aus, wenn man mal naeher drueber nachdenkt.

Das hilft mir in diesem Fall zwar weiter, ist aber _zu_ diffus um irgendwas quantifizieren zu kønnen. Wo høren die validen Beobachtungen auf und wie signifikant ist signifikant? In der Praxis ist man da oft genug bei der Streuung um den Erwartungswert zurueck. Und das ist ja auch richtig so, denn das macht die Reproduzierbarkeit aus.

Es gibt ein paar mathematische Tests fuer Ausreiszer. Leider bauen diese wieder darauf auf, dass man etwas erwartet. Also entweder verteilt sich (wieder) alles um einen (oder mehrere) Erwartungswert(e) oder, dass bei „wilden“ Verteilungen (bspw. mit mehreren Maxima oder Verteilungen die sich aus mehreren Normalverteilungen zusammen setzen etc. pp.) die mathematische Beschreibung der besagten Verteilung bekannt ist.
Die Verteilungsfunktion der Zustaende der Wikipediaseiten ist mir nicht bekannt und veraendert sich im gegebenen Fall auch von Linklevel zu Linklevel. Und was sind die Erwartungswerte, wenn sich die Zustaende ueber mehrere Grøszenordnungen erstrecken?
Im Wesentliche stehe ich vor dem „Das-sieht-ma-doch“-Problem, was sich aber mathematisch nicht klar ausdruecken laeszt. Als Beispiel zur Illustration nehme man die Verteilung der Zustaende auf LL3:

Die paar Zustaende ganz links, zwischen Werten von 7 und ca. 120 totalen Links, sind eindeutig Ausreiszer … das sieht man doch. Aber was ist mit den Werten zwischen ca. 180 und 100 totalen Links? Die sehen ja aus, als ob die schon noch dicht genug an den anderen Observationen liegen. Andererseits ist das ’ne logarithmische Achse und das ist sicher OK die als Ausreiszer zu definieren.
Mhmm … wenn ich das so sage, was ist denn dann mit den Zustanden zwischen 10-tausend und ich sag jetzt mal ca. 50-tausend totalen Links? Das Maximum der Verteilung liegt eindeutig bei ca. 10 Millionen totalen Links, das ist ganz schøn weit weg.
Und dann die Zustaende zum Ende der Verteilung! Aufgrund der logarithmischen Komprimierung sehen die zwar aus wie ganz dich am Rest, aber da gibt es bei lineraer Achse sicherlich deutlich grøszere Leerraeume als bei den ganz eindeutigen Ausreiszern ganz am Anfang. Sind Letztere dann vielleicht doch keine Ausreiszer?

Wie man sieht ist das alles nicht so einfach. In meiner zweiten Doktorarbeit habe ich mich damit professionell herumgeschlagen. Leider kann die dort entwickelte Methode der Detektierung (und Korrigierung) von Ausreiszern, wenn man nicht weisz was man erwarten soll, hier nicht angewendet werden.

Deswegen bin ich dann doch darauf zurueckgefallen, dass ich die jeweils ersten und letzten 0.05 % aller Zustaende einfach abschneide (insgesamt schlieszt das 0.1 % aller Zustaende aus).
Aber Achtung das sind Maximalwerte und in den meisten Faellen schliesze ich weniger Zustaende aus:

Der Grund ist, dass ich einen mehrfach besetzten Zustand nicht aufteile in „gut“ und „schlecht“. Alle Seiten („Partikel“) in diesem Zutand sind gleichwertig. Oder anders: sollte die Ausschlieszungsgrenze von 0.05 % in die Mitte eines mehrfach besetzten Zustandes fallen, dann werden vielmehr alle Seiten die in diesem Zustand sind als „gut“ gewertet und in den auszuwertenden Datensatz uebernommen.

Der Gebrauch des Wertes 0.1 % bedeutet, dass (bei ca. 6 Millionen Seiten) an beiden Enden im Extremfall ca. 3000 Zustaende ausgeschlossen werden.
Ich gebe zu, dass ich mich entschied 0.1 % als Kriterium bzgl. des Ausschlieszens von Ausreiszern zu nehmen, weil ich einen praktikablen Kompromiss finden musste, zwischen „aesthetischen Gruenden“ und dem Wunsch so viele Daten wie møglich hinzuzunehmen. Wobei Ersteres dominierte, weil ich bei diesem Wert die Phasen (deren Vorhandensein zwar vermutet wird, aber der Nachweis noch ausstand; bzw. in dieser Reihe noch aussteht) besser unterscheiden kann.
Man sieht aber alles bereits deutlich, wenn man nur 30 Zustaende an den Enden wegschneidet. Ja selbst wenn ich nur die 3 aeuszersten Werte ausschliesze, treten die entscheidenden Merkmale bereits sichtbar hervor. Und wenn man weisz wonach man sucht, sieht man es auch im kompletten Datensatz … aber das war ja das Problem, ich wusste zunaechst nicht so richtig wonach ich suche, wie sich das in den Daten ausdrueckt und wo das konkret ist … selbst wenn ich Vermutungen diezbezueglich hatte.

Trotz aller Rhe­to­rik bzgl. der Integritaet der Wissenschaft(ler) ist diese Herangehensweise insb. in den sog. „angewandten Wissenschaften“ sehr weit verbreitet. Daran ist erstmal nix auszusetzen, solange das ordentlich diskutiert wird und Ergebnisse nicht pløtzlich verschwinden, wenn man die Daten anders „aufbereitet“. Leider passiert Ersteres so weit ich weisz nie und Letzteres vermutlich (deutlich) øfter als uns lieb ist … *seufz*. … Und auch wenn ich oben explizit die sog. „angewandten Wissenschaften“ erwaehne, ist das im Groszen und Ganzen in allen (Teil)Gebieten der Wissenschaft so … mit ein paar Ausnahmen, wie bspw. die Hochenergiephysik oder (heutzutage) einige (viele?) groszangelegte klinische Studien, die mehr und øfter vorregistriert werden … wobei das auch nicht immer hilft, am Ende doch noch was „schick zu machen“, damit das imponierender bei der Publizierung aussieht.

Das soll genug sein fuer heute, beim naechsten Mal gibt’s dann endlich „Butter bei die Fische“.

Leider finde ich den Originalartikel nicht mehr, denn konkret war es in einem anderen Zusammenhang, aber mein neuer Lieblingsweblog brachte mich dazu eine meiner Meinungen in einem anderen Licht zu sehen.

Es geht mir um diesen Beitrag, in dem ich darueber „schimpfte“, dass das Volk lieber einen Kønig wollte anstatt „selber zu denken“.

Nun ist es aber so, dass dieses Bibelzitat innerhalb der damals herrschenden Verhaeltnisse gesehen werden muss und dabei half mir mein neuer Lieblingsweblog. Dort lernte ich naemlich, dass die herrschenden Verhaeltnisse so aussahen, dass man im Grunde jederzeit von Banditen ueberfallen werden konnte. Der Zusammenschluss (relativ) vieler Menschen unter einem Kønig war nicht nur eine gesellschaftliche Innovation, sondern geradezu eine Revolution bzgl. des Zusammenlebens (relativ) vieler Menschen.

Herrscher gab es zwar auch schon frueher, da waren das dann bspw. Haeuptlinge. Aber erst all das was mit einem (mehr oder weniger) Alleinherrscher kommt, erlaubte eine massive Verbesserung der Umstaende und fuerhte zu besagter (sozialen/gesellschaftlichen) Revolution. Ich versuche das mal kurz zu erklaeren.

Um die Gegend um die Stadt herum zu beschuetzen braucht man nur ein paar bewaffnete Reiter. Wenn der Buergermeister hinter’m Berg ein paar mehr Reiter hat, dann ist’s aus mit dem Frieden.
Es braucht also eine relativ grosze Armee, um ein grøszeres Gebiet (relativ) friedlich zu halten. Dafuer braucht man aber „Geld“ …bzw. Korn als Nahrung fuer die Armee und Metall fuer die Waffen und Leder fuer die Ruestungen und Wein zur Unterhaltung etc. pp. … ich fasse das hier mal als „Geld“ zusammen. … … … Nee, das drueckt das nicht richtig aus … vielmehr braucht man dafuer _richtig viel_ „Geld“ und das ist was Samuel ja auch den Massen sagt … die das alles høren und trotzdem einen Kønig wollen, denn …

… um viel „Geld“ ordentlich zu verwalten braucht man eine Buerokratie. Ein Haeuptling braucht keine Buerokratie, denn die Leute bringen das gejagte Wildschwein selber zu ihm, weil er weisz wo die wohnen. Aber eine Buerokratie beinhaltet mehr als nur den Steuereintreiber. Eine Buerokratie beinhaltet auch, dass der Steuereintreiber gerecht ist und die eingetriebenen Steuern auch wirklich dem Volke zugute kommen laeszt. Die letzten beiden Punkte werden durch andere Teile der Buerokratie (Gerichte, Polizei) garantiert, die natuerlich von den Steuern finanziert werden.

Das alles benøtigt aber eine zentrale Instanz, welche die vielen (mehr oder weniger beweglichen) Teile dieser Buerokratie herumdirigieren kann.
Ich persønlich hoffe ja, dass demokratische Konsensfindung diesen Teil der zentralen Instanz irgendwann uebernehmen kann … bis dahin haben wir Praesidenten und Volksvertreter als beste Naeherung um keinen Kønig haben zu muessen.
Damals aber musste das ein Kønig sein, denn dieser war ja eigentlich immer von „Gott“ auserwaehlt. Der Punkt ist sehr (!) wichtig, denn warum sollte ich Otto Normalverbraucher einen Teil meines Korns geben? Erst die echte (!) Furcht vor Gottes Zorn bewirkt dies auf groszer Skala, wenn die zentrale Instanz nicht mehr weisz wo die Leute wohnen … … … das hat schon Gruende, warum Køniginnen und Kønige immer darauf bestanden haben, dass sie von „Gottes Gnade“ waeren.

Und um nicht mehr am hellichten Tage ausgeraubt, vergewaltigt und ermordet zu werden, haben die Menschen gerne Teile ihrer Freiheit aufgegeben um einem Kønig zu dienen. Das war voll logisch damals!

Und im Grunde ist das auch das, was fuer mich ein Aspekt dessen, was Anarchismus (im Sinne Kropotkins) bedeutet: meine Freiheit ist wenig wert, wenn ich an ’ner Entzuendung sterbe. Das bedeutet aber, dass ich mit anderen Menschen zusammenleben muss, denn nur eine grøszere Gesellschaft vermag ein Gesundheitssystem aufrecht zu erhalten, welches dies verhindert. Dafuer muss ich aber in Kauf nehmen, dass ein Teil meiner Freiheit eingeschraenkt wird (bspw. in Form von Steuern um Krankenhaeuser zu bauen) … und das finde ich in Ordnung.

Beim letzten Mal habe ich eine Analogie eingefuehrt, in der ich davon sprach, dass man Wikipediaseiten ansehen kann wie Partikel eines idealen Gases. Das Linklevel entspricht in der Analogie erhøhten oder erniedrigten Temperaturen. Das Durchlaufen von einem Linklevel zum anderen kønnte dann gleichgesetzt werden mit dem „Aufheizen“ und danch wieder „Abkuehlen“ der Wikipediaseiten (gesehen in ihrer Gesamtheit als ein System). Dabei scheint es zu Phasenuebergaengen zu kommen. Schlussendlich kann die Anzahl der totalen Links die eine Seite auf einem gegebenen Linklevel hat, als ein „Zustand“ angesehen werden, den diese Seite bei der gegebenen „Temperatur“ annehmen kann.
Im Weiteren werde ich den Begriff des Zustands (den eine Seite annehmen kann) sehr haeufig benutzen. Dabei ist immer zu beachten, dass dies nicht buchstaeblich gemeint ist. Dieses Denkmodell ist nur eine gedankliche Stuetze, die mir hilft gewisse Dinge innerhalb eines (in der Physik etablierten) Konzepts zu vereinen und zu interpretieren und in bessere Zusammenhaenge zu bringen.

Hier ist nun die Anzahl der „besetzten“ Zustaende und die daraus errechnte Anzahl der totalen (plausiblen) Zustaende:

Das „Aufheizen“ am Anfang fuehrt dazu, dass immer mehr Zustaende „besetzt“ werden (die schwarzen Punkte haben høhere Werte). Oder anders: fast jede Wikipediaseite ist „allein“ in ihrem Zustand denn die Anzahl der totalen Links einer Seite auf bspw. LL5 ist anders als die der allermeisten anderen Seite.
Allerdings habe ich nur ca. 6 Millionen Wikipediaseiten und deswegen bleiben die schwarzen Punkte immer unter diesem Wert.

Wie beim letzten Mal beschrieben, erhalte ich die Anzahl der møglichen (plausiblen) Zustaende (die roten Quadrate), indem ich …

[…] die Zustaende zwischen dem kleinsten und dem grøszten besetzten Zustand einfach abzaehle […].

Weil die Anzahl der totalen Links bei einigen Seiten bis fast 90 Millionen geht, kann die Anzahl der møglichen Zustaende die der tatsaechlich besetzten Zustaende im Maximum um mehr als eine Grøszenordnung uebersteigen. In dem Fall gibt es also plausible Zustaende, die kønnen aber nicht besetzt werden, weil ich keine „Partikel“ habe die die besetzen kønnten.

Danach folgt die „Abkuehlung“ und die Anzahl der besetzten und møglichen Zustaende nimmt (wie zu erwarten war) ab.

In der Phase der „Kondensierung“ sammeln sich mehr und mehr „Partikel“ in den selben (!) Zustaenden; die schwarzen Punkte haben Werte weit unter 6 Millionen. Dennoch, einige Zustaende bleiben unbesetzt. Dadurch ist die Anzahl der møglichen Zustaende wieder grøszer als die Anzahl der besetzten Zustaende, aber hier aus einem ganz anderen Grund! Man schaue sich bspw. LL40 an. Dort habe ich ca. 500 møgliche Zustaende, aber nur ca. 100 besetzte Zustaende. Die 6 Millionen Seiten kønnten locker alles auffuellen. Das passiert aber nicht … kein Wunder, dass mein Bauchgefuehl mir sagte, dass da doch was sein muss.

Andererseits kann ich das nicht an den „totalen Zahlen“ sehen, die hier dargestellt sind. Denn hier liegen die roten Punkte immer ueber den schwarzen Punkten. Deswegen komme ich (nach einem wichtigen Einschub beim naechsten Mal) nochmals auf diese Kurve (in etwas modifizierter Form) zurueck.

UI! Manchmal kann ich mich kurz halten!

Unter jungen Menschen wird ja gesagt, dass je aelter die Leute werden, desto konservativer werden sie … gerne mit der Konnotation, dass dies schlecht sei.

Als Grund dieser Entwicklung wird dann herangezogen, dass besagte Leute das Leben was sie sich aufgebaut haben nicht verlieren wollen … und deshalb kann man mit denen keine Revolution machen.
Das scheint erstmal so logisch, dass man da nix weiter zu sagt, wohlwissend, dass man ja irgendwann selber aelter wird.

Mich duekt, dass Danigelis N. L., Hardy M. und Cutler S. J. dem nicht zustimmen wuerden, denn in ihrer Studie „Population Aging, Intracohort Aging, and Sociopolitical Attitudes“ im American Sociological Review, 2007, 72(5), pp. 812–830 kommen sie zu einem anderen Ergebniss … *hust*.

Der Artikel ist nicht so richtig spannend zu lesen, weswegen ich den hier kurz fuer euch, meine lieben Leserinnen und Leser, zusammenfasse.

Zunaechst wird dort die Problemstellung etwas wissenschaftlicher ausgedrueckt:

(1) as people age, they hold more tenaciously to their views and are more resistant to change […] and (2) older people’s attitudes are more stable than those of younger people […].

Die Untersuchung selber basiert auf Daten zwischen den Jahren 1972 und 2004. Bei den Ergebnissen muss man unterscheiden zwischen intrinsischer und extrinsischer Aenderung der Meinung innerhalb einer Altersgruppe. Ersteres bedeutet, dass die Menschen waehrend sie aelter wurden wirklich ihre Meinung geaendert haben. Letzteres bedeutet im Wesentlichen, dass die Rassisten und Homophoben wegsterben und durch Menschen die vor 20 Jahren noch jung waren (jetzt aber alt sind), und eine andere Meinung haben, ersetzt werden.

Die Autoren benutzen Mathematik um diese zwei Effekte zu trennen und kommen zum Schluss, dass, entgegen der obigen alten Volksweisheit junger Menschen, die Leute im Allgemeinen liberaler werden mit zunehmendem Alter (mit ein paar Ausnahmen) … (cf. Bild 1 auf Seite 822).

Das ist aber NUR eine Aenderung zum Ausgangszustand und heiszt NICHT, dass, die alten Leute pløtzlich, gesehen vom Standpunkt unserer heutigen, moralisch-ethischen Rahmenbedingungen, supertolle Menschen werden. Oder anders: wenn wer in den 60-er Jahren sagte, dass er oder sie jeden Schwulen in der Nachbarschaft lynchen wuerde und heute aber meint, dass das OK ist so lange die das keinem sagen, dann ist das noch lange keine Unterstuetzung fuer die Schwulenehe! Oder noch anders:

But even when the 60+ group moves toward more tolerant attitudes, we find no case where they end the observation period by overtaking the younger age group. At best the “tolerance gap” between the older and younger groups collapses, and no significant gap remains. In other cases the gap narrows, and occasionally both age groups become more tolerant, but the “gap” between them remains roughly the same.

Juengere Menschen werden auch liberaler und darin liegt der Irrtum obiger „Volksweisheit“. Diese wird naemlich mit „modernen Augen“ gesehen … und da ist jede Veraenderung immer viel zu langsam. Deswegen ist das gut, dass wir damit mal aufgeraeumt haben.

Barfusz durch Hiroshima ist an sich ein Augenzeugenbericht. Keiji Nakazawa schreibt und zeichnet dort das nieder, was er selbst erlebte und was er von anderen Ueberlebenden erzaehlt bekommen hat. Dennoch ist es natuerlich zumindest ein Stueck weit eine Abstraktion, allein schon des gewaehlten Mediums wegen.

Etwas „authentischer“ … nicht (!) im Sinne des Inhalts, sondern im Sinne des gewaehlten Mediums … ist der Bericht von John Hersey mit dem Titel „Hiroshima“ in The New Yorker vom 31. August 1946, in dem er die Geschichte von 6 Ueberlebenden erzaehlt.

Dazu ist zu sagen, dass die Amerikaner eine ziemlich „wasserdichte“ Nachrichtensperre hatte, bezueglich all dessen, was die Atombomben auf Hiroshima und Nagasaki angerichtet haben. Alles was anfangs darueber in den Medien gesagt und geschrieben wurde, war Information die direkt von den zustaendigen Behørden kam. John Hersey war der erste Korrespondent der Hiroshima persønlich besuchte und das dort gesehene und gehørte danach in einem 30-tausend Wørter Artikel darlegte.

30-tausend Wørter hiesz, dass an dem Tag nur der Artikel von John Hersey in The New Yorker erschien. Angesichts der Bedeutung des Themas war das angemessen.
Selbst wenn es deswegen etwas laenger dauert den Bericht zu lesen, so ist dieser einer der wichtigsten Artikel die jemals geschrieben wurden.