Noch ’ne neue Serie bei der der Titel alles sagt.

Ich fange an mit dem Schreiben von Gags. Man kønnte das auch mehr oder weniger lustige Wortspiele, Einzeiler oder Bonmots nennen.
Die Lustigkeit (mal mehr, mal weniger) derselben beruht auf dem Unerwarteten durch Verknuepfung verschiedener Themen die so eigentlich nicht zusammen gehøren. Dazu kommt dann (sehr sehr) oft, dass noch ein anstøsziger Zusammenhang durch besagte Verknuepfung hergestellt wird. Ich sag nur Witze ueber Sex, Frauen, Minderheiten oder Sachen die man so nicht sagt und auch nicht zu sagen hat.

Dadurch dass sog. „kuenstliche Intelligenz“ aber darauf basiert dass Muster in Daten gefunden werden, ist’s gar nicht so weit hergeholt zu denken, dass „kuenstliche Intelligenz“ keine Witze schreiben kann. Denn Muster bestehen nur zwischen (mehr oder weniger) gut zusammenpassende Themen. Also das Gegenteil dessen was ich oben schrieb.

Und dann stolperte ich ueber einen Artikel von T. Winters et al. in Proceedings of the 10th International Conference on Computational Creativity, 2019, p. 274–281, mit dem Titel „Towards a General Framework for Humor Generation from Rated Examples“.
Dazu gibt es auch Code (gut gewaehltes Akronym … tihihihi) und Ergebnisse. Die computergenerierten Gags sind jetzt zwar nicht so super lustig, Einzeiler sollen das aber auch nicht sein und das ist in den Trainingsdaten nicht anders.

Die meisten Gags sind (wie erwartet) anstøszig auf eine Art und Weise, die ich hier nicht wiederholen møchte. Das sagt natuerlich mehr ueber die von Menschen gemachten Trainngsdaten als ueber den Algorithmus aus. Aber vier Beispiele der Art < X > + < Y > => < lustige Bemerkung > waeren diese:

men + turkey => roast
people + back => hurt
coffee + buildings => empty
sex + emotions => basic

Fuer ’n Siliziumwesen ohne menschliche Erfahrung und nur ’n bisschen Trainingsdaten ist das gar nicht mal so schlecht, wa!

Leave a Reply