Es wird ja gerne gesagt, dass „kuenstliche Intelligenzen“ zwar durchaus ein paar Sachen kønnen (bspw. Schach spielen), aber wenn diese etwas lernen sollen, dann muessen sie dafuer viele Daten haben.
Das ist ein Grund, warum gesagt wird, dass „Daten das Øl des 21. Jahrhunderts“ sind … dass ich das hier schreibe, bedeutet nicht, dass ich denke, dass das richtig ist. Ich wollte damit nur ausdruecken, dass (aufgrund der vorherrschenden Meinung) viele maechtige Leute viele Daten haben wollen, damit deren „kuenstlichen Intelligenzen“ und Maschinenlernalgorithmen besser werden und sie dadurch noch mehr Macht bekommen kønnen.

Andererseits hørt man dann auch immer wieder, dass jedes Kleinkind „kuenstlichen Intelligenzen“ im Allgemeinen haushoch ueberlegen ist, weil Ersteres von nur ein paar Beispielen urst krass viel lernt und Neues aus der gleichen Kategorie dann erkennt.
Das ist natuerlich ein etwas unfairer Vergleich, weil das (nicht nur das) menschliche Gehirn und die (nicht nur die) menschliche Gesellschaft darauf ausgerichtet sind, (nicht nur) neue Menschen genau darauf zu „trainieren“, denn andernfalls ist’s nicht weit her mit dem Ueberleben im Universum. Deswegen konzentriere ich mich nur auf die Behauptung, dass Computer viele Daten brauchen um das Gleiche zu erreichen.

Nun ist es aber so, dass bereits heute dem nicht so sein muss! In dem verlinkten (wenn auch in einem Tagungsband erschienenen, dennoch durchaus wissenschaftlichen) Artikel zeigen die Autoren, dass (relativ komplizierte) neuronale Netzwerke nur wenige Daten brauchen um Konzepte und Kategorien generalisieren und in unbekannten Daten wiedererkennen zu kønnen.
Selbstverstaendlich sind die Autoren sich dem bewusst, dass dies sehr spezifisch ist bzgl. der Aufgaben und (Roh)Daten und mitnichten auf alles was die Welt bietet verallgemeinert werden kann.
Ebenso behaupten die Autoren auch nicht, wo, wie und wann diese neuronalen Netzwerke was und warum gelernt haben. Selbst bei kleinen und relativ unkomplizierten Netzwerken fuer einfache Aufgaben ist das nur sehr bedingt møglich … andererseits kønnen wir diese Fragen bei Tieren und Menschen ja auch nicht beantworten.

Mir geht es nun darum, dass „Big Data“ von den verschiedensten Parteien und Interessengruppen als notwendig (und oft genug auch als hinreichend) angesehen wird um einem Computer beizubringen wie man Sachen erkennt. Der verlinkte Artikel zeigt aber, dass dem nicht so sein muss.

Auch wenn ich durchaus anerkenne, dass Computer (heutzutage) viele Daten brauchen um eine Aufgabe selbststaendig erledigen zu kønnen, so finde ich es unheimlich wichtig darauf hinzuweisen, dass das nicht in Stein gemeiszelt ist! Dies schon deswegen, damit man nicht vøllig davon ueberrascht wird, wenn die Roboter (endlich) kommen.

Leave a Reply