Wolters Kluwer Deutschland

Maschinelles Lernen als Schlüssel zum Erfolg

Maschinelles Lernen als Schlüssel zum Erfolg

Deep Learning ist eine spannende Technologie, um KI-Systemen auf die Sprünge zu helfen. Foto: Gerd Altmann/Pixabay

Von Christian Dirschl, Chief Content Architect, Wolters Kluwer Deutschland

In meinem ersten Artikel zum Thema Künstliche Intelligenz habe ich geschrieben, dass es KI schon lange gibt und dass der derzeitige Hype erste Erfolge, aber auch eine übersteigerte Erwartungshaltung wiederspiegelt. Nun wollen wir uns etwas genauer anschauen, woher diese „plötzlichen“ Erfolge kommen.

Ein Grund ist der generelle technische Fortschritt in der Computertechnologie. Der andere Grund baut darauf auf: Maschinelles Lernen (oder Machine Learning) ist nutzbar geworden, um Wissensmodelle zu trainieren – also die Programme, die das intelligente Verhalten an den Tag legen. Maschinelles Lernen oder sogar KI als Ganzes wird immer wieder mit Neuronalen Netzen oder Deep Learning gleichgesetzt. Das ist unzutreffend, denn Deep Learning ist nur die spannendste und geheimnisvollste Technologie, um KI-Systemen etwas beizubringen.

Darüber hinaus gibt es viele weitere Lernverfahren, die sich bereits im Laufe der letzten Jahrzehnte etabliert haben und teilweise Standardverfahren z.B. in den von uns allen verwendeten Suchmaschinen sind. Letztendlich ist es immer dieselbe Aufgabe, die ein System zu lösen hat: „Finde mir Muster in einer großen Datenmenge, die für mich interessant sein könnten.“

Die Kunst besteht nun darin, diese „Muster“ so genau wie nötig und gleichzeitig so allgemein wie möglich zu machen, damit alles gefunden wird, was „ähnlich“ zu meiner Anfrage ist. Also bei der Bilderkennung ist ein Hund mit abgeknickten Ohren immer noch ein Hund, aber einer mit ausgeprägten Schnurrhaaren eher nicht mehr. Die Verfahren unterscheiden sich nun darin, wie sie diese Unterschiede lernen, wie sie sie abspeichern und wie sie darauf für die Erkennung bei neuen Daten zugreifen. 

Maschinelles Lernen ist nicht gleich Deep Learning

Jedes Maschinelle Lernen besteht aus zwei Phasen: der Trainingsphase und der Anwendungsphase. In der Trainingsphase werden die Muster erlernt. Entweder bekommt das System viele fertig mit Informationen angereicherte Beispiele. Oder das System sucht sich selbst seinen Weg, macht Vorschläge und ein Mensch sortiert die Ergebnisse dann in richtig oder falsch ein. Basierend auf diesem Feedback beginnt die nächste Lernrunde.

Bei manchen Verfahren kann man quasi hineinschauen und erkennen und nachvollziehen, weshalb das System sich so und nicht anders entschieden hat. Man kann sich zum Beispiel ausgeben lassen, welche Begriffe in einem Text wichtiger sind oder welcher Bildabschnitt besonders sinntragend ist.

Beim Deep Learning ist das anders. Das System sucht sich selbständig einen individuellen Weg, bei dem das Gesamtergebnis mehr als die Summe seiner Einzelteile ist. Der Vorteil ist das „Selbständige“, das heißt es ist relativ einfach, schnell zu guten Ergebnissen zu kommen. Der Nachteil ist aber, dass man in der Regel nicht weiß, warum, und es auch keinen einfachen Weg gibt, das herauszufinden. Bei vielen Anwendungsgebieten reicht es aus, wenn das Ergebnis korrekt ist. Bei anderen dagegen, besonders wenn es um Persönlichkeitsrechte, Vorhersagen oder sicherheitsrelevante Aspekte geht, wird das normalerweise nicht akzeptiert. Deshalb ist diese Intransparenz zusammen mit der Notwendigkeit, wirklich große und „neutrale“ Trainingsdatenmengen zu haben, derzeit die „Achillesferse“ des Deep Learning. Viele Forscher arbeiten daran, diese Defizite zu beheben, und nennen diesen verbesserten Ansatz „Explainable AI“. Und erst wenn es hierfür brauchbare Lösungen gibt, wird sich meines Erachtens auch die LegalTech-Welt der vollautomatischen KI-Verfahren nicht mehr verschließen können.

Somit befinden wir uns gerade auf dem Weg, mit ersten funktionierenden Anwendungen zu arbeiten. Und das wird sich in den nächsten Jahren stetig fortsetzen. Einen großen Knall erwarte ich dagegen nicht.

Die immense Aufmerksamkeit des KI-Themas zeigte sich erst kürzlich wieder, als in Berlin mehr als 8.000 Teilnehmer aus Wirtschaft, Politik und Gesellschaft über die aktuellen Entwicklungen sprachen und insbesondere politische, ethische und zivilgesellschaftliche Aspekte immer wieder in den Fokus der Diskussionen kamen (https://www.big-data.ai/this-was-bas19).

Über den Autor

Christian DirschlChristian Dirschl ist Chief Content Architect im Innovation & UX Team von Wolters Kluwer Deutschland. Seine Hauptaufgabe liegt darin, Kooperationen mit Universitäten und Forschungseinrichtungen zu pflegen. Damit ist er immer am „Puls der Zeit“, um Markttrends und Veränderungen möglichst frühzeitig zu erkennen und transparent zu machen.

Als gefragter Speaker ist er auf verschiedenen Kongressen und Konferenzen vertreten, u.a. SEMANTiCS, ESWC, Big-Data.AI Summit, Future for Publishing Konferenz des Publication Office der EU, Kremser Wissensmanagement-Tage, usw. Als externer Experte unterstützt er die DBpedia Association (https://wiki.dbpedia.org/board). DBpedia stellt einen großen mehrsprachigen Wissensgraphen als Open Data zur Verfügung, der Informationen aus Wikipedia in maschinenlesbarer Form enthält. Dieses Wissen kann in KI-Anwendungen dazu eingesetzt werden, damit das System mehr von der Welt „versteht“ und über mehr Allgemeinwissen verfügt.

Seit 2001 ist Christian Dirschl für Wolters Kluwer Deutschland tätig und hat in unterschiedlichen Funktionen an der Digitalisierung des Unternehmens teilweise maßgeblich mitgewirkt.