Algorithmen oder: Können Computer kreativ sein?

Wenn man heutzutage wissen will, was ein Algorithmus ist, schaut man bei Wikipedia nach. Der englische Wikipedia-Eintrag zum Begriff ‚Algorithmus‘ enthält mehr als 13 000 Wörter, hat fast hundert Fußnoten, zitiert etwa vier Dutzend verschiedene Quellen und verweist auf diverse andere Wikipedia-Artikel, die sich ebenfalls mit Algorithmen beschäftigen. Offenbar handelt es sich um einen wichtigen Begriff.

 

Schaut man indessen in der ‚Encyclopædia Britannica‘ von 1910 nach, so stellt man fest, dass es dort für Algorithmus gar keinen eigenen Eintrag gibt. Lediglich im Artikel über Algebra wird das Wort kurz erwähnt. Man lernt quasi nebenbei, dass damit eine Rechenmethode (‚method of computing‘) gemeint ist und dass es sich bei dem Wort um eine Verballhornung des Namens eines arabischen Mathematikers aus dem neunten Jahrhundert handelt. Nicht mal über die Schreibweise bestand damals Einigkeit: ‚algorism‘ und ‚algorithm‘ werden als gleichberechtigte Möglichkeiten aufgeführt.

 

Zu Hause habe ich noch ein achtbändiges Lexikon von 1978 im Bücherregal stehen. Dort ist es auch nicht viel besser als 1910. Es gibt zwar einen eigenen Eintrag für Algorithmus; dieser hat aber lediglich zehn Zeilen, von denen allein fünf auf die Etymologie des Wortes verwendet werden. Zum Vergleich: Auf derselben Seite findet sich ein Beitrag etwa gleicher Länge über den französischen Lyriker François-Paul Alibert. Alibert wird zum aktuellen Zeitpunkt (Anfang 2017) weder in der deutschen noch der englischen Version von Wikipedia überhaupt nur erwähnt.

 

Was ist denn nun ein Algorithmus und warum hat dieser aus dem Mittelalter stammende Begriff offenbar im Laufe der letzten Jahrzehnte so ungemein an Bedeutung zugenommen?

 

Im weiteren Sinne ist ein Algorithmus schlicht und einfach die Beschreibung eines Handlungsablaufs zum Erreichen eines bestimmten Ziels. So gesehen sind etwa Kochrezepte, Orchesterpartituren oder Montageanleitungen für Möbel Algorithmen: Man will etwas erreichen (z. B. eine Zwiebelsuppe kochen oder ein Bücherregal aufbauen) und führt zur Realisation dieses Ziels die im Algorithmus beschriebenen Aktionen durch.

 

Im engeren Sinne meint man heute aber fast immer sehr detaillierte Handlungsvorschriften, die aus präzise beschriebenen, unmissverständlich formulierten und vergleichsweise simplen Einzelschritten bestehen. Während etwa ein typisches Kochrezept einerseits einen gewissen Handlungsspielraum offen lässt (‚leicht salzen‘) und andererseits ggf. Vorwissen verlangt (‚die Zwiebeln schälen, schneiden und anschwitzen‘), soll ein Algorithmus im engeren Sinn so klar, explizit und fein granuliert formuliert sein, dass – etwas flapsig gesagt – selbst der größte Idiot ihn ohne Fehler ausführen kann und das Ergebnis nicht davon abhängt, wie er oder sie das macht.

 

Diese enge Auslegung des Begriffs Algorithmus ist deshalb die heutzutage vorherrschende, weil die ‚Idioten‘, die Algorithmen ausführen sollen, fast immer Computer sind. Computer arbeiten zwar sehr schnell und zuverlässig, sie brauchen dafür aber präzise Anweisungen und machen nur genau das, was ihnen aufgetragen wurde; nicht mehr und nicht weniger. In diesem engeren Sinne ist ein Computerprogramm einfach ein Algorithmus, der in einer Sprache notiert wurde, die ein Computer ‚versteht‘.

 

Als ältester heute noch regelmäßig verwendeter Algorithmus gilt der sogenannte ‚euklidische Algorithmus‘: eine Methode zur Berechnung des größten gemeinsamen Teilers zweier vorgegebener Zahlen, die mindestens 2300 Jahre alt ist, wahrscheinlich aber sogar noch älter. (Die Bezeichnung ‚euklidischer Algorithmus‘ ist allerdings neueren Datums.) Die entsprechende Seite aus Euklids Werk in einer Abschrift aus dem neunten Jahrhundert sieht so aus:

Weitere einfache, aus der Schule bekannte Beispiele für Algorithmen sind das Gauß-Verfahren zum Lösen linearer Gleichungssysteme oder die Technik der partiellen Integration zum Ermitteln von Stammfunktionen. Selbst dann, wenn man einfach nur zwei Brüche addiert, wendet man bereits einen Algorithmus an.

 

Weil man an ihm schon alle wesentlichen Aspekte eines Algorithmus erkennen kann, soll der euklidische Algorithmus hier etwas näher betrachtet werden: Man beginnt mit zwei Zahlen, deren größter gemeinsamer Teiler berechnet werden soll. Sind die beiden Zahlen gleich, so ist man bereits fertig, die Zahl ist der gemeinsame Teiler. Sind die beiden Zahlen hingegen nicht gleich, so subtrahiert man die kleinere von der größeren und ersetzt die größere durch die gerade errechnete Differenz. Nun hat man zwei ‚neue‘ Zahlen und berechnet deren größten gemeinsamen Teiler mit derselben Methode, d. h. man wiederholt denselben Vorgang, bis die beiden Zahlen gleich sind.

 

Das Ergebnis ist dann auch der größte gemeinsame Teiler der beiden ursprünglichen Zahlen. Dieser Algorithmus ist so einfach, dass alle wesentlichen ‚Zutaten‘ sofort evident sind:

→ Ein Algorithmus hat eine Eingabe (hier sind es zwei Zahlen) und eine Ausgabe (der größte gemeinsame Teiler der beiden Zahlen).

 

→ Es gibt einige wenige primitive Grundoperationen, die der, der den Algorithmus ausführen soll, beherrschen muss, und die daher nicht weiter erläutert werden. In diesem Fall muss man zwei Zahlen subtrahieren können und man muss in der Lage sein, von zwei Zahlen zu erkennen, ob sie gleich sind oder welche ggf. die größere ist.

 

→ Es werden evtl. nicht immer exakt dieselben Schritte durchgeführt. Vielmehr kann die nächste auszuführende Aktion von einer Bedingung abhängen. (‚Wenn die beiden Zahlen gleich groß sind, mache dieses, anderenfalls mache jenes.‘)

 

→ Bestimmte Teile des Algorithmus werden u. U. mehrfach wiederholt, bis eine bestimmte Bedingung eingetreten ist. In unserem Beispiel wird so lange subtrahiert und ggf. vertauscht, bis beide Zahlen gleich groß sind.

 

Gerade der letzte Punkt ist der Hauptgrund dafür, warum sich Computer so gut dafür eignen, Algorithmen auszuführen. Erstens sind sie extrem schnell und können ein und denselben Vorgang millionen- oder gar milliardenfach pro Sekunde wiederholen, wenn es nötig ist. Und zweitens sind sie zuverlässig und ‚genügsam‘: sie machen auch bei der zehntausendsten Wiederholung keinen Fehler und sie langweilen sich dabei nicht.

 

Historisch sei vielleicht noch anzumerken, dass der euklidische Algorithmus in seiner ursprünglichen Form eigentlich ein geometrisches Verfahren war. Es ging darum, das ‚gemeinsame Maß‘ von zwei Strecken zu ermitteln. Die algebraische Sichtweise, bei der es um Teiler geht, hat sich erst später entwickelt. Und während mathematische Aufsätze und Bücher noch bis in die Neuzeit im Wesentlichen aus Prosa bestanden (so wie Euklids ursprüngliche Beschreibung seines Algorithmus weiter oben), hat sich nach und nach eine eigene Sprache der Mathematik entwickelt, die von Schülern zwar oft gehasst, von Mathematikern aber wegen ihrer Präzision und Kürze sehr geschätzt wird.

 

In dieser ‚Formelsprache‘ hätte man den euklidischen Algorithmus wesentlich kürzer und für Fachleute auch klarer spezifizieren können. Und für kompliziertere Algorithmen ist es inzwischen in Fachtexten sogar üblich, diese in sogenanntem ‚Pseudocode‘ zu notieren, der große Ähnlichkeit mit Programmiersprachen für Computer hat, obwohl die Texte immer noch von Menschen gelesen werden sollen.

 

In Pseudocode sieht der ehrwürdige Algorithmus, den Euklid 300 v. Chr. niederschrieb, so aus: 

input: a, b

while a != b:

    if b > a:

        swap a, b 

    a = a − b

output: a

 

Und so ähnlich sieht er auch aus, wenn man ihn in einer der vielen Sprachen schreibt, die Computer verstehen. Mit der ursprünglichen Beschreibung von Euklid kann ein Computer nämlich nichts anfangen. Die Entschlüsselung der Bedeutung von natürlichsprachlichen Äußerungen ist ein komplexes Unterfangen, das Menschen über viele Jahre hinweg lernen müssen und an dem Computer (noch) scheitern.

 

In der Mathematik haben Algorithmen – wenn auch meistens unter anderen Namen wie ‚Methode‘, ‚Verfahren‘, ‚Rechenregel‘ oder ‚Lösungsweg‘ – natürlich seit jeher eine große Rolle gespielt. Während die Aufgabe der Mathematiker in diesem Zusammenhang aber eher die Entwicklung und Verifizierung neuer Algorithmen ist, sind sie für die ‚Kunden‘ der Mathematik, z. B. Naturwissenschaftler und Ingenieure, in erste Linie wichtige Hilfsmittel. Die Informatiker nehmen dabei im gewissen Sinne die Rolle des Mittlers ein, der sich Gedanken über die Effektivität und Effizienz von Algorithmen macht, die von Computern ausgeführt werden sollen.

 

Der massenhafte Einsatz von Computern in der modernen Welt hat dazu geführt, dass Algorithmen nicht mehr nur ein Thema für Mathematiker und Informatiker sind, sondern dass inzwischen wesentlich Aspekte unseres täglichen Lebens von ihnen beeinflusst werden. Algorithmen steuern Flugzeuge, Autos und Herzschrittmacher, werten Röntgenbilder von Krebspatienten aus, entscheiden über Transplantationen oder Kreditvergabe, prognostizieren wirtschaftliche Entwicklungen und Klimaveränderungen, wählen im Internet aus, welche Informationen wir sehen (und welche nicht), und so weiter.

 

Von einer systematischen Untersuchung des Wesens der Algorithmen selbst kann man erst seit Anfang des letzten Jahrhunderts sprechen. Der Teilbereich der Mathematik, der sich mit solchen Fragen beschäftigt, wird ‚theoretische Informatik‘ genannt. Einer ihrer Pioniere, Alan Turing, hat unter anderem die oben genannten ‚Grundzutaten‘ identifiziert, aus denen jeder Algorithmus besteht. Aufbauend auf Ideen von Georg Cantor und Kurt Gödel hat er dann nachgewiesen, dass es überraschenderweise bestimmte Fragen gibt, die sich grundsätzlich nicht durch Algorithmen beantworten lassen. Dabei handelt es sich nicht etwa um vage Prophezeiungen, sondern um präzise formulierbare mathematische Probleme.

\

So ist es z. B. beweisbar unmöglich, ein Programm zu schreiben, das als Eingabe ein Polynom wie x2+y2-z2 erhält und als Ausgabe die Frage, ob dieses Polynom ganzzahlige Nullstellen hat, schlicht und einfach mit ‚ja‘ oder ‚nein‘ beantwortet. (Das ist das sogenannte ‚zehnte Hilbertsche Problem‘.) Auch wenn man als Laie die Frage selbst vielleicht nicht genau versteht, klingt das doch zunächst wie eine Aufgabe, die für Computer maßgeschneidert ist. Tatsächlich kann sie aber mit Sicherheit nicht mit Algorithmen beantwortet werden!

 

Fast noch wichtiger sind aber Probleme, von denen die Informatik weiß, dass sie prinzipiell durch Algorithmen lösbar sind, für die aber alle bisher entwickelten Lösungsverfahren in der Praxis wertlos sind, weil selbst die schnellsten Computer Hunderte von Jahren für die Ausführung der entsprechenden Programme bräuchten. Ein Beispiel dafür ist das Ermitteln einer optimalen (kürzesten) Rundreise durch eine Reihe von vorgegebenen Städten, das berühmt-berüchtigte ‚Problem des Handlungsreisenden‘. Und die meisten aktuellen Verschlüsselungsverfahren (mit denen etwa die Sicherheit von Online-Banking gewährleistet werden soll) beruhen darauf, dass es keine hinreichend schnellen Algorithmen zum Zerlegung von sehr großen Zahlen in ihre Primfaktoren gibt.

 

Während die wohl wichtigste ungelöste Frage der theoretischen Informatik ist, ob solche Probleme inhärent ‚widerspenstig‘ sind (ob es also unüberwindbare Gründe für die Ineffizienz der bekannten Lösungsversuche gibt oder ob bisher nur eine geniale Idee fehlte), wurden parallel dazu effiziente Algorithmen gefunden, die für die Praxis akzeptable Näherungslösungen liefern. Das kann z. B. bedeuten, dass man darauf verzichtet, die beste Route unter 25 Trillionen Möglichkeiten zu ermitteln, und sich stattdessen damit zufriedengibt, eine Route zu finden, die garantiert höchstens zwanzig Prozent länger als die kürzestmögliche ist.

 

Eine weitere Klasse von Problemen, die grundsätzlich durch Algorithmen lösbar sind, bei denen es aber in der Praxis erhebliche Probleme geben kann, sind die sogenannten ‚chaotischen dynamischen Systeme‘. Dabei geht es um Vorgänge, für die es zwar ein präzises mathematisches Modell gibt, deren Verhalten jedoch extrem empfindlich auf kleinste Mess- oder Rundungsfehler reagiert. Obwohl wir etwa inzwischen Masse, Position und Geschwindigkeit der Himmelskörper in unserem Sonnensystem ausgesprochen genau messen können und obwohl die zwischen den Planeten und der Sonne waltenden Gravitationskräfte bekannt und durch mathematische Formeln beschreibbar sind, können wir ihre zukünftigen Bahnen nur für (im astronomischen Maßstab) vergleichsweise kleine Zeiträume vorhersagen. Weitere typische Beispiele für solche chaotischen Systeme sind Wetterprognosen oder die Beschreibung von Wirtschaftskreisläufen.

\

Und schließlich gibt es natürlich auch Bereiche, die im Gegensatz zu den bisher erwähnten von einer brauchbaren mathematischen Modellierung noch weit entfernt sind (z. B. wegen ihrer hohen Komplexität), in denen man aber nichtsdestotrotz gerne Computer einsetzen würde. Dazu gehört z. B. das bereits angesprochene Verstehen von Sprache oder das Übersetzen von einer Sprache in eine andere. Häufig geht es hier um Domänen, in denen Computer Menschen unterlegen sind, weil wir selbst unsere Fähigkeiten nicht gut genug verstehen, um sie in einen detaillierten Algorithmus übersetzen zu können.

 

Im Folgenden seien exemplarisch drei Ansätze für Algorithmen vorgestellt, die sich signifikant von den bislang besprochenen unterscheiden und die auf sehr unterschiedliche Art versuchen, Probleme, die sich einer algorithmischen Lösung bisher widersetzt haben, zu ‚knacken‘.

 

1.  Alle Algorithmen, die in diesem Text bisher beschrieben worden, sind ‚deterministisch‘. Das bedeutet, dass sie bei derselben Eingabe immer wieder dieselbe Ausgabe liefern. Der euklidische Algorithmus wird auch nach der zehnmillionsten Wiederholung noch sagen, dass die Zahl 7 der größte gemeinsame Teiler von 35 und 42 ist. Hingegen setzen sogenannte ‚randomisierte‘ Algorithmen gezielt den Zufall ein: an bestimmten Stellen im Algorithmus wird eine Entscheidung quasi auf der Basis eines Münzwurfes getroffen.

Randomisierte Algorithmen können auf einem aktuellen Computer z. B. in weniger als einer Sekunde herausfinden, ob eine tausendstellige Zahl eine Primzahl ist, während deterministische dafür mehrere Wochen oder gar Monate brauchen würden. Der Haken an der Sache ist, dass die Antwort eines randomisierten Algorithmus nicht hundertprozentig verlässlich ist. Allerdings ist bei den in der Praxis eingesetzten Verfahren die Wahrscheinlichkeit für eine falsche Antwort verschwindend gering; bei gängigen Primzahltest etwa ist es wahrscheinlicher, an einem Tag zweimal vom Blitz getroffen zu werden als vom Algorithmus eine falsche Antwort zu bekommen.

 

2. Obwohl es eine kaum überschaubare Vielfalt an Computermodellen gibt, so sind doch diese Geräte in ihrer grundsätzlichen Funktionsweise untereinander so ähnlich, dass sie sich alle adäquat mit Turings theoretischem Modell von vor dem zweiten Weltkrieg beschreiben lassen. Das ist allerdings nicht mehr der Fall für ‚Quantencomputer‘. Während in den Computern auf unseren Schreibtischen jedes Bit zu einem bestimmten Zeitpunkt entweder den Wert 0 oder den Wert 1 hat, kann ein sogenanntes ‚Qubit‘ eines Quantencomputers prinzipiell unendlich viele verschiedene Zustände annehmen. Erst in dem Moment, indem der Wert des Qubits (durch eine Messung) abgelesen wird, wird es mit einer bestimmten Wahrscheinlichkeit den Wert 0 oder den Wert 1 annehmen. Quantencomputer können potentiell bestimmte schwere Probleme (etwa die bereits angesprochene Primfaktorzerlegung, die für das Entschlüsseln vieler Geheimcodes grundlegend ist) deutlich schneller als ‚klassische‘ Computer lösen.

Abgesehen von ein paar mehr oder weniger erfolgreichen Experimenten mit Prototypen, die nicht viel mehr als ein Dutzend Qubits hatten (zum Vergleich: der Hauptspeicher meines Laptops besteht aus 32 Milliarden Bits), sind Quantencomputer aber bisher nur theoretische Konzepte. Das hat Mathematiker und Informatiker aber nicht davon abgehalten, auch für solche hypothetischen Rechner schon Algorithmen zu entwickeln. Diese unterscheiden sich allerdings signifikant von denen, die Turing und seine Zeitgenossen untersucht haben und mit denen ‚klassische‘ Computer programmiert werden.

\

3. Unter dem Sammelbegriff ‚maschinelles Lernen‘ fasst man eine Klasse von Algorithmen zusammen, die in den letzten Jahren zunehmend auch außerhalb der Fachwelt Furore gemacht hat. Insbesondere ist hierbei die Technik der ‚künstlichen neuronalen Netze‘ zu nennen.

Grob gesagt geht es darum, dass ein Algorithmus bestimmte Dinge dadurch ‚lernt‘, dass er ‚trainiert‘ wird: ihm werden so lange unterschiedliche Beispiele für richtiges und falsches Verhalten vorgesetzt, bis er die beiden Kategorien mit einer genügend guten Trefferquote auseinanderhalten kann. Im Detail können sich verschiedene Strategien des maschinellen Lernens dann u. a. noch dadurch unterscheiden, ob das Training von einem menschlichen Programmierer gesteuert wird, oder ob der Algorithmus quasi ‚autodidaktisch‘ lernt.

 

Die erwähnten neuronalen Netze sind Kombinationen aus sehr vielen miteinander vernetzten Algorithmen, die jeder für sich die vergleichsweise simple Verhaltensweise einer Nervenzelle (eines ‚Neurons‘) simulieren. Ein aufsehenerregender Erfolg solcher Netze war im März 2016 der Sieg des Programms ‚AlphaGo‘ über den wahrscheinlich weltbesten Profi im Brettspiel Go. Zwar hatte bereits 1997 ein völlig anderer Algorithmus den damaligen Weltmeister im Schach besiegen können, Go ist aber aus verschiedenen Gründen substantiell schwieriger als Schach.

 

Es gibt allerdings noch einen wesentlich wichtigeren Unterschied zwischen ‚Deep Blue‘ (dem Programm, das im Schach gewann) und ‚AlphaGo‘. Obwohl ‚Deep Blue‘ natürlich pro Sekunde Millionen von Stellungen auf dem Schachbrett ‚durchdenken‘ konnte und damit von der schieren Rechenkapazität her jedem Menschen weit überlegen war, wussten seine Programmierer doch zumindest im Prinzip, was das Programm tat und mit welcher Strategie es den Weltmeister bezwang. Im Gegensatz dazu wissen die Programmierer von ‚AlphaGo‘ zwar, wie ihr Algorithmus lernt, sie haben aber keine Kontrolle darüber, was er lernt, und können die Ergebnisse im Nachhinein auch nicht unbedingt erklären. In der Tat machte ‚AlphaGo‘, anders als ‚Deep Blue‘, in seinen Partien mehrfach sehr unkonventionelle Züge, die selbst für Experten überraschend, nichtsdestotrotz aber vom Erfolg gekrönt waren. (Nebenbei bemerkt sind neuronale Netze chaotische dynamische Systeme, entziehen sich also quasi aufgrund ihrer Natur einer umfassenden mathematischen Analyse.)

 

Ein weiteres interessantes Beispiel sind Algorithmen, die durch maschinelles Lernen darauf trainiert werden, Röntgenbilder zu analysieren. In manchen Spezialgebieten sind solche Programme inzwischen versierter als Menschen. Die Entscheidungen fällt am Ende immer noch ein menschlicher Onkologe, aber es ist inzwischen durchaus normal, dass er vorher einen ‚Experten‘ konsultiert, der ein Algorithmus ist.

 

Können Computer denn nun kreativ sein, wie in der Überschrift dieses Textes gefragt wurde? Wohl so ziemlich jeder, der zum ersten Mal darüber nachdenkt, wird recht schnell mit ‚nein‘ antworten. Schließlich führen Computer einfach nur Algorithmen aus, d. h. sie machen Schritt für Schritt nur genau das, was Programmierer ihnen aufgetragen haben.

 

Aber je mehr wir über die Funktionsweise unseres Gehirns lernen, desto mehr scheint dieses auch nur eine Art ‚Maschine‘ zu sein, in der Algorithmen ablaufen. Es besteht zwar aus der unvorstellbaren Anzahl von etwa 100 Milliarden Nervenzellen, die auf vielfältige Art und Weise miteinander verbunden sind, aber jedes einzelne Neuron ist für sich genommen nur ein extrem primitiver ‚Computer‘, der nach klar definierten Regeln arbeitet, also auch ‚nur‘ einen festen Algorithmus ausführt. Aktuelle Forschungsergebnisse wecken sogar Zweifel daran, ob es so etwas wie einen freien Willen wirklich gibt. Eventuell ist das, was wir Bewusstsein nennen, nur eine Story, die unser Gehirn konstruiert, um die ungeheure Vielfalt der ständig auf uns einprasselnden Sinneseindrücke zu ordnen und handhabbar zu machen.

 

Lässt sich unser gesamtes Denken also theoretisch als ein großer deterministischer Algorithmus modellieren? Das ist nach dem jetzigen Stand der Forschung zumindest nicht auszuschließen. Sicherlich würden wir zur Simulation eines menschlichen Gehirns Hardware brauchen, die es heute noch nicht gibt. Aber das heißt ja nicht, dass es sie nicht in ein paar Jahren geben wird. Die entscheidende Frage ist, ob solch ein simuliertes Gehirn auch Eigenschaften haben würde, die wir gemeinhein nur Menschen zuschreiben, wie etwa Intelligenz, Kreativität oder Empathie. Wenn wir das ohne überzeugende Argumente als undenkbar zurückweisen, dann messen wir – wenn wir den Gedanken zu Ende denken – diesen Eigenschaften offenbar eine quasi-mystische Qualität jenseits der rein materiellen Basis des Gehirns zu.

 

Wie bereits beschrieben übertrumpfen Algorithmen ihre menschlichen Gegenüber inzwischen in Bereichen (Go, Analyse von Röntgenbildern), in denen wir bis vor Kurzem noch davon ausgegangen sind, dass zum Reüssieren Fähigkeiten bzw. Eigenschaften wie Intuition, Erfahrung oder strategisches Handeln unabdingbar sind. Und im Jahr 2015 stellte die Yale University einen Algorithmus vor, der selbsttätig Musik komponieren kann, die auch Experten nicht von Werken menschlicher Komponisten unterscheiden konnten.

 

Ist so ein Programm nun kreativ? Oder waren ‚nur‘ seine Autoren kreativ, wenngleich sie – ähnlich wie die Programmierer von ‚AlphaGo‘ – nicht erklären können, wie die Kompositionen zustande kommen? Wenn wir den Output eines solchen Programms ohne Kenntnis des Schöpfers für Werke eines kreativen Wesens halten und gleichzeitig nicht erfassen können, wie das Programm arbeitet, greift dann ein Begriff wie ‚Kreativität‘ vielleicht zu kurz? Und wenn ein Algorithmus Tumore in Röntgenaufnahmen besser erkennt als jeder menschliche Experte, wir aber nicht nachvollziehen, wie der Algorithmus das macht, wie können wir dann glauben zu ‚verstehen‘, wie der Onkologe vorgeht?

 

Momentan dürfte niemand die Antworten auf diese Fragen wirklich kennen.

 

Auszug aus der Publikation: Stil System Methoden.