Neuester Inhalt

Freiräume für Menschlichkeit schaffen

18. Oktober 2019Gast

Nahezu seit Beginn der Digitalisierung beschäftigt uns das Phänomen der hochentwickelten Robotik, der Künstlichen Intelligenz. Große Worte mit viel Bedeutung, aber was steckt konkret dahinter? Feki.de-Redakteurin Anna Hench hat Prof. Dr. Ute Schmid getroffen, Professorin für Kognitive Systeme an der Uni Bamberg.

 

Guten Tag, Frau Dr. Schmid, vielen herzlichen Dank, dass Sie sich Zeit für unser Gespräch genommen haben. Um das erste Eis zu brechen will ich die Adam-und-Eva-Frage stellen: Was ist Künstliche Intelligenz eigentlich?

Fangen wir mal mit einer Definition an: Künstliche Intelligenz erforscht wie man allgemeine Prinzipien menschlichen intelligenten Verhaltens – also Wahrnehmung, Sprachverstehen, Entscheiden, Problemlösung – in Algorithmen formulieren kann, sodass sie zumindest zum Teil von Computern oder Robotern umgesetzt werden können. KI ist natürlich interdisziplinär, hat aber von seinen Methoden und wissenschaftlichen Gütekriterien her jene der Informatik, der sie auch in erster Linie zugehörig ist. Natürlich, wie in jeder Disziplin gibt es nicht die „eine“ Definition bei der sich alle Forscher*innen einig sind, aber eben auch anerkanntere, wie ich sie gerade formuliert habe.

Beginnt für Sie Künstliche Intelligenz schon beim Windows XP-Rechner, der einen Binärcode in Buchstaben und Zahlen umwandelt, oder kann man von verschiedenen Intelligenzstufen sprechen?

Ich würde sogar noch einen Schritt weiter zurückgehen und sagen, sogar ein Taschenrechner hat auf eine gewisse Art „Super-Human Intelligence“. Er kann ganz schnell die Wurzel aus einer sehr großen Zahl korrekt ziehen, was wir beide jetzt nicht können. Aber wir sind uns auch sofort einig, dass wir ihn eigentlich nicht intelligent finden; er kann einfach große, komplizierte Rechenoperationen schnell ausführen. Wir Menschen verstehen Intelligenz als allgemeine Fähigkeiten und nicht als reine Inselbegabung. Wir gehen davon aus, dass ein Mensch der supergut rechnen kann wahrscheinlich auch in der Lage ist, Texte zu lesen und zu verstehen, eine Lego-Bauanleitung umzusetzen, Emotionen zu deuten, etc.. In der Künstlichen Intelligenz hat man meistens spezialisierte Algorithmen, die genau eine Sache gut können.

Ist also schon ein einfaches Programm wie der Taschenrechner ein KI-System?

Nein, ist es nicht. KI-Programmierung,-Forschung und -Methoden beginnen immer da, wo man kein einfaches Programm mehr schreiben kann, das garantiert alle Probleme einer Art auf die gleiche Weise lösen kann. Ein Beispiel dafür wären Such- und Sortieralgorithmen, also ein Programm das in einer Liste nach einem bestimmten Element sucht. Da kann ich einen Algorithmus mit einer Schleife schreiben und weiß je nach Länge der Liste wie lang es für die Aufgabe braucht, aber da ist keine KI drin. Die KI fängt dann an, wenn ich das nicht mehr kann, zum Beispiel bei Spielen wie Schach. Da ist die KI schon in den 90er-Jahren sehr erfolgreich gewesen – mit Deep Blue von IBM, deren System eine tolle Heuristik hatte: Gegeben die aktuelle Konstellation, wie kann ich klug und schnell entscheiden, welcher Zug mich am wahrscheinlichsten zum Erfolg führen wird? Heuristiken zu definieren und zu nutzen ist ein großer Teil der KI. Dazu gehören Inferenzalgorithmen, die basierend auf solchen Heuristiken Lösungen suchen.

Nun steht die KI ja alles andere als alleine da – die KI ist nur ein kleiner Teil des großen Begriffs Digitalisierung, der mal vergöttert, mal verteufelt wird wenn es um seine Anwendbarkeit geht. Beispielsweise der Drucker, der seine Farbe selbstständig beim Händler nachbestellt sobald sie zur Neige geht, oder App-gesteuerte elektronische Haushaltsgeräte, deren Status immer auf dem Handy abrufbar ist. Welche Vor- oder Nachteile sehen Sie darin, wenn wir uns im Alltag immer mehr auf intelligente Systeme verlassen?

In einem Smart-Home steckt eigentlich gar nicht so viel KI drin, sondern relativ viel Standart-Informatik. Ich persönlich sehe in einem Smart-Home Vorteile für Menschen die sich ihre Autonomie bewahren wollen, aber vielleicht nicht mehr alles selbst tun können. Beispielsweise ältere Menschen, die vielleicht lieber daheim bleiben möchten als ins Altersheim zu gehen. Allerdings will ich hier deutlich machen: ich möchte nicht, dass ein solches System nur danach schaut, dass die Menschen am Leben bleiben und das war‘s. Das ist keine Aussicht auf ein zukünftiges Leben im Alter, die man realisiert haben will. Was man aber vielleicht schon will ist, dass ein Mensch in seiner häuslichen Umgebung bleiben kann, immernoch seine Küche, seine Fotos an der Wand hängen haben kann – gepaart mit Pflegefirmen, die dann die durch smarte Technik und KI übrige Zeit dazu nutzen, die menschliche Seite der Pflege – miteinander reden, spielen, essen - auszufüllen. Ein solches System sollte aber nicht dazu missbraucht werden, Pflegekosten einzusparen oder Stellen abzubauen, nach dem Motto „Wenn er/sie umkippt geht ein Alarm los und dann kommen wir“. Das ist nicht mehr die Art von Gesellschaft in der ich leben möchte. Ich möchte, dass Digitalisierung und Künstliche Intelligenz uns Freiräume für Menschlichkeit schaffen.

Sie bezeichnen damit eine Utopie, die zwar sehr wünschenswert, aber leider ziemlich weit von der Gegenwart entfernt ist. Nicht nur in Bezug auf die aktuelle Pflegepolitik – riesige globale Unternehmen wie Google speichern unschätzbar große Datenmassen ihrer Nutzer, verwandeln diese in Millionengewinne und geraten immer wieder dafür in die Kritik. Wie stehen Sie dazu?

Sicher machen Google und Co. auch tolle Forschung mit diesen Daten, und jeder benutzt Google. Aber warum gehören unsere Daten Google? Könnte es vielleicht einen europäischen Weg geben, der Unternehmen so reguliert, dass von uns transferierte Daten so hinterlegt werden, dass sie beispielsweise auch Forschungseinrichtungen zur Verfügung stehen? Ich finde, es braucht eine demokratische Regelung für Daten. Durch die Globalisierung der großen IT-Firmen gibt es eigentlich nur Monopole in diesem Bereich und das lässt sich auch kaum verhindern. Wenn ein zweiter Player auf dem Markt Dinge nicht so gut und schnell kann wie Google, dann verwenden Sie als Nutzer natürlich Google. Und wenn der Gegenspieler zu gut wird, kann Google ihn kaufen. Im Prinzip haben wir für die Sparte ‚Information‘ Google, für ‚Einkaufen‘ haben wir Amazon, für ‚Soziale Netzwerke‘ Facebook und für das Thema ‚Mobilität‘ Uber. Viele Politiker sehen vor allem die großen wirtschaftlichen Chancen für ihren Standort, aber mir fehlt das Hinterfragen der möglichen Konsequenzen. Verstehen Sie mich nicht falsch, ich bin sehr für Digitalisierung und ich liebe KI-Forschung, sonst würde ich es nicht schon so lange machen. Ich bin auch sehr dafür, dass KI immer weiter entwickelt wird. Aber ich glaube, dass wir einen demokratischen Diskurs darüber brauchen, wie man es einsetzen will. Und das würde auch bestimmen, wo die Forschungsgelder hin fließen.

Der Konsens der Bevölkerung, ergo der Kurs der Politik bestimmt die Entwicklung in der Forschung.

Welche Forschung gefördert wird, ist in der Tat immer auch von politischen Gegebenheiten bedingt. In Deutschland gab es schon viel Forschung zu alternativen Antriebsformen, Energien, etc.. Sehr häufig bestimmen aber Gelder und wirtschaftliche Interessen, woran geforscht wird. Da frage ich mich: Muss ich mein ganzes Geld in aufwendige und energieintensive tiefe neuronale Netze stecken, nur weil es gerade „hip“ ist? Oder könnte ich Forschungsmittel breit streuen - auch in andere Bereiche stecken, die vielleicht mittel- und langfristig nützlicher für die Menschheit wären?

Um von der Politik wieder zurück zur KI zu kommen: auf der einen Seite gibt es Menschen, die die Möglichkeiten der KI in den Himmel loben, andere fürchten im nächsten Monat die Ankunft des Terminators. Wie schätzen Sie diese Zukunftsaussichten ein?

Beide Positionen sind eher nicht zutreffend und basieren darauf, dass viele Menschen wenig Hintergrundinformation haben und den aktuellen Stand der Forschung und die möglichen Risiken dadurch nicht realistisch einschätzen können. Wenn man beispielsweise sieht, dass ein KI-System auf unzähligen komplizierten Bildern alles Menschliche, wie Hände oder Füße, blitzschnell markieren kann, dann ist man natürlich tief beeindruckt. Die Menschen machen dann aber den Fehler, den sie beim Taschenrechner nicht machen: zu denken, dass das System auch in der Lage ist, andere Dinge übermenschlich gut zu beherrschen. Das heißt wir überschätzen dabei das KI-System, sind aber gleichzeitig auch enttäuscht wenn es dann etwas falsch macht. Es gibt sogenannte „One-Pixel-Attacks“, damit kann man so ein tiefes neuronales Netz ganz leicht aus dem Konzept bringen. Zum Beispiel erkennt ein System auf einem Bild ein Maschinengewehr und dann muss man nur drei Pixel verändern, dass es behauptet, es sei eine Schildkröte. Man kann auch erklären, warum eine KI diese Fehler macht, aber eben wenn man ein Grundverständnis von der Funktionsweise künstlicher neuronaler Netze hat. Und deshalb gibt es diese Mischung aus völlig überzogenen Erwartungen und panischer Ängste, die KI könne ein Bewusstsein entwickeln und uns alle umbringen.

Diese spezielle Angst hält die Gesellschaft und besonders die Kunst ja nicht erst seit gestern auf Trapp, man muss nur an „Matrix“ von 1999 denken. Eines der jüngsten Werke, das sich dieser Frage angenommen hat, ist das 2018 erschienene Action-Adventure „Detroit: Become Human”. Darin fordern hochentwickelte humanoide Roboter gegenüber den Menschen eigene Autonomierechte ein. Können Sie sich vorstellen, dass KIs irgendwann zu einem Bewusstsein gelangen werden?

Wir wissen ja noch nicht einmal richtig, was Bewusstsein und Intentionalität überhaupt ist. Daher halte ich die Wahrscheinlichkeit für sehr gering, dass ein System das Bilder erkennt plötzlich meint: „Ich hab jetzt keine Lust mehr, Bilder zu erkennen“. Es gibt Wissenschafter, die annehmen, Bewusstsein wäre ein emergentes System ab einer gewissen Komplexität neuronaler Verschaltungen. Generell ist es für uns Menschen schwierig, zu entscheiden, ob wir anderen Lebewesen oder Maschinen nur Bewusstsein zuschreiben, oder ob diese tatsächlich Bewusstsein haben. Man soll nie Nie sagen, aber ich halte es für recht unwahrscheinlich.

Wie schätzen Sie im Kontrast dazu die Möglichkeit ein, dass KIs Empathie erlernen können?

In meiner Gruppe haben wir Forschungsprojekte zum Thema Emotionserkennung aus Mimik, in denen wir insbesondere Methoden des maschinellen Lernens einsetzen. Zusammen mit dem Schmerzexperten Stefan Lautenbacher arbeiten wir daran, KI-Systeme zu entwickeln, die aus der Mimik erkennen, ob ein Mensch Schmerzen hat. Dies ist immer dann wichtig wenn Menschen Schmerzen leiden, diese aber nicht kommunizieren können. Wir möchten Schmerz erkennen und dies transparent und nachvollziehbar dem medizinischen Personal mitteilen, damit diese Helfer entsprechend reagieren können. Es gibt recht vielversprechende Forschung, die in der Lage ist, emotionale Zustände zu klassifizieren. Aber auch das ist mit Problemen verbunden, denn wir Menschen können das ja auch nicht immer. Wie können wir validieren, ob eine Emotionszuordnung wirklich der Wahrheit entspricht, wenn wir keine Selbstaussage des Probanden zur Überprüfung haben? Nichtsdestotrotz glaube ich, dass Mimik-Erkennung eine nützliche Technik ist. Ob ich das umgekehrt nutze, um Emotionen in künstlichen Wesen entstehen zu lassen, ist etwas anderes. Wissenschaftlich ist das interessant, aber auch hier stellt sich die Frage: Was ist überhaupt eine Emotion? Kann ich das künstlich nachbauen? Ich weiß es nicht. Ich möchte, ehrlich gesagt, aber auch keine emotionalen Maschinen. Ich möchte Emotionen mit Menschen teilen.

Haben Sie ein abschließendes Statement zur Digitalisierung und KI in der Zukunft?

Man muss unterscheiden, was von der Forschung und vom technologischen Fortschritt her spannend ist, versus das was dem Menschen zuträglich ist. Es ist sicher wissenschaftlich ein riesiger Durchbruch gewesen, die Kernspaltung zu entdecken. Diese Wissenschaftler haben etwas erschaffen, das ich intellektuell als höchst wichtigen Beitrag zur Forschung sehe. Aber sie konnten leider nicht verhindern, dass daraus die Atombombe wurde. Einstein hat einmal gesagt: Mit einem Messer kann ich Brot schneiden, oder jemanden umbringen. Und ich denke, so müssten wir auch KI beurteilen. Wir brauchen einen gesamtgesellschaftlichen Diskurs darüber, wie wir die Digitalisierung – und Künstliche Intelligenz als einen Teilaspekt der Digitalisierung – so gestalten, dass es zum Wohle der Menschheit ist.

Vielen Dank für das interessante Gespräch!

Am 29.10.2019 wird Chefdramaturg Remsi Al Khalisi im Rahmen der Gesprächsreihe „ETA fragt…“ diesen Diskurs mit Frau Prof. Dr. Ute Schmid und ihrem humanoiden Roboter Pepper fortsetzen. Um 20 Uhr geht es auf der Studiobühne des ETA Hoffmann-Theaters los, der Kartenpreis für Studierende liegt bei 5 Euro.

 

Bildnachweis: 
Bild von Gerd Altmann auf Pixabay
Comment