Welche KI wollen wir eigentlich? — Empolis Blog

Welche KI wollen wir eigentlich?

1

Das Thema KI als aktuelles Reizthema zu beschreiben, wäre stark untertrieben. Schaut man sich die Veröffentlichungen der letzten zwei bis drei Jahre an, erkennt man drei große Meinungsblöcke, die sich munter einander bekriegen.

Welche KI wollen wir? Ein Vergleich

Der erste Block ist eine seltsame Allianz eher progressiver technologischer Denker zusammen mit wertkonservativ Gesinnten. Diese Allianz sieht in der KI wahlweise den Untergang des Abendlandes bzw. der gesamten Menschheit, da die KI das Potenzial hat, die Menschheit zu unterjochen. Beide allerdings aus völlig unterschiedlichen Gründen: Der eher technisch denkende Ansatz sieht die Gefahr in den unbegrenzten Fähigkeiten der KI, bezogen auf die Geschwindigkeit und die Menge der zu verarbeitenden Daten, die den Fähigkeiten des menschlichen Gehirns weit überlegen sind. Dies, zusammen mit der jetzt schon beängstigenden Lernfähigkeit der KI, birgt die Gefahr, dass die KI, in Form rein mechanischer Einheiten (Robotern) oder eine Mischung aus biologischen Einheiten (Menschen), kombiniert mit technischen Verbesserungen (vulgo Cyborgs), in nicht allzu ferner Zeit mitleidig auf die inferiore Existenzform Mensch blickt und darüber sinniert, wie man mit dieser unvollkommenen Lebensform umgehen sollte. Sehr schön beschreibt das Yuval Noah Harari in den letzten Kapiteln seines bemerkenswerten Buches Homo Deus. Der eher wertkonservative Ansatz sieht das rein rationale Denken der Maschinen als das größte Problem an, denn wie soll eine uns in vielen Dingen überlegene Intelligenz moralisch oder ethisch handeln, wenn sie diese Konzepte nicht kennt – oder wenn sie sie kennt (gelernt hat), diese als eher hinderlich und überflüssig betrachtet. Denn was würde eine Superintelligenz, die auf rein rationalen Denkmustern basiert, denn als erstes machen, wenn Sie unsere Welt und die in ihr existierenden Wesen betrachtet? Richtig – dieses störende, ihre eigenen Lebensgrundlagen zerstörende und in fast allen Dingen völlig irrational handelnde Wesen Mensch abschaffen.

Der zweite Block ist eher philosophischer Natur und besteht im Antagonismus der KI kann alles und bald alles viel besser als der Mensch-Fraktion und der die KI wird niemals gleiche Fähigkeiten haben wie wir Menschen-Fraktion. Interessant ist, welchen Wissenschaftsbereichen diese beiden Fraktionen größtenteils angehören. Erstere sind meistens den ingenieursnahen und IT-affinen Bereichen zuzuordnen, letztere eher im geisteswissenschaftlichen Bereich verortet, insbesondere in der Philosophie und der Soziologie. Hier werden in den Feuilletons der Zeitungen wahre Schlachten ausgetragen, wobei die Geisteswissenschaft immer noch sehr klar die Ansicht vertritt, eine Maschine bzw. die KI kann niemals gleiche oder gar bessere Fähigkeiten haben wie der Mensch, insbesondere in den Bereichen Kreativität, Gefühl und soziales Miteinander. Diese beiden Ansichten unterscheiden sich auch (naturgemäß) sehr in Sachen Menschenbild. Wohingegen die ersteren den Menschen eher (überspitzt ausgedrückt) als biologischen Algorithmus, ohne freien Willen und ohne individuelles Ich betrachten, verbleiben die anderen in den Konzepten des immateriellen Geistes bzw. der Seele, im Zusammenspiel mit einem materiellen Körper (Seele/Körper-Dualismus) und dass der Mensch einzigartig ist, wegen seiner nur ihm eigenen individuellen Seele. Hier spielen auch sehr viel religiös konnotierte Überzeugungen mit hinein. Dieser Seite ist klar, dass eine „seelenlose“ KI niemals die Fähigkeit haben wird z. B. musikalische Kunstwerke zu erzeugen, die bei den Menschen ganz besondere Gefühle evozieren. Leider spricht alle wissenschaftliche Evidenz in den Bereichen der Neuro- und Biowissenschaften zurzeit gegen die geisteswissenschaftliche Haltung; und die KI kann inzwischen Symphonien erzeugen, die kein Mensch mehr von „menschengemachten“ unterscheiden kann und ganz gezielt Gefühle der einen oder anderen Sorte trefflich und zielsicher erzeugen kann. Man könnte meinen, die aktuellen Diskussionen sind reine Rückzugsgefechte der eher geisteswissenschaftlich orientierten Fraktion. Irgendwie erinnert mich das an den Kampf der Kirche gegen die Aufklärung bzw. Wissenschaft, bei der die Kirche bzw. die von ihr ausgelegte Religion immer mehr Standpunkte und „Wahrheiten“ an die wissenschaftlichen Erkenntnisse abgeben musste, bis sie ihre Rolle als „Wahrheitsinhaber“ völlig verloren hatte.

Der dritte Block sind die Pragmatiker, die die KI grundsätzlich als etwas sehr Positives sehen, als weiteren Entwicklungsschritt der Menschheit oder als weitere industrielle Revolution nach der einen oder anderen schon dagewesenen. Sie postulieren ein Leben mit weniger oder keiner Arbeit mehr, da wir immer mehr Tätigkeiten an die Maschinen bzw. die KI delegieren können. Erste Erfolge kann man ja schon jetzt sehen! Während die oben genannten sich noch die Köpfe heiß diskutieren, nutzen die Pragmatiker die jetzt schon zur Verfügung stehenden Technologien und setzen sie – mehr oder weniger sinnvoll oder gewinnbringend – ein. Sie kennen Siri, oder Amazon mit den Vorschlägen, was Sie als nächstes kaufen sollten, Googles Suchtreffer, Apples intelligente reverse Bildersuche oder die Alexas und Cortanas dieser Welt. Das sind alles erste Spielereien in dem Raum der Möglichkeiten in der KI. Dass das nicht immer zielführend ist, wissen wir auch, aber die ersten Dampfmaschinen sind auch mal explodiert. Dass die KI auch jetzt schon manchmal sehr dolos eingesetzt wird, sieht man am Skandal mit Facebook und Cambridge Analytica. Ganz zu schweigen von bereits aktuellen Einsatzszenarien, von denen der Otto-Normalnutzer nichts oder kaum etwas mitbekommt. Bewegungsprofilerstellung von Gefährdern, anhand von Reisemustern und Verhaltensdaten (Geheimdienste), Voranalyse von Bewerberdaten (Unternehmen) oder Prüfung von Schadensfällen auf Betrug (Versicherungen). Die Qualität dieser Prüfungen ist meistens erschreckend gut. Die Pragmatiker (nicht die Politiker – die haben Angst) warnen aber auch davor, welche gesellschaftlichen Folgen der Einsatz der KI haben kann, da große Teile der Menschheit dann schlichtweg nicht mehr benötigt werden und nur eine recht kleine intellektuelle Elite aktiv sein wird, die Maschinen und die KI zu bauen und zu warten. Übersehen wird aber seitens der Pragmatiker, dass ihre Prognosen immer nur dann zutreffen, wenn wir das aktuell global vorhandene Modell des kapitalistisch orientierten Wirtschaftens weiter als gültig annehmen. Dies sollte man aber auch mal hinterfragen!

Der aufmerksame Leser sagt nun sicherlich: Lieber Autor, Du wirfst hier aber Einschätzungen zu den Folgen des KI-Einsatzes und Einschätzungen zu den Fähigkeiten der KI zusammen. Richtig, das mache ich genau aus zwei Gründen: Erstens ist eine Folge immer ein Ergebnis einer Fähigkeit und zweitens übersehen (fast) alle Diskussionen über das Thema einen sehr gewichtigen Punkt, der sowohl mit den Fähigkeiten als auch mit den Folgen zu tun hat, auf den ich jetzt näher eingehen möchte.

Ich selber war doch sehr verwundert, als vor nunmehr über 20 Jahren ein großes Gewese ob des Sieges von Deep Blue gegen Garri Kasparow im Schach gemacht wurde; gleiche Verwunderung befiel mich in 2016, als Google AlphaGo den Go-Meister Lee Sedol schlug. Man sprach vom Sieg der Maschine über den Menschen usw. Aber seien wir mal ehrlich: Schach und Go sind rein logisch-rational aufgebaute Spiele. Es gibt klare, festgelegte Regeln und eine endliche (wenn auch bei Go sehr große), berechenbare Anzahl an Spielzügen. Sicher gehört viel menschliche Kreativität dazu, unter den möglichen Spielzügen den der Situation Angepassten zu finden und dabei noch möglichst weit vorauszudenken. Und genau hier hat die KI heute den entscheidenden Vorteil. Klare, nachvollziehbare, immer gültige Regeln sowie quasi unerschöpfliche Ressourcen alle Spielzüge in kurzer Zeit durchzuspielen und somit weitaus weiter voraus “denken“ zu können als der Mensch. Und: AlphaGo wird nicht nervös oder emotional. Klare Regeln und riesige Rechnerressourcen lösen hier das Problem. Auch die sogenannten „Hand of God“-Züge im Spiel AlphaGo gegen Lee Sedol sind für mich nicht so beindruckend wie oft dargestellt. Die Möglichkeiten beim Go sind so unvorstellbar groß, dass selbst in der langen Geschichte von Go von allen bisher existierende Go-Spielern nicht alle Züge gedacht werden konnten. Die beim Menschen bekannten Strategien im Go orientieren sich also immer entlang der bisher gespielten oder gedachten Go-Zugmöglichkeiten. Denken Sie sich einen Kubus, der alle möglichen Go-Züge enthält, dann sind die dem Menschen bekannten oder denkbaren Züge wie ein Baum, der in diesem Kubus wächst und Stamm und Äste und Blätter sind die vom Menschen bereits gespielten oder gedachten Go-Züge. Dazwischen gibt es aber noch sehr viel Leerraum an Zugmöglichkeiten, die aus schierer Datenmenge heraus dem Menschen bisher „undenkbar“ waren. In genau diesem Leerraum hat AlphaGo „gedacht“ und seine Züge gefunden. Im konkreten Fall alles eine Frage der Geschwindigkeit und Rechenressourcen! Also: Wenn wir bei solchen rein rationalen bzw. regelbasierten Themen bleiben – wie Fertigungsstraßen, Industrieroboter, Optimierung von Logistikketten usw. usf. – bleiben, wird die KI eine solche Zukunft bringen, wie die Pragmatiker uns versprechen.

Jetzt kommt aber das große Aber. Kommen wir in einen Bereich, wo der Mensch etwas in seine Entscheidungen einbezieht, was die KI (noch) nicht hat: Fast jede menschliche Entscheidung basiert sicher auch auf rein zweckrationalen Erwägungen, doch auch – und manchmal hauptsächlich – auf etwas anderem. Insbesondere, wenn solche Konzepte wie Kultur, Recht, Ethik/Moral, Religion, Menschenbild usw. eine Rolle spielen; also immer dann, wenn Entscheidungen direkt oder indirekt einen anderen Menschen betreffen. Dort, wo der Mensch nicht nur auf Basis von Regeln oder rein rationalen Kalkülen entscheidet. Wenn die KI in diese Bereiche vordringt, haben wir ein Problem. Und: Sie ist schon in diese Bereiche vorgedrungen. Hier müssen wir fragen: Welche KI wollen wir eigentlich?

Jeder Mensch unterliegt sogenannten intersubjektiven Übereinkünften. Intersubjektive Übereinkünfte sind Wissenskonzepte, die nicht objektiv sind, die also objektiv alle Wesen gleichermaßen betreffen (wie die Schwerkraft, die gilt immer in diesem Universum, egal an welchem Ort und vor allem egal ob ich daran glaube oder nicht) und nicht subjektiv sind, also nur ein einzelnes Individuum betreffen (meinen individuellen Schmerz kann kein anderer fühlen). Eine intersubjektive Übereinkunft ist eine Übereinkunft, die viele einzelne Subjekte (also Menschen) gemeinsam haben und die räumlich und vom Personenkreis her eingeschränkt wirken. Eine intersubjektive Übereinkunft, die evangelikale US-Amerikaner haben, wird in Tibet keinerlei Wirkung entfalten – es glaubt dort keiner daran. Sie ist eine gemeinsame abstrakte Geschichte, an die große Personenkreise glauben, nach der sie leben und die damit Wirkmächtigkeit für das reale Leben der Menschen erhält. Erstes Beispiel: Geld. Rein objektiv haben diese Papierschnipsel keinerlei Wert. Nur dort, wo andere Menschen (also andere Träger dieser intersubjektiven Übereinkunft) vorhanden sind, die an die Werthaltigkeit eines Dollars oder eines Euro glauben, hat er einen Wert. Alleine in der Sahara können Sie mit einem 5-EURO-Schein höchstens Feuer machen. Ein anderes Beispiel sind moralische Werte: Asiaten werden z. B. eher zu einer Entscheidung kommen, die dem Kollektiv nützt, Europäer frönen eher dem Individualismus. Bestes bzw. wirkmächtigstes Beispiel: Religionen. Rein objektiv gesehen, hat keiner bisher einen Gott gesehen oder bewiesen; auch die Regeln einer Religion sind nicht objektiv vorhanden. Ob ich als Christ am Freitag Fleisch esse oder als Muslim Alkohol trinke, hat keinerlei objektive Auswirkung im Sinne der religiösen Gebote, die Auswirkung entsteht nur im Kopf des Frevelnden im Zusammenspiel mit den anderen Trägern der jeweiligen intersubjektiven Übereinkunft. Objektiv gibt es keine Moral, keine Religion oder sogar kein Recht. Dies sind alles Konzepte, die nur existieren und wirkmächtig sind, weil es sehr viele Träger dieser intersubjektiven Übereinkünfte gibt, die nach diesen Regeln leben und sie als objektiv existierend oder Wahrheit wahrnehmen.

Jetzt wird die Frage: „Welche KI wollen wir eigentlich“ sehr evident. Wenn also die KI bald auch Entscheidungen treffen soll, bei der Menschen (also Träger verschiedenster intersubjektiver Übereinkünfte) direkt betroffen sind – nach welcher moralischen Einstellung soll die KI entscheiden? Welche Religion soll sie zugrunde legen? Welches Rechtssystem bezieht sie in ihre Entscheidung mit ein? Auch Menschenrechte sind keine objektive Wahrheit, sondern eine intersubjektive Übereinkunft der meisten Menschen in eher westlich geprägten Staaten. Eine chinesische KI wird hier wahrscheinlich völlig anders entscheiden als eine US-amerikanische oder europäische KI.

Hier liegt für mich eine der entscheidenden Fragen, die wir für den Umgang mit der KI in Zukunft beantworten müssen. Dass sie kommen wird, ist schon keine Frage mehr, sondern einfach eine Tatsache. Dass sie mehr und mehr regelbasierte (algorithmisierbare) Tätigkeiten, die auf eher rationalen Entscheidungen beruhen, übernehmen und viele Menschen ihrer aktuellen Beschäftigungsmöglichkeiten berauben wird, ist teilweise auch schon Realität, sicher aber eine sehr nahe Zukunft. Hier ist eine Dynamik vorhanden, die nicht mehr gebremst werden kann. Offen ist aber noch die Frage, welche KI wir eigentlich wollen, wenn es darum geht auch Entscheidungen und Tätigkeiten an die KI zu delegieren, die Menschen sehr stark auf Basis ihrer intersubjektiven Übereinkünfte durchführen, und dass es genau dazu kommen wird, da bin ich mir sehr sicher. Die Frage ist nun – welcher Religion werden diese Maschinen „glauben“? Welchem Rechtssystem werden sie anhängen. Also: Welche KI wollen wir eigentlich?

 

 

Sie möchten alle Informationen rund um KI und Big Data druckfrisch erhalten? Das Blog-Abo ist für Sie da.

Teilen:

Über den Autor

Christian Schulmeyer

Dr. Christian Schulmeyer ist neben der Weiterentwicklung des erfolgreichen Geschäftsmodells insbesondere für die Erschließung neuer Märkte und den Ausbau strategischer Kooperationen mit führenden Unternehmen verantwortlich. Der Wirtschaftsingenieur war zuletzt bei der Telekom Deutschland GmbH als verantwortlicher externer Projektleiter des Telekom Internet-Shops und des Hilfe&Support-Portals tätig. Weitere Erfahrungen im Bereich Service- und Customer Care Management sammelte er unter anderem in internationalen Projekten der T-Online International AG (heute wieder in die Deutsche Telekom AG eingegliedert) und der Bosch Telecom GmbH. Darüber hinaus ist Dr. Christian Schulmeyer seit vielen Jahren erfolgreich mit seiner eigenen Firma Schulmeyer & Coll. in der Management-, Technologie- und Strategieberatung im Software- und Internetumfeld tätig.

1 Kommentar

  1. Zum Beitrag von Christian Schulmeyer,
    Welche KI wollen wir eigentlich?

    Grundsätzliches Feedback

    Ein enorm wichtiger Beitrag, toll! Werde ich als Pflicht- Lederlektüre besonders unseren Technischen Redakteuren empfehlen. Nur Zwischenüberschriften hätte ich mir im Beitrag gewünscht…

    KI als Anlass für eine Kehrtwende in der Technischen Redaktion (TR)

    Es wird Zeit, dass die Technische Redaktion sich ein Stück weit befreit:
    – aus den immer mehr lächerlicher wirkenden (pseudo-)juristischen Absicherungstexten,
    – aus der unsinnigen Wuselarbeit, technische Daten zusammenzutragen, die ein Konstrukteur eigentlich nur einmal verwendungsorientiert eintragen müsste,
    – von anderen geistigen Einfacharbeiten, die eine KI problemlos übernehmen könnte.

    KI als Erinnerung auch für die TR: Welche KI wollen wir und welche Rolle für die Doku im KI-Zeitalter

    Es wird Zeit, dass wir unseren eigentlichen Fokus der Nutzungsorientierung kritisch reflektieren, um den Anwendern bei immer intelligenter werdenden Produkte auch sinnvolle nachvollziehbare Nutzungsszenarien (Use Cases) zu präsentieren inkl. möglicher Alternativen.

    KI als Besinnung für die TR die im Blogbeitrag genannten Fragen aufzugreifen.

    Es wird Zeit, dass KI Einzug hält in die Technische Redaktion und wir gerade als Technische Redakteure die im Beitrag aufgenommene philosophische Diskussion letztlich auch in eine moderne, akzeptierte digitale Benutzassistenz umsetzen.

    Das geht natürlich weit über unsere berufliche Arbeit hinaus, da Ethik und Moral nicht am Arbeitsplatz anfängt sondern „nur“ fortgesetzt wird.

    So erhoffe ich mir, dass die Diskussion über KI auch unsere Arbeit in der Technischen Redaktion neu ausrichtet, ganz nach dem Motto, das ich bei Gunter Dueck so erstmals gelesen habe:

    „Wenn eine Sintflut kommt, musst Du Schiffe bauen, nicht Deiche!“

Sagen Sie Ihre Meinung!

Ich habe die Datenschutzbestimmungen gelesen, akzeptiere diese und stimme der Veröffentlichung der eingetragenen Daten zu