Lernwelten 2030: Kapitel 7 – Eine Frage der Menschenkenntnis

Berlin: Am Campus der Ada Lovelace Universität – 28. Mai 2030, 9 Uhr – Fiona Kibe und Micky Mentor diskutieren über die Vorteile und Defizite einer K.I. in der Studienberatung

Fiona und Kibe saßen zusammen mit Micky Mentor in einem Gruppenarbeitsraum am Campus. Micky hatte einen sehr hilfsbereiten Charakter. Gerade schenkte er Fiona frisch aufgebrühten Kaffee aus einem All-in-One-Pot in eine Tasse auf dem Beistelltisch ein – und verschüttete dabei die Hälfte.

„Stopp Micky!“, rief Fiona und sprang auf, damit der heiße Kaffee nicht auf ihr Bein lief. Mickys große Augen in seinem blass schimmernden Gesicht schauten sie unverwandt an, dann erklang seine freundliche helle Stimme:

„Hast du dich erschrocken, Fiona? Kann ich sonst noch etwas für dich tun?“

„Beratungsmodus“, sagte Fiona knapp und um Mickys Augen leuchteten blaue Lämpchen auf, die ein Augenblinzeln imitierten. Micky war nämlich ein Roboter.

Kibe konnte sich ein Grinsen nicht verkneife, als er mit einigen Papiertüchern die Sauerei auf dem Tisch aufwischte.

„Als Praktikant würde Micky seine Probezeit jedenfalls nicht überstehen – wo er noch nicht einmal Kaffee servieren kann,“ lachte Kibe. „Da waren die Soft Robots aus meiner Ausbildung in Nairobi geschickter. Dafür hat Micky ein niedlicheres Gesicht.“

„Immerhin hat er an meiner Stimme erkannt, dass mich seine missglückte Einschenk-Aktion erschreckt hat“, sagte Fiona. Auch sie war amüsiert. Der humanoide Roboter mit seiner Größe von 1,40 Metern, seinem hübschen hellen Gesicht mit den riesigen Kulleraugen, die Kameralinsen waren, erfüllte das Kindchen-Schema und löste einen mütterlichen Beschützerinstinkt in Fiona aus – besonders, wenn er so ungeschickt war. Man sah Micky nicht an, wie intelligent er war.

FUTURA hatte eine Künstliche Intelligenz entwickelt, der für jeden studentischen User die komplette Studienplanung übernahm mit individualisierten Lern- und Qualifikationszielen, Fortschrittskontrollen, Motivationsboosts und Beratungsgesprächen. Das Ziel war, auf diese Weise jeden Studierenden individuell zur perfekt passenden Berufsqualifikation hinzuführen. Sie hatten die Künstliche Intelligenz „Micky Mentor“ getauft. Nun wollten Fiona und Kibe Micky auf seine Beratungsfähigkeiten testen. Kibe rief auf dem Smartboard die 3D-Mindmap mit ihrer bisherigen Ideensammlung auf.

„Ich kann besser denken, wenn ich hier was handschriftlich auf die bunten Karten schreibe und zeichne“, sagte Fiona. Dann befestigte sie die neuen Karten am Smartboard.

„So können wir die Zusammenhänge besser visualisieren. Ich denke besser mit den Händen.“

„Denken mit den Händen oder Thinking with Hands ist eine Kreativmethode, die Workshops kreativer, innovativer und wirksamer macht!“, meldete sich Micky ungefragt zu Wort.

„Danke für die Definition“, sagte Fiona ironisch.

„Bitte sehr“, antwortete Micky, der Ironie nicht verstand, und blinzelte sie blauäugig an.

Fiona und Kibe testeten Micky Mentor nun in mehreren Durchläufen von Beratungsgesprächen und die K.I. gab schlüssige Antworten und machte plausible Vorschläge.

„Ich finde, ab sofort können wir Micky in echten Beratungsgesprächen einsetzen und selbst als stille Beobachter dabei sitzen“, sagte Kibe enthusiastisch.

„Du willst einfach in die Pilotphase gehen? Aber wir müssen uns vorher Gedanken machen, ob wir diese K.I. überhaupt auf Menschen loslassen dürfen! Vor allem das mit der Reaktion auf Emotionen kann ganz schön daneben gehen. Wenn ein Studierender in der Beratung Entscheidungen treffen soll, die seine oder ihre Zukunft prägen, dann sollte die Mentor-Instanz auch so etwas wie Einfühlungsvermögen und Lebenserfahrung mitbringen“, sagte Fiona skeptisch. Sie dachte an die Sprechstunde bei Professorin Lindenbaum und wie wohl und gut verstanden sie sich dort gefühlt hatte. Dieser lächerliche Roboter konnte da doch niemals mithalten. 

„Kommst du jetzt schon wieder mit deinen ethischen und pädagogischen Bedenken? In den Algorithmen, die FUTURA entwickelt hat, steckt doch die Lebenserfahrung aus den gesammelten Daten drinnen“, hielt Kibe dagegen.

„Aber diese Algorithmen müssen auch ethischen Prinzipien folgen. Diese müssen wir Menschen ihnen einprogrammieren“, sagte Fiona. „Dass die K.I. meine Lernaktivitäten auswertet und mir zum Beispiel fürs My-Path-Portfolio Vorschläge für meine nächsten Lerneinheiten macht, ist natürlich praktisch. Aber meine Lernbiografie gehört mir! Wenn die K.I. demnächst mein Leben steuern will, weil sie angeblich besser als ich weiß, welche Qualifikationen ich für meinen Traumjob sammeln muss, kriege ich Zweifel!“, gab Fiona vehement zu bedenken.

„Warum? Kein Mensch kann das alles so gut überblicken, was die K.I. weiß. Mit den vielen ‘Profilen’ aus den vorigen Bildungs- und Berufswegen kann die K.I. dich sehr wohl passgenau anleiten. Es hat sich in vielen Feldern bewährt, dass aus Daten der Vergangenheit Prognosen für die Zukunft getroffen werden“, sagte Kibe.

„Das mag sein. Aber ich habe ein Problem damit, wie diese Profile von den anderen Usern erstellt und ausgewertet werden. Guck dir doch nur an, wie die Algorithmen mit Daten zu Geschlecht und Ethnie der Lernenden umgehen. Wenn in der Vergangenheit vor allem „weiße Männer“ in den Chefetagen saßen, dann ist deren Bildungsweg zum Erfolg doch keine Blaupause für dich oder mich! Deshalb müssen wir uns gut überlegen, welche Algorithmen wir der K.I. geben, denn da steckt unsere Ethik drin!“ 

Kibe schwieg und dachte nach. Das Vibrieren seines Smartphones riss ihn aus seinen Gedanken. Er schaute auf die neu eingegangene Nachricht.

 

„Was ist das denn?! Dein Vater hat mich für die Praktikumsstelle bei FUTURA abgelehnt? Dabei hatte er mich doch selbst eingeladen!“, rief Kibe. „Und was soll diese Gap Analysis? Da steht: „Um die ausgeschriebene Stelle anzutreten, müssen Sie diese fehlenden Qualifikationen erwerben…“ 

„Dass du rausgefiltert wurdest, wundert mich nicht. Mein Vater setzt für die Bewerbungsauswahl die K.I. „Select the Best“ ein“, erklärte Fiona. „Da siehst du mal, wie schlecht dich diese Algorithmen eingeschätzt haben! Gerade hast du noch ihr Loblied gesungen.“

„Dein Vater vertraut also mehr auf diese K.I., als auf seine eigene Menschenkenntnis. Er hatte mir doch gesagt, dass ich mich in seinem Workshop bewährt hatte“, stellte Kibe verbittert fest.

„Menschenkenntnis wird definiert als das Vermögen, andere Menschen richtig zu beurteilen,“ sagte Micky und schaute Kibe treuherzig aus seinen Kameraaugen an. Fiona und Kibe starrten den Roboter überrascht an. Während ihrer Diskussion hatten sie völlig vergessen, dass die K.I. jedes ihrer Worte mithörte und auf Schlüsselwörter reagierte.

„Micky, wer hat die bessere Menschenkenntnis, ein Mensch oder eine K.I.?“, fragte Kibe und fixierte das freundliche Robotergesicht mit wütend zusammen gezogenen Augenbrauen.

„’Menschenkenntnis ist das einzige Fach, in dem man ständig unterrichtet wird’. Das ist ein Spruch von Alberto Moravia. Möchtest du weitere Zitate aus der Literaturdatenbank zur Menschenkenntnis oder Hintergrundinformationen zu Alberto Moravia?“, fragte Micky. Als Kibe nicht antwortete, fuhr die Roboterstimme gleichmütig fort:

„K.I. steht für Künstliche Intelligenz. Diese bezeichnet den Versuch, bestimmte Entscheidungsstrukturen des Menschen nachzubilden, indem zum Beispiel ein Computer so gebaut und programmiert wird, dass er relativ eigenständig Probleme bearbeiten kann. Im Verständnis des Begriffs Künstliche Intelligenz spiegelt sich die aus der Aufklärung stammende Vorstellung vom „Menschen als Maschine“ wider, dessen Nachahmung sich die sogenannte starke KI zum Ziel setzt: eine Intelligenz zu erschaffen, die das menschliche Denken mechanisieren soll, bzw. eine Maschine zu konstruieren und zu bauen, die intelligent reagiert oder sich eben wie ein Mensch verhält.“

Micky blinzelte wieder blauäugig und wartete auf weitere Fragen oder Befehle. Kibe schnaubte frustriert.

„Auf Oder-Fragen kann Micky immer noch nicht antworten,“ stellte Fiona fest.

„Hast du denn eine Antwort auf meine Frage?“, sagte Kibe und schaute Fiona herausfordernd an, seine Augen glänzten. Im Gegensatz zu Micky erkannte sie, dass dieses Glänzen Tränen der Enttäuschung waren.

Hier endet die Gesprächsaufzeichnung. Wie könnte das Gespräch weitergehen? Wir möchten Sie, liebe Leserinnen und Leser, dazu einladen, diese Szene weiterzuschreiben und zu diskutieren.

Foto von Gerd Altmann, frei nutzbar nach Pixabay License

<<<  Zu Kapitel  6  |  Ende der Story |  Zur Blogparade

Hier geht es zum Überblick und Wegweiser

Begriffserläuterungen: Digitales und Kenia

Bezugspunkte: Fachliteratur und Populärkultur

Personen und Schauplätze

Die Autorinnen stellen sich vor

Titelbild:  Foto von Gerd Altmann, frei nutzbar nach Pixabay License