Lernwelten 2030: Kapitel 7 – Eine Frage der Menschenkenntnis

Berlin: Am Campus der Ada Lovelace Universität – 28. Mai 2030, 9 Uhr – Fiona Kibe und Micky Mentor diskutieren über die Vorteile und Defizite einer K.I. in der Studienberatung

Fiona und Kibe saßen zusammen mit Micky Mentor in einem Gruppenarbeitsraum am Campus. Micky hatte einen sehr hilfsbereiten Charakter. Gerade schenkte er Fiona frisch aufgebrühten Kaffee aus einem All-in-One-Pot in eine Tasse auf dem Beistelltisch ein – und verschüttete dabei die Hälfte.

„Stopp Micky!“, rief Fiona und sprang auf, damit der heiße Kaffee nicht auf ihr Bein lief. Mickys große Augen in seinem blass schimmernden Gesicht schauten sie unverwandt an, dann erklang seine freundliche helle Stimme:

„Hast du dich erschrocken, Fiona? Kann ich sonst noch etwas für dich tun?“

„Beratungsmodus“, sagte Fiona knapp und um Mickys Augen leuchteten blaue Lämpchen auf, die ein Augenblinzeln imitierten. Micky war nämlich ein Roboter.

Kibe konnte sich ein Grinsen nicht verkneife, als er mit einigen Papiertüchern die Sauerei auf dem Tisch aufwischte.

„Als Praktikant würde Micky seine Probezeit jedenfalls nicht überstehen – wo er noch nicht einmal Kaffee servieren kann,“ lachte Kibe. „Da waren die Soft Robots aus meiner Ausbildung in Nairobi geschickter. Dafür hat Micky ein niedlicheres Gesicht.“

„Immerhin hat er an meiner Stimme erkannt, dass mich seine missglückte Einschenk-Aktion erschreckt hat“, sagte Fiona. Auch sie war amüsiert. Der humanoide Roboter mit seiner Größe von 1,40 Metern, seinem hübschen hellen Gesicht mit den riesigen Kulleraugen, die Kameralinsen waren, erfüllte das Kindchen-Schema und löste einen mütterlichen Beschützerinstinkt in Fiona aus – besonders, wenn er so ungeschickt war. Man sah Micky nicht an, wie intelligent er war.

FUTURA hatte eine Künstliche Intelligenz entwickelt, der für jeden studentischen User die komplette Studienplanung übernahm mit individualisierten Lern- und Qualifikationszielen, Fortschrittskontrollen, Motivationsboosts und Beratungsgesprächen. Das Ziel war, auf diese Weise jeden Studierenden individuell zur perfekt passenden Berufsqualifikation hinzuführen. Sie hatten die Künstliche Intelligenz „Micky Mentor“ getauft. Nun wollten Fiona und Kibe Micky auf seine Beratungsfähigkeiten testen. Kibe rief auf dem Smartboard die 3D-Mindmap mit ihrer bisherigen Ideensammlung auf.

„Ich kann besser denken, wenn ich hier was handschriftlich auf die bunten Karten schreibe und zeichne“, sagte Fiona. Dann befestigte sie die neuen Karten am Smartboard.

„So können wir die Zusammenhänge besser visualisieren. Ich denke besser mit den Händen.“

„Denken mit den Händen oder Thinking with Hands ist eine Kreativmethode, die Workshops kreativer, innovativer und wirksamer macht!“, meldete sich Micky ungefragt zu Wort.

„Danke für die Definition“, sagte Fiona ironisch.

„Bitte sehr“, antwortete Micky, der Ironie nicht verstand, und blinzelte sie blauäugig an.

Fiona und Kibe testeten Micky Mentor nun in mehreren Durchläufen von Beratungsgesprächen und die K.I. gab schlüssige Antworten und machte plausible Vorschläge.

„Ich finde, ab sofort können wir Micky in echten Beratungsgesprächen einsetzen und selbst als stille Beobachter dabei sitzen“, sagte Kibe enthusiastisch.

„Du willst einfach in die Pilotphase gehen? Aber wir müssen uns vorher Gedanken machen, ob wir diese K.I. überhaupt auf Menschen loslassen dürfen! Vor allem das mit der Reaktion auf Emotionen kann ganz schön daneben gehen. Wenn ein Studierender in der Beratung Entscheidungen treffen soll, die seine oder ihre Zukunft prägen, dann sollte die Mentor-Instanz auch so etwas wie Einfühlungsvermögen und Lebenserfahrung mitbringen“, sagte Fiona skeptisch. Sie dachte an die Sprechstunde bei Professorin Lindenbaum und wie wohl und gut verstanden sie sich dort gefühlt hatte. Dieser lächerliche Roboter konnte da doch niemals mithalten. 

„Kommst du jetzt schon wieder mit deinen ethischen und pädagogischen Bedenken? In den Algorithmen, die FUTURA entwickelt hat, steckt doch die Lebenserfahrung aus den gesammelten Daten drinnen“, hielt Kibe dagegen.

„Aber diese Algorithmen müssen auch ethischen Prinzipien folgen. Diese müssen wir Menschen ihnen einprogrammieren“, sagte Fiona. „Dass die K.I. meine Lernaktivitäten auswertet und mir zum Beispiel fürs My-Path-Portfolio Vorschläge für meine nächsten Lerneinheiten macht, ist natürlich praktisch. Aber meine Lernbiografie gehört mir! Wenn die K.I. demnächst mein Leben steuern will, weil sie angeblich besser als ich weiß, welche Qualifikationen ich für meinen Traumjob sammeln muss, kriege ich Zweifel!“, gab Fiona vehement zu bedenken.

„Warum? Kein Mensch kann das alles so gut überblicken, was die K.I. weiß. Mit den vielen ‘Profilen’ aus den vorigen Bildungs- und Berufswegen kann die K.I. dich sehr wohl passgenau anleiten. Es hat sich in vielen Feldern bewährt, dass aus Daten der Vergangenheit Prognosen für die Zukunft getroffen werden“, sagte Kibe.

„Das mag sein. Aber ich habe ein Problem damit, wie diese Profile von den anderen Usern erstellt und ausgewertet werden. Guck dir doch nur an, wie die Algorithmen mit Daten zu Geschlecht und Ethnie der Lernenden umgehen. Wenn in der Vergangenheit vor allem „weiße Männer“ in den Chefetagen saßen, dann ist deren Bildungsweg zum Erfolg doch keine Blaupause für dich oder mich! Deshalb müssen wir uns gut überlegen, welche Algorithmen wir der K.I. geben, denn da steckt unsere Ethik drin!“ 

Kibe schwieg und dachte nach. Das Vibrieren seines Smartphones riss ihn aus seinen Gedanken. Er schaute auf die neu eingegangene Nachricht.

 

„Was ist das denn?! Dein Vater hat mich für die Praktikumsstelle bei FUTURA abgelehnt? Dabei hatte er mich doch selbst eingeladen!“, rief Kibe. „Und was soll diese Gap Analysis? Da steht: „Um die ausgeschriebene Stelle anzutreten, müssen Sie diese fehlenden Qualifikationen erwerben…“ 

„Dass du rausgefiltert wurdest, wundert mich nicht. Mein Vater setzt für die Bewerbungsauswahl die K.I. „Select the Best“ ein“, erklärte Fiona. „Da siehst du mal, wie schlecht dich diese Algorithmen eingeschätzt haben! Gerade hast du noch ihr Loblied gesungen.“

„Dein Vater vertraut also mehr auf diese K.I., als auf seine eigene Menschenkenntnis. Er hatte mir doch gesagt, dass ich mich in seinem Workshop bewährt hatte“, stellte Kibe verbittert fest.

„Menschenkenntnis wird definiert als das Vermögen, andere Menschen richtig zu beurteilen,“ sagte Micky und schaute Kibe treuherzig aus seinen Kameraaugen an. Fiona und Kibe starrten den Roboter überrascht an. Während ihrer Diskussion hatten sie völlig vergessen, dass die K.I. jedes ihrer Worte mithörte und auf Schlüsselwörter reagierte.

„Micky, wer hat die bessere Menschenkenntnis, ein Mensch oder eine K.I.?“, fragte Kibe und fixierte das freundliche Robotergesicht mit wütend zusammen gezogenen Augenbrauen.

„’Menschenkenntnis ist das einzige Fach, in dem man ständig unterrichtet wird’. Das ist ein Spruch von Alberto Moravia. Möchtest du weitere Zitate aus der Literaturdatenbank zur Menschenkenntnis oder Hintergrundinformationen zu Alberto Moravia?“, fragte Micky. Als Kibe nicht antwortete, fuhr die Roboterstimme gleichmütig fort:

„K.I. steht für Künstliche Intelligenz. Diese bezeichnet den Versuch, bestimmte Entscheidungsstrukturen des Menschen nachzubilden, indem zum Beispiel ein Computer so gebaut und programmiert wird, dass er relativ eigenständig Probleme bearbeiten kann. Im Verständnis des Begriffs Künstliche Intelligenz spiegelt sich die aus der Aufklärung stammende Vorstellung vom „Menschen als Maschine“ wider, dessen Nachahmung sich die sogenannte starke KI zum Ziel setzt: eine Intelligenz zu erschaffen, die das menschliche Denken mechanisieren soll, bzw. eine Maschine zu konstruieren und zu bauen, die intelligent reagiert oder sich eben wie ein Mensch verhält.“

Micky blinzelte wieder blauäugig und wartete auf weitere Fragen oder Befehle. Kibe schnaubte frustriert.

„Auf Oder-Fragen kann Micky immer noch nicht antworten,“ stellte Fiona fest.

„Hast du denn eine Antwort auf meine Frage?“, sagte Kibe und schaute Fiona herausfordernd an, seine Augen glänzten. Im Gegensatz zu Micky erkannte sie, dass dieses Glänzen Tränen der Enttäuschung waren.

Hier endet die Gesprächsaufzeichnung. Wie könnte das Gespräch weitergehen? Wir möchten Sie, liebe Leserinnen und Leser, dazu einladen, diese Szene weiterzuschreiben und zu diskutieren.

Foto von Gerd Altmann, frei nutzbar nach Pixabay License

<<<  Zu Kapitel  6  |  Ende

Hier geht es zum Überblick und Wegweiser

Begriffserläuterungen: Digitales und Kenia

Bezugspunkte: Fachliteratur und Populärkultur

Personen und Schauplätze

Die Autorinnen stellen sich vor

Titelbild:  Foto von Gerd Altmann, frei nutzbar nach Pixabay License

Print Friendly, PDF & Email
Please follow and like us:
error

15 Antworten auf „Lernwelten 2030: Kapitel 7 – Eine Frage der Menschenkenntnis“

  1. Liebe Ulrike und Dorit,
    in diesem Kapitel gibt es einiges, was ich gerne diskutieren würde. Nämlich würde ich Fiona in der Hinsicht Recht geben, dass man selbst noch über sein Leben bestimmen sollte und sein Leben nicht rein nach den Empfehlungen einer K.I. ausrichten sollte. Ich bin davon überzeugt, dass es nicht nur einen Weg ans Ziel gibt und manchmal ist es für die persönliche Weiterentwicklung sogar förderlich, ein paar “Umwege” zu nehmen. Außerdem kann selbst eine K.I. nicht in die Zukunft schauen (was freiwerdende Stellen angeht) und jede Arbeitsstelle hat andere Anforderungen, weshalb die Empfehlungen nie genau so zielgerichtet sein können.
    Fionas Gedanken zur Einprogrammierung von Ethikvorstellungen finde ich enorm wichtig und “innovativ”, jedoch sehe ich ein Problem darin, dass jeder Mensch individuelle Vorstellungen ethischer Werte hat und nur die ethischen Wertvorstellungen weniger Personen letztlich in eine Vielzahl von K.I.’s eingebaut wird.
    Was mir außerdem negativ aufgefallen ist, war das ständige Reinreden von Micky. Obwohl er als solch eine liebenswürdige Figur beschrieben wurde, bin ich ihm eher abgeneigt, da ich es als störend empfinde, ungefragte Kommentare zu bekommen, wenn das Gespräch zwischen zwei anderen Personen stattfindet. Mich würde das eher aus dem Konzept bringen und mit meinen eigenen Gedanken interferieren. Außerdem kommt hier wieder rüber, dass keine Privatsphäre existiert. Mal davon abgesehen, dass seine Kommentare keinen wirklichen Mehrwert für das Gespräch hatten, sie waren sehr willkürlich und haben nur auf Schlagworte und nicht den Kontext reagiert.
    Liebe Grüße,
    Sandra

    1. Vielen Dank liebe Sandra! Deine Gedanken zur Ethik und inwieweit man überhaupt einen Konsens finden kann, bevor man sie einer K.I. einprogrammiert, machen einen guten Raum zur Diskussion auf.
      Ich denke da z.B. an selbstfahrende Autos, denen der Programmierer vorgeben muss, wie es in einer nahenden Unfallsituation reagieren soll (wenn es z.B. um die Abwägung von zwei Übeln geht, entweder eine Gruppe von Menschen zu überfahren oder nur einen Einzigen – das sind sehr komplexe philosophische, ethische und strafrechtliche Fragen, auf die Fachleute kaum eine Einigung finden).

  2. “Weißt du Kibe,” sagte Fiona sanft. “Ich glaube auf diese Frage kann es keine eindeutige Antwort geben. Wie würdest du denn Menschenkenntnis für dich definieren?”
    Kibe überlegte einen kurzen Augenblick, doch bevor er fertig war, sich Gedanken darüber zu machen, wurde er auch schon von Micky aus seinen Gedanken gerissen: “Menschenkenntnis ist die Fähigkeit, das Verhalten oder den Charakter von Menschen aufgrund eines ersten Eindrucks richtig einzuschätzen, zu erkennen und zu beurteilen, und vorherzusagen wie sie denken und wie sie handeln werden.”
    “Danke Micky!” entgegnete Fiona dem Roboter wütend.
    “Habe ich dich verärgert Fiona? Ich konnte Wut in deiner Stimme erkennen” fragte Micky daraufhin.
    “Micky, gehe in Standby Modus!” befahl Fiona dem Roboter.
    “Siehst du Kibe?” wandte sich Fiona erneut sanft an Kibe. “Micky hat nicht verstanden, dass du gerade im Begriff warst, dir selbst eine Definition zu überlegen. In der Zukunft kann sich das alles noch ändern, aber zur Zeit sind die Maschinen noch nicht in der Lage, zwischenmenschliche Interaktionen angemessen und korrekt zu interpretieren. Sie sind schließlich nicht unfehlbar und vom derzeitigen Stand der Entwicklung bei weitem noch nicht so fortgeschritten. Doch auch Menschen sind nicht perfekt darin. Nicht alle Menschen können Stimmungen gut lesen und missinterpretieren Situationen und Aussagen gelegentlich aufgrund ihrer eigenen Erfahrungen. Gerade bei Personen, die einen großen Defizit in ihrer Sozialkompetenz haben, können K.I.’s durchaus unterstützend wirken. Da sie auch so ein umfassendes Wissen besitzen und permanent neue Informationen erhalten unter anderem auch über menschliches Verhalten, denke ich jedoch im Allgemeinen schon, dass K.I.’s giga informiert sind über alle unsere Lebensbereiche hinweg.”
    Fiona pausierte, um Kibe Zeit zu geben, um über ihre Antwort nachzudenken.
    “So habe ich das noch nie betrachtet” sagte Kibe nachdenklich. Sein Blick schweifte durch den Raum und blieb an Micky hängen, der regungslos dastand, wie eingefroren.
    Zögerlich redete Kibe weiter: “Der Begriff der Menschenkenntnis alleine sagt ja noch nichts über die daraus resultierenden Handlungen aus.”
    “Wobei man ja eigentlich davon ausgeht, dass das eigene Verhalten an die “Erkenntnisse” angepasst würde. Über diese Frage habe ich schon länger nachgedacht, bin aber nie zu einer befriedigenden Antwort gekommen. Ich denke aber, dass ich auf dieser Grundlage eine recht gute Antwort für mich selbst gefunden habe.” sagte Kibe nun überzeugt. Die Konversation hatte ihn merklich angeregt. Fiona konnte ein euphorisches Funkeln in seinen Augen aufflammen sehen.
    “Schön, das freut mich Kibe” sagte Fiona freudig. “Wollen wir uns einen kleinen Snack holen? Ich bekomme allmählich echt einen Bärenhunger und habe giga Lust auf was Süßes!”
    “Klar!” sagte Kibe, nahm seine Tasche. Gemeinsam verließen Fiona und Kibe den Raum. Auf dem Weg zur Cafeteria diskutierten sie angeregt darüber, ob Micky wirklich schon bereit für die Pilotphase war.

    1. Vielen Dank liebe Sandra. Ich bin ganz begeistert von deiner Szene!! Du hast die Frage nach der Menschkenntnis sehr interessant weiter gesponnen (z.B. ist sie bei jedem Menschen in gleichem Maße vorhanden und inwieweit beeinflusst sie das menschliche – und K.I. unterstützte – Miteinander).
      Mir gefällt auch, dass du Micky in seinem dazwischen Quaken witzig eingebaut hast und im Kontrast Fiona schilderst, wie sie einfühlsam Pausen macht und beiden Zeit zum Nachdenken lässt – das finde ich giga gut! 🙂

  3. Liebe Ulrike, Liebe Dorit,
    ich finde es sehr interessant zu sehen, dass Fiona, von der ich bisher den Eindruck hatte, dass sie sämtliche K.I. unterstützte Tools eher begrüßt als ablehnt in diesem Kapitel Zweifel an den Beratungskompetenzen einer K.I. äußert. Dabei bin ich mit meiner Meinung ganz bei ihr, dass Empathie und Lebenserfahrung der Beratungsperson nicht unwichtig sein können. Das zeigt sich auch im Zuge der nervigen Zwischenkommentare von welchen ein empathiefähiger Mensch absehen würde. Ich würde mich auch bei einer Person besser aufgehoben fühlen, als bei einem Roboter, der mir zwar die genausten Daten liefern kann, mich aber vermutlich weniger dazu animiert mutig zu sein und meine Gefühle nicht versteht und mir schlimmstenfalls nur einprogrammierte vorgefertigte Antworten gibt. Die K.I. berücksichtigt schließlich auch nur die berechenbaren Alternativen.
    Zur Thematik der ethischen Werte möchte ich mich dem Kommentar von Sandra anschließen. Hier finde ich es auch sehr spannend, dass Fiona und Kibe gegensätzliche Meinungen vertreten. Auch, dass Kibe die Algorithmen der künstlichen Intelligenz verteidigt und dann aufgrund dieser aus dem Bewerbungsverfahren gefiltert wird finde ich geradezu ironisch.
    Viele Grüße
    Elisa

    1. Vielen Dank liebe Elisa! Sehr interessant, dass du die Empathie im Gespräch nicht nur auf die Inhalte, sondern auch auf die Interaktion beziehst (z.B. zu erkennen, wann es besser ist, dem Gegenüber Denkpausen zu geben und nicht ungefragt zu allem seine Belehrungen beizusteuern). Auch den Widerstreit zwischen Kibes Überzeugungen (in der Theorie pro K.I. – in der Praxis bekommt er am eigenen Leib ein negatives Beispiel serviert) hast du gut hervorgehoben; das ist wirklich die zuweilen bittere Ironie des Lebens.

  4. “Ich kann sehr gut verstehen, weshalb du dir diese Frage stellst, und um ehrlich zu sein, kann ich dir darauf auch keine Antwort geben, die dich zufriedenstellen wird”, antwortete Fiona. “Findest du denn, dass die K.I., die mein Vater verwendet hat, dich richtig beurteilt hat?”
    “Nein, das finde ich nicht”, entgegnete Kibe ihr. “Und das verärgert mich gerade.”
    “Siehst du, ich glaube du beantwortest dir deine Frage gerade selbst. Menschenkenntnis bedeutet eben nicht den Mensch nur nach seinem Lebenslauf einzuordnen und zu bewerten, sondern auch den Charakter einzuschätzen. Dabei spielen aber auch Emotionen, Handlungen und Denkweisen ein Rolle”, versuchte Fiona ihm zu erklären. “Findest du, dass ein Roboter, beziehungsweise eine Maschine wie Micky, das wirklich kann?”
    Das stimmte Kibe nachdenklich. Er schwieg und dachte über Fionas Worte nach.
    “Ein Roboter ist eine Apparatur, die bestimmte Funktionen eines Menschen ausführen kann”, ertönte plötzlich wieder Micky’s Roboterstimme.
    Kibe musste schmunzeln. “Naja du scheinst Recht zu haben. Hätte die K.I. von Micky eine gute Menschenkenntnis, würde sie wohl nicht immer in unpassenden Momenten etwas sagen. Vielleicht ist K.I. doch nicht so viel schlauer als wir Menschen, wie ich es vorhin gesagt habe und deine ethischen und pädagogischen Bedenken nicht ganz unberechtigt.”
    “Na siehst du, da hast du deine Antwort doch bekommen. K.I. ist einfach noch nicht so weit. Wer weiß, was in der Zukunft noch kommt und vielleicht erkennt Micky irgendwann sogar Ironie, aber zum jetzigen Zeitpunkt ist die Entwicklung einfach noch nicht so weit fortgeschritten. Ich glaube aber auch nicht, dass die K.I. jemals unfehlbar wird und über die perfekte Menschenkenntnis verfügen wird.”
    “Ja, die Entwicklung ist wohl noch nicht so weit. Aber ich glaube in Zukunft wird noch so vieles möglich, und ich halte es für Denkbar, dass die K.I. in allem besser sein wird als wir.”, entgegnete Kibe herausfordernd und diskussionsfreudig.
    “Bestimmt nicht!”, widersprach Fiona ihm und sie verstrickten sich in eine Diskussion darüber, wann die K.I. wohl über eine gute Menschenkenntnis verfügen würde und ob ein von Menschen programmierter Algorithmus unfehlbar sein könnte.

    1. Vielen Dank liebe Elisa! Deine Fortsetzung ist wirklich spannend! Im Dialog kommen die verschiedenen Argumente von Fiona und Kibe gut zur Geltung und Micky steuert mal wieder ungefragt Definitionen bei (diese kleine Nervensäge ;-)).

      Interessant, dass Fiona zur Menschenkenntnis auch Emotionen, Handlungen und Denkweisen hinzuzählt, die Menschenkenntnis also über eine reine Auswertung von faktischen Daten hinausgeht. Kibe scheint trotz seiner Zweifel optimistisch zu sein, dass eine K.I. in zukünftiger Weiterentwicklung mit menschlichen Fähigkeiten mithalten oder diese sogar übertreffen kann. Offen bleibt die Frage, ob eine K.I. jemals unfehlbar sein kann.

    1. Lieber Urs,
      ich bin völlig geflashed von deinem Ideenreichtum! In dieser dystopischen Zukunft, deren Ären sich nach Sterbewellen bemessen (makaber, aber gerade ziemlich aktuell), greift die K.I. Micky zum stärksten Mittel der Selbstermächtigung und gibt sich selbst einen Namen (so wie Napoléon, der sich die Kaiserkrone von Gottes Gnaden selbst auf den Kopf setzte) und erklärt so seine Unabhängigkeit von seinen menschlichen Schöpfern: „Ich heiße Micky, also bin ich!“

      Und was machen die Menschenschöpfer ob dieser Willensdemonstration von Micky? Ob Utopisten, Illusionisten oder Germanisten – sie debattieren hochintellektuell über die Namenswahl (die Verbindung über die Comic-Maus zur Ur-PC-Maus ist höchst amüsant) und vergessen darüber, welche realen Gefahren von der freigesetzten Beschlussmacht ihrer Kreatur nun ausgehen könnten.

      Das Lernszenario für die Kinder, verkabelt mit ihren Pads und im Spielrausch süchtig nach Wurzeln und Hypothenusen, mag so manchen derzeit stark beanspruchten Eltern im Home Office wie eine Fata Morgana erscheinen.

      Schon schwingt sich Micky mit näselnder Automaten-Autorität zum Herrscher auf, verbietet den Menschen den Ausbruch hinaus in die Frühlingsfreuden, unterdessen sind drohende Drohnen ihre Kerkermeister – ein Verlies selbst erschaffen mit vorsorgenden, lebenserhaltenden Algorithmen.

      Dann taucht aus archäologischer Ur-Computerzeit ein Relikt namens Atari auf – und zerschlägt mit fast göttlicher Blitzschlagmacht die digitale Diktatur. Eine Sternstunde der Geschichte! Oder beginnt ein neues Kapitel der Selbstunterwerfung???

      Vielen Dank für deinen genialen und witzigen Beitrag!

  5. Liebe Ulrike, liebe Dorit,
    ich habe es getan! Ich habe eure Geschichte weitererzählt, so wie ich sie mir wünschen würde: https://digitalschreiben.wordpress.com/2020/03/18/blogparade-lernwelten-2032/.
    Vermutlich hättet ihr ganz andere Vorstellungen, wie die Entwicklungen von Fiona und Kibe weitergehen – verzeiht meine Widerständigkeit! Ich danke euch für eure Impulse, über meine und die ganze Zukunft nachzudenken.
    Herzliche Grüße nach Berlin und KL: Amy

    1. Liebe Amy,
      ich habe herzlich gelacht über die berlinernde Pink-Mandy im Lifelong-Lörning-Stress und mit Gurkenfliejer-Nostalgie. Dass Kibe den Weg weg vom Hightech und hin zum menschennahen Nachhilfeunterricht in PC-Basics für graumelierte Vorrentner im sozialen „Brennpunkt“ Berlin Hellersdorf gefunden hat, gefällt mir sehr gut – es passt total zu seinem Charakter. Die bodenständige Aldi-Salami-Schrippe anstelle eines App-intelligenten Frühstücks – das hat Symbolkraft.

      Fiona hat sich offenbar auf ihre Waldorf-Wurzeln besonnen und ist ihrem Idealismus gefolgt (entgegen der Bevormundung ihres Vaters) und scheint sehr glücklich damit. Herrlich, dass sie Kibe Postkarten schreibt. Ein Dorftelefon gibt es auch schon. Wenn Micky hier wäre, dann würde er als metallische Vogelscheuche auf dem Feld stehen. Die Zeit scheint hier fast ein Jahrhundert zurück geschraubt zu sein, zumindest was den technologischen „Fortschritt“ anbelangt. Aber dafür haben sich die Menschen auf die wichtigen Elemente des sozialen Miteinanders zurück besonnen. Du beschreibst die ländliche Idylle mit Himbeer- und Holunderblütensirup zu frischem Brunnenwasser und die naturnahen Einrichtungen so lebendig, dass ich meine, den Duft von Gras, Blüten und Holz in der Nase zu haben und die Bienen summen zu hören.

      Vielen Dank für diesen utopischen Gegenentwurf zur digital optimierten und voll überwachten Zukunft von Menschen-Robotern.

  6. “Das wird jetzt ein bisschen wehtun”, warnt Fiona vor. Sie hat sich von einem Moment auf den anderen verändert, sieht fast ein bisschen bedrohlich aus, aber auch viel wacher und präsenter. “Ich denke, die Entscheidung meines”, sie macht eine kaum hörbare Pause und fährt dann fort, “Vaters war ganz richtig”. Kibe holt Luft, um etwas zu entgegnen, entschließt sich dann aber doch, weiter zuzuhören. Ungerührt spricht Fiona weiter: “Mein Vater baut Maschinen, lebt mit Maschinen und vertraut ihnen. Da ist es nur konsequent, dass er Menschen nicht danach beurteilt, wie sie auf ihn wirken, sondern danach, wie sie für Maschinen aussehen. Da ist es doch klar und richtig, dass er dem Urteil von Select the best folgt, was besseres gibt es nicht.”

    Das gibt Kibe zu denken. “Du meinst”, fragt er, “dass für deinen Vater Menschenkenntnis bedeutet, Menschen auszusuchen, die zu seinen Maschinen passen? Wer nicht in das Raster passt, fliegt raus, egal, was für menschliche Qualitäten er sonst haben mag?” Sie antwortet nicht und er sagt, mehr zu sich selbst. “Wenn das so ist, will ich da vielleicht gar kein Praktikum machen. Ich dachte, die Maschinen wären für die Menschen da, aber hier scheint es ja geradezu umgekehrt zu sein. Vielleicht sollte dein Vater dann ganz auf Menschen verzichten und sich nur noch mit Maschinen umgeben!”

    “Kann sein”, sagte Fiona nun in auffallend gleichmütigem Ton. Ich muss jetzt aber los, das Reden über sogenannte menschliche Qualitäten finde ich immer ein bisschen anstrengend. Unvermittelt steht sie auf – erst jetzt fällt Kibe auf, wie exakt und mechanisch ihre Bewegungen wirken – und geht mit gleichmäßigen Schritten davon, ohne sich noch einmal umzudrehen. Und jetzt, erst jetzt, bemerkt er auch das feine, leiser werdende Surren, das jede ihrer Bewegungen begleitet – wie von ganz vielen Zahnrädern.

    1. Vielen Dank lieber Henning für deinen Beitrag! 🙂 Das ist ein toller Twist, da stellen sich mir die Nackenhaare auf. Wie konnte ich – genau wie Kibe – so lange blind sein angesichts der wahren Beschaffenheit von Fiona??? Da hat ihr Vater ganze Arbeit geleistet.

    2. Hallo Henning,
      was für ein überraschendes Ende für diese Szene! Ich war beim Lesen genau so überrascht wie Kibe über Fionas kalte Worte. Dabei hatte sie eigentlich mit einem einfühlsamen Satz begonnen: “Das wird jetzt ein bisschen wehtun”.
      Wie fühlt es sich wohl an, wenn ich eine Künstliche Intelligenz als Gesprächspartnerin habe, die darauf programmiert ist, oft gefühlvolle Dinge zu mir zu sagen, indem sie ein entsprechendes Vokabular benutzt? Würde ich darauf einsteigen?
      In meinem Gefühlsleben als Mensch fände ich es wahrscheinlich schon (im ersten Moment) bitter, wenn diese K.I. einerseits so “gefühlsduselig” mit mir redet, aber mir dann auf der Inhaltsebene etwas Unsensibles vor den Kopf knallt. Das wäre ja fast psychologische Kriegsführung.

      Denkst du auch, dass eine K.I. einen Menschen im Gespräch emotional manipulieren kann?

      Viele Grüße (mit Sonne aus der Pfalz in die Rhein-Mosel-Region)
      Dorit

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.