Lernwelten 2030: Kapitel 7 – Eine Frage der Menschenkenntnis

Berlin: Am Campus der Ada Lovelace Universität – 28. Mai 2030, 9 Uhr – Fiona Kibe und Micky Mentor diskutieren über die Vorteile und Defizite einer K.I. in der Studienberatung

Fiona und Kibe saßen zusammen mit Micky Mentor in einem Gruppenarbeitsraum am Campus. Micky hatte einen sehr hilfsbereiten Charakter. Gerade schenkte er Fiona frisch aufgebrühten Kaffee aus einem All-in-One-Pot in eine Tasse auf dem Beistelltisch ein – und verschüttete dabei die Hälfte.

„Stopp Micky!“, rief Fiona und sprang auf, damit der heiße Kaffee nicht auf ihr Bein lief. Mickys große Augen in seinem blass schimmernden Gesicht schauten sie unverwandt an, dann erklang seine freundliche helle Stimme:

„Hast du dich erschrocken, Fiona? Kann ich sonst noch etwas für dich tun?“

„Beratungsmodus“, sagte Fiona knapp und um Mickys Augen leuchteten blaue Lämpchen auf, die ein Augenblinzeln imitierten. Micky war nämlich ein Roboter.

Kibe konnte sich ein Grinsen nicht verkneife, als er mit einigen Papiertüchern die Sauerei auf dem Tisch aufwischte.

„Als Praktikant würde Micky seine Probezeit jedenfalls nicht überstehen – wo er noch nicht einmal Kaffee servieren kann,“ lachte Kibe. „Da waren die Soft Robots aus meiner Ausbildung in Nairobi geschickter. Dafür hat Micky ein niedlicheres Gesicht.“

„Immerhin hat er an meiner Stimme erkannt, dass mich seine missglückte Einschenk-Aktion erschreckt hat“, sagte Fiona. Auch sie war amüsiert. Der humanoide Roboter mit seiner Größe von 1,40 Metern, seinem hübschen hellen Gesicht mit den riesigen Kulleraugen, die Kameralinsen waren, erfüllte das Kindchen-Schema und löste einen mütterlichen Beschützerinstinkt in Fiona aus – besonders, wenn er so ungeschickt war. Man sah Micky nicht an, wie intelligent er war.

FUTURA hatte eine Künstliche Intelligenz entwickelt, der für jeden studentischen User die komplette Studienplanung übernahm mit individualisierten Lern- und Qualifikationszielen, Fortschrittskontrollen, Motivationsboosts und Beratungsgesprächen. Das Ziel war, auf diese Weise jeden Studierenden individuell zur perfekt passenden Berufsqualifikation hinzuführen. Sie hatten die Künstliche Intelligenz „Micky Mentor“ getauft. Nun wollten Fiona und Kibe Micky auf seine Beratungsfähigkeiten testen. Kibe rief auf dem Smartboard die 3D-Mindmap mit ihrer bisherigen Ideensammlung auf.

„Ich kann besser denken, wenn ich hier was handschriftlich auf die bunten Karten schreibe und zeichne“, sagte Fiona. Dann befestigte sie die neuen Karten am Smartboard.

„So können wir die Zusammenhänge besser visualisieren. Ich denke besser mit den Händen.“

„Denken mit den Händen oder Thinking with Hands ist eine Kreativmethode, die Workshops kreativer, innovativer und wirksamer macht!“, meldete sich Micky ungefragt zu Wort.

„Danke für die Definition“, sagte Fiona ironisch.

„Bitte sehr“, antwortete Micky, der Ironie nicht verstand, und blinzelte sie blauäugig an.

Fiona und Kibe testeten Micky Mentor nun in mehreren Durchläufen von Beratungsgesprächen und die K.I. gab schlüssige Antworten und machte plausible Vorschläge.

„Ich finde, ab sofort können wir Micky in echten Beratungsgesprächen einsetzen und selbst als stille Beobachter dabei sitzen“, sagte Kibe enthusiastisch.

„Du willst einfach in die Pilotphase gehen? Aber wir müssen uns vorher Gedanken machen, ob wir diese K.I. überhaupt auf Menschen loslassen dürfen! Vor allem das mit der Reaktion auf Emotionen kann ganz schön daneben gehen. Wenn ein Studierender in der Beratung Entscheidungen treffen soll, die seine oder ihre Zukunft prägen, dann sollte die Mentor-Instanz auch so etwas wie Einfühlungsvermögen und Lebenserfahrung mitbringen“, sagte Fiona skeptisch. Sie dachte an die Sprechstunde bei Professorin Lindenbaum und wie wohl und gut verstanden sie sich dort gefühlt hatte. Dieser lächerliche Roboter konnte da doch niemals mithalten. 

„Kommst du jetzt schon wieder mit deinen ethischen und pädagogischen Bedenken? In den Algorithmen, die FUTURA entwickelt hat, steckt doch die Lebenserfahrung aus den gesammelten Daten drinnen“, hielt Kibe dagegen.

„Aber diese Algorithmen müssen auch ethischen Prinzipien folgen. Diese müssen wir Menschen ihnen einprogrammieren“, sagte Fiona. „Dass die K.I. meine Lernaktivitäten auswertet und mir zum Beispiel fürs My-Path-Portfolio Vorschläge für meine nächsten Lerneinheiten macht, ist natürlich praktisch. Aber meine Lernbiografie gehört mir! Wenn die K.I. demnächst mein Leben steuern will, weil sie angeblich besser als ich weiß, welche Qualifikationen ich für meinen Traumjob sammeln muss, kriege ich Zweifel!“, gab Fiona vehement zu bedenken.

„Warum? Kein Mensch kann das alles so gut überblicken, was die K.I. weiß. Mit den vielen ‘Profilen’ aus den vorigen Bildungs- und Berufswegen kann die K.I. dich sehr wohl passgenau anleiten. Es hat sich in vielen Feldern bewährt, dass aus Daten der Vergangenheit Prognosen für die Zukunft getroffen werden“, sagte Kibe.

„Das mag sein. Aber ich habe ein Problem damit, wie diese Profile von den anderen Usern erstellt und ausgewertet werden. Guck dir doch nur an, wie die Algorithmen mit Daten zu Geschlecht und Ethnie der Lernenden umgehen. Wenn in der Vergangenheit vor allem „weiße Männer“ in den Chefetagen saßen, dann ist deren Bildungsweg zum Erfolg doch keine Blaupause für dich oder mich! Deshalb müssen wir uns gut überlegen, welche Algorithmen wir der K.I. geben, denn da steckt unsere Ethik drin!“ 

Kibe schwieg und dachte nach. Das Vibrieren seines Smartphones riss ihn aus seinen Gedanken. Er schaute auf die neu eingegangene Nachricht.

 

„Was ist das denn?! Dein Vater hat mich für die Praktikumsstelle bei FUTURA abgelehnt? Dabei hatte er mich doch selbst eingeladen!“, rief Kibe. „Und was soll diese Gap Analysis? Da steht: „Um die ausgeschriebene Stelle anzutreten, müssen Sie diese fehlenden Qualifikationen erwerben…“ 

„Dass du rausgefiltert wurdest, wundert mich nicht. Mein Vater setzt für die Bewerbungsauswahl die K.I. „Select the Best“ ein“, erklärte Fiona. „Da siehst du mal, wie schlecht dich diese Algorithmen eingeschätzt haben! Gerade hast du noch ihr Loblied gesungen.“

„Dein Vater vertraut also mehr auf diese K.I., als auf seine eigene Menschenkenntnis. Er hatte mir doch gesagt, dass ich mich in seinem Workshop bewährt hatte“, stellte Kibe verbittert fest.

„Menschenkenntnis wird definiert als das Vermögen, andere Menschen richtig zu beurteilen,“ sagte Micky und schaute Kibe treuherzig aus seinen Kameraaugen an. Fiona und Kibe starrten den Roboter überrascht an. Während ihrer Diskussion hatten sie völlig vergessen, dass die K.I. jedes ihrer Worte mithörte und auf Schlüsselwörter reagierte.

„Micky, wer hat die bessere Menschenkenntnis, ein Mensch oder eine K.I.?“, fragte Kibe und fixierte das freundliche Robotergesicht mit wütend zusammen gezogenen Augenbrauen.

„’Menschenkenntnis ist das einzige Fach, in dem man ständig unterrichtet wird’. Das ist ein Spruch von Alberto Moravia. Möchtest du weitere Zitate aus der Literaturdatenbank zur Menschenkenntnis oder Hintergrundinformationen zu Alberto Moravia?“, fragte Micky. Als Kibe nicht antwortete, fuhr die Roboterstimme gleichmütig fort:

„K.I. steht für Künstliche Intelligenz. Diese bezeichnet den Versuch, bestimmte Entscheidungsstrukturen des Menschen nachzubilden, indem zum Beispiel ein Computer so gebaut und programmiert wird, dass er relativ eigenständig Probleme bearbeiten kann. Im Verständnis des Begriffs Künstliche Intelligenz spiegelt sich die aus der Aufklärung stammende Vorstellung vom „Menschen als Maschine“ wider, dessen Nachahmung sich die sogenannte starke KI zum Ziel setzt: eine Intelligenz zu erschaffen, die das menschliche Denken mechanisieren soll, bzw. eine Maschine zu konstruieren und zu bauen, die intelligent reagiert oder sich eben wie ein Mensch verhält.“

Micky blinzelte wieder blauäugig und wartete auf weitere Fragen oder Befehle. Kibe schnaubte frustriert.

„Auf Oder-Fragen kann Micky immer noch nicht antworten,“ stellte Fiona fest.

„Hast du denn eine Antwort auf meine Frage?“, sagte Kibe und schaute Fiona herausfordernd an, seine Augen glänzten. Im Gegensatz zu Micky erkannte sie, dass dieses Glänzen Tränen der Enttäuschung waren.

Hier endet die Gesprächsaufzeichnung. Wie könnte das Gespräch weitergehen? Wir möchten Sie, liebe Leserinnen und Leser, dazu einladen, diese Szene weiterzuschreiben und zu diskutieren.

Foto von Gerd Altmann, frei nutzbar nach Pixabay License

<<<  Zu Kapitel  6  |  Ende der Story |  Zur Blogparade

Hier geht es zum Überblick und Wegweiser

Begriffserläuterungen: Digitales und Kenia

Bezugspunkte: Fachliteratur und Populärkultur

Personen und Schauplätze

Die Autorinnen stellen sich vor

Titelbild:  Foto von Gerd Altmann, frei nutzbar nach Pixabay License

Print Friendly, PDF & Email
Please follow and like us:
error

40 Antworten auf „Lernwelten 2030: Kapitel 7 – Eine Frage der Menschenkenntnis“

  1. Liebe Ulrike und Dorit,
    in diesem Kapitel gibt es einiges, was ich gerne diskutieren würde. Nämlich würde ich Fiona in der Hinsicht Recht geben, dass man selbst noch über sein Leben bestimmen sollte und sein Leben nicht rein nach den Empfehlungen einer K.I. ausrichten sollte. Ich bin davon überzeugt, dass es nicht nur einen Weg ans Ziel gibt und manchmal ist es für die persönliche Weiterentwicklung sogar förderlich, ein paar “Umwege” zu nehmen. Außerdem kann selbst eine K.I. nicht in die Zukunft schauen (was freiwerdende Stellen angeht) und jede Arbeitsstelle hat andere Anforderungen, weshalb die Empfehlungen nie genau so zielgerichtet sein können.
    Fionas Gedanken zur Einprogrammierung von Ethikvorstellungen finde ich enorm wichtig und “innovativ”, jedoch sehe ich ein Problem darin, dass jeder Mensch individuelle Vorstellungen ethischer Werte hat und nur die ethischen Wertvorstellungen weniger Personen letztlich in eine Vielzahl von K.I.’s eingebaut wird.
    Was mir außerdem negativ aufgefallen ist, war das ständige Reinreden von Micky. Obwohl er als solch eine liebenswürdige Figur beschrieben wurde, bin ich ihm eher abgeneigt, da ich es als störend empfinde, ungefragte Kommentare zu bekommen, wenn das Gespräch zwischen zwei anderen Personen stattfindet. Mich würde das eher aus dem Konzept bringen und mit meinen eigenen Gedanken interferieren. Außerdem kommt hier wieder rüber, dass keine Privatsphäre existiert. Mal davon abgesehen, dass seine Kommentare keinen wirklichen Mehrwert für das Gespräch hatten, sie waren sehr willkürlich und haben nur auf Schlagworte und nicht den Kontext reagiert.
    Liebe Grüße,
    Sandra

    1. Vielen Dank liebe Sandra! Deine Gedanken zur Ethik und inwieweit man überhaupt einen Konsens finden kann, bevor man sie einer K.I. einprogrammiert, machen einen guten Raum zur Diskussion auf.
      Ich denke da z.B. an selbstfahrende Autos, denen der Programmierer vorgeben muss, wie es in einer nahenden Unfallsituation reagieren soll (wenn es z.B. um die Abwägung von zwei Übeln geht, entweder eine Gruppe von Menschen zu überfahren oder nur einen Einzigen – das sind sehr komplexe philosophische, ethische und strafrechtliche Fragen, auf die Fachleute kaum eine Einigung finden).

  2. “Weißt du Kibe,” sagte Fiona sanft. “Ich glaube auf diese Frage kann es keine eindeutige Antwort geben. Wie würdest du denn Menschenkenntnis für dich definieren?”
    Kibe überlegte einen kurzen Augenblick, doch bevor er fertig war, sich Gedanken darüber zu machen, wurde er auch schon von Micky aus seinen Gedanken gerissen: “Menschenkenntnis ist die Fähigkeit, das Verhalten oder den Charakter von Menschen aufgrund eines ersten Eindrucks richtig einzuschätzen, zu erkennen und zu beurteilen, und vorherzusagen wie sie denken und wie sie handeln werden.”
    “Danke Micky!” entgegnete Fiona dem Roboter wütend.
    “Habe ich dich verärgert Fiona? Ich konnte Wut in deiner Stimme erkennen” fragte Micky daraufhin.
    “Micky, gehe in Standby Modus!” befahl Fiona dem Roboter.
    “Siehst du Kibe?” wandte sich Fiona erneut sanft an Kibe. “Micky hat nicht verstanden, dass du gerade im Begriff warst, dir selbst eine Definition zu überlegen. In der Zukunft kann sich das alles noch ändern, aber zur Zeit sind die Maschinen noch nicht in der Lage, zwischenmenschliche Interaktionen angemessen und korrekt zu interpretieren. Sie sind schließlich nicht unfehlbar und vom derzeitigen Stand der Entwicklung bei weitem noch nicht so fortgeschritten. Doch auch Menschen sind nicht perfekt darin. Nicht alle Menschen können Stimmungen gut lesen und missinterpretieren Situationen und Aussagen gelegentlich aufgrund ihrer eigenen Erfahrungen. Gerade bei Personen, die einen großen Defizit in ihrer Sozialkompetenz haben, können K.I.’s durchaus unterstützend wirken. Da sie auch so ein umfassendes Wissen besitzen und permanent neue Informationen erhalten unter anderem auch über menschliches Verhalten, denke ich jedoch im Allgemeinen schon, dass K.I.’s giga informiert sind über alle unsere Lebensbereiche hinweg.”
    Fiona pausierte, um Kibe Zeit zu geben, um über ihre Antwort nachzudenken.
    “So habe ich das noch nie betrachtet” sagte Kibe nachdenklich. Sein Blick schweifte durch den Raum und blieb an Micky hängen, der regungslos dastand, wie eingefroren.
    Zögerlich redete Kibe weiter: “Der Begriff der Menschenkenntnis alleine sagt ja noch nichts über die daraus resultierenden Handlungen aus.”
    “Wobei man ja eigentlich davon ausgeht, dass das eigene Verhalten an die “Erkenntnisse” angepasst würde. Über diese Frage habe ich schon länger nachgedacht, bin aber nie zu einer befriedigenden Antwort gekommen. Ich denke aber, dass ich auf dieser Grundlage eine recht gute Antwort für mich selbst gefunden habe.” sagte Kibe nun überzeugt. Die Konversation hatte ihn merklich angeregt. Fiona konnte ein euphorisches Funkeln in seinen Augen aufflammen sehen.
    “Schön, das freut mich Kibe” sagte Fiona freudig. “Wollen wir uns einen kleinen Snack holen? Ich bekomme allmählich echt einen Bärenhunger und habe giga Lust auf was Süßes!”
    “Klar!” sagte Kibe, nahm seine Tasche. Gemeinsam verließen Fiona und Kibe den Raum. Auf dem Weg zur Cafeteria diskutierten sie angeregt darüber, ob Micky wirklich schon bereit für die Pilotphase war.

    1. Vielen Dank liebe Sandra. Ich bin ganz begeistert von deiner Szene!! Du hast die Frage nach der Menschkenntnis sehr interessant weiter gesponnen (z.B. ist sie bei jedem Menschen in gleichem Maße vorhanden und inwieweit beeinflusst sie das menschliche – und K.I. unterstützte – Miteinander).
      Mir gefällt auch, dass du Micky in seinem dazwischen Quaken witzig eingebaut hast und im Kontrast Fiona schilderst, wie sie einfühlsam Pausen macht und beiden Zeit zum Nachdenken lässt – das finde ich giga gut! 🙂

    2. Liebe Sandra,

      ich fand es sehr schön, wie du Fionas Coaching beschrieben hast. Sie hat Kibe ein paar Hinweise mitgegeben, die ihn dann zum Nachdenken angeregt haben. Meiner Meinung nach hat Kibe, berechtigter Weise, sehr emotional auf die Entscheidung von Fionas Vater reagiert. Da waren Fionas einfühlsame Worte vielleicht genau das richtig.

      Mir hat auch gefallen, dass du zu Beginn Micky noch ein paar unwillkommene Kommentare hast machen lassen. 😉

      Mich würde interessieren, wieso du dich für einen einsichtigen Kibe entschieden hast? Er hätte genau so gut auch gegen Fiona gehen können.

      Liebe Grüße,
      Michelle

      1. Liebe Michelle,

        danke für deinen Kommentar und deine Frage. 🙂

        Aus der vorangegangenen Geschichte hatte ich den Eindruck, dass Kibe sehr ausgeglichen und wissenshungrig ist. Ich habe mir vorgestellt, dass er seine Emotionen, egal wie enttäuscht, verärgert oder frustriert, nicht (gerne) an anderen Personen auslassen würde. Und ich habe versucht in meiner Fortsetzung der Geschichte rüberzubringen, dass Fiona eine beruhigende Wirkung auf Kibes “überkochende” Emotionen hat und im Gegensatz zu Micky wirklich auf ihn eingeht. Sie versucht durch ihre anregenden Denkanstöße den Klärungsbedarf für Kibe wenigstens teilweise decken.

        Ich finde es interessant, dass du einen wütenden Kibe in Erwägung gezogen hast. Diese Reaktion ist mir beim Schreiben gar nicht in den Sinn gekommen.

        Liebe Grüße,
        Sandra

        1. Liebe Sandra,

          vielen Dank für deine Antwort! 😊

          Ich muss dir zustimmen, dass Kibe bisher sehr besonnen schien. Mir kam nur seine Enttäuschung so extrem vor, dass ich das tatsächlich zunächst außer Betracht gelassen hatte. Trotzdem finde ich es sehr interessant, dass dir ein anderer Kibe gar nicht in den Sinn kam! Da hast du wohl mehr an den Charakter gehalten, wie ich zunächst.

          Liebe Grüße,
          Michelle

  3. Liebe Ulrike, Liebe Dorit,
    ich finde es sehr interessant zu sehen, dass Fiona, von der ich bisher den Eindruck hatte, dass sie sämtliche K.I. unterstützte Tools eher begrüßt als ablehnt in diesem Kapitel Zweifel an den Beratungskompetenzen einer K.I. äußert. Dabei bin ich mit meiner Meinung ganz bei ihr, dass Empathie und Lebenserfahrung der Beratungsperson nicht unwichtig sein können. Das zeigt sich auch im Zuge der nervigen Zwischenkommentare von welchen ein empathiefähiger Mensch absehen würde. Ich würde mich auch bei einer Person besser aufgehoben fühlen, als bei einem Roboter, der mir zwar die genausten Daten liefern kann, mich aber vermutlich weniger dazu animiert mutig zu sein und meine Gefühle nicht versteht und mir schlimmstenfalls nur einprogrammierte vorgefertigte Antworten gibt. Die K.I. berücksichtigt schließlich auch nur die berechenbaren Alternativen.
    Zur Thematik der ethischen Werte möchte ich mich dem Kommentar von Sandra anschließen. Hier finde ich es auch sehr spannend, dass Fiona und Kibe gegensätzliche Meinungen vertreten. Auch, dass Kibe die Algorithmen der künstlichen Intelligenz verteidigt und dann aufgrund dieser aus dem Bewerbungsverfahren gefiltert wird finde ich geradezu ironisch.
    Viele Grüße
    Elisa

    1. Vielen Dank liebe Elisa! Sehr interessant, dass du die Empathie im Gespräch nicht nur auf die Inhalte, sondern auch auf die Interaktion beziehst (z.B. zu erkennen, wann es besser ist, dem Gegenüber Denkpausen zu geben und nicht ungefragt zu allem seine Belehrungen beizusteuern). Auch den Widerstreit zwischen Kibes Überzeugungen (in der Theorie pro K.I. – in der Praxis bekommt er am eigenen Leib ein negatives Beispiel serviert) hast du gut hervorgehoben; das ist wirklich die zuweilen bittere Ironie des Lebens.

  4. “Ich kann sehr gut verstehen, weshalb du dir diese Frage stellst, und um ehrlich zu sein, kann ich dir darauf auch keine Antwort geben, die dich zufriedenstellen wird”, antwortete Fiona. “Findest du denn, dass die K.I., die mein Vater verwendet hat, dich richtig beurteilt hat?”
    “Nein, das finde ich nicht”, entgegnete Kibe ihr. “Und das verärgert mich gerade.”
    “Siehst du, ich glaube du beantwortest dir deine Frage gerade selbst. Menschenkenntnis bedeutet eben nicht den Mensch nur nach seinem Lebenslauf einzuordnen und zu bewerten, sondern auch den Charakter einzuschätzen. Dabei spielen aber auch Emotionen, Handlungen und Denkweisen ein Rolle”, versuchte Fiona ihm zu erklären. “Findest du, dass ein Roboter, beziehungsweise eine Maschine wie Micky, das wirklich kann?”
    Das stimmte Kibe nachdenklich. Er schwieg und dachte über Fionas Worte nach.
    “Ein Roboter ist eine Apparatur, die bestimmte Funktionen eines Menschen ausführen kann”, ertönte plötzlich wieder Micky’s Roboterstimme.
    Kibe musste schmunzeln. “Naja du scheinst Recht zu haben. Hätte die K.I. von Micky eine gute Menschenkenntnis, würde sie wohl nicht immer in unpassenden Momenten etwas sagen. Vielleicht ist K.I. doch nicht so viel schlauer als wir Menschen, wie ich es vorhin gesagt habe und deine ethischen und pädagogischen Bedenken nicht ganz unberechtigt.”
    “Na siehst du, da hast du deine Antwort doch bekommen. K.I. ist einfach noch nicht so weit. Wer weiß, was in der Zukunft noch kommt und vielleicht erkennt Micky irgendwann sogar Ironie, aber zum jetzigen Zeitpunkt ist die Entwicklung einfach noch nicht so weit fortgeschritten. Ich glaube aber auch nicht, dass die K.I. jemals unfehlbar wird und über die perfekte Menschenkenntnis verfügen wird.”
    “Ja, die Entwicklung ist wohl noch nicht so weit. Aber ich glaube in Zukunft wird noch so vieles möglich, und ich halte es für Denkbar, dass die K.I. in allem besser sein wird als wir.”, entgegnete Kibe herausfordernd und diskussionsfreudig.
    “Bestimmt nicht!”, widersprach Fiona ihm und sie verstrickten sich in eine Diskussion darüber, wann die K.I. wohl über eine gute Menschenkenntnis verfügen würde und ob ein von Menschen programmierter Algorithmus unfehlbar sein könnte.

    1. Vielen Dank liebe Elisa! Deine Fortsetzung ist wirklich spannend! Im Dialog kommen die verschiedenen Argumente von Fiona und Kibe gut zur Geltung und Micky steuert mal wieder ungefragt Definitionen bei (diese kleine Nervensäge ;-)).

      Interessant, dass Fiona zur Menschenkenntnis auch Emotionen, Handlungen und Denkweisen hinzuzählt, die Menschenkenntnis also über eine reine Auswertung von faktischen Daten hinausgeht. Kibe scheint trotz seiner Zweifel optimistisch zu sein, dass eine K.I. in zukünftiger Weiterentwicklung mit menschlichen Fähigkeiten mithalten oder diese sogar übertreffen kann. Offen bleibt die Frage, ob eine K.I. jemals unfehlbar sein kann.

    2. Liebe Elisa,

      Du hast hier eine sehr schöne Erklärung für Kibe dagelassen. Nein, die K.I.‘s denken (zumindest noch nicht) genau so wie Menschen. Denkst du, dass es mal dazu kommen wird? Glaubst du, dass K.I.‘s irgendwann die Bewerbungen deswegen übernehmen?

      Ich finde da ein äußerst interessantes Thema. Vorstellen kann ich es mir nur sehr schwer, da unsere Technik noch weit davon entfernt ist.

      Liebe Grüße,
      Michelle

    1. Lieber Urs,
      ich bin völlig geflashed von deinem Ideenreichtum! In dieser dystopischen Zukunft, deren Ären sich nach Sterbewellen bemessen (makaber, aber gerade ziemlich aktuell), greift die K.I. Micky zum stärksten Mittel der Selbstermächtigung und gibt sich selbst einen Namen (so wie Napoléon, der sich die Kaiserkrone von Gottes Gnaden selbst auf den Kopf setzte) und erklärt so seine Unabhängigkeit von seinen menschlichen Schöpfern: „Ich heiße Micky, also bin ich!“

      Und was machen die Menschenschöpfer ob dieser Willensdemonstration von Micky? Ob Utopisten, Illusionisten oder Germanisten – sie debattieren hochintellektuell über die Namenswahl (die Verbindung über die Comic-Maus zur Ur-PC-Maus ist höchst amüsant) und vergessen darüber, welche realen Gefahren von der freigesetzten Beschlussmacht ihrer Kreatur nun ausgehen könnten.

      Das Lernszenario für die Kinder, verkabelt mit ihren Pads und im Spielrausch süchtig nach Wurzeln und Hypothenusen, mag so manchen derzeit stark beanspruchten Eltern im Home Office wie eine Fata Morgana erscheinen.

      Schon schwingt sich Micky mit näselnder Automaten-Autorität zum Herrscher auf, verbietet den Menschen den Ausbruch hinaus in die Frühlingsfreuden, unterdessen sind drohende Drohnen ihre Kerkermeister – ein Verlies selbst erschaffen mit vorsorgenden, lebenserhaltenden Algorithmen.

      Dann taucht aus archäologischer Ur-Computerzeit ein Relikt namens Atari auf – und zerschlägt mit fast göttlicher Blitzschlagmacht die digitale Diktatur. Eine Sternstunde der Geschichte! Oder beginnt ein neues Kapitel der Selbstunterwerfung???

      Vielen Dank für deinen genialen und witzigen Beitrag!

    2. Liebe Elisa,

      Eine wirklich äußerst interessante Weiterführung des Kapitels. Besonders in Anblick der jetzigen Situation hat mich das Kapitel sehr gefesselt.

      Den Charakter von Micky hast du dabei sehr schön gelassen: anstrengend und man hört nur das, was man vielleicht nicht gerade hören möchte. Das Ende kam mir dann doch sehr abrupt.

      Das unsere Erde so dystopisch aussehen wird und wir auch nur noch zu Millardend auf der Erde leben werden sehr schwer vorstellbar. Wie kamst du zu dieser Idee?

      Außerdem würde mich interessieren, wie Universitäten oder Ausbildungsplätze in deiner Zukunft gestaltet sind.

      Liebe Grüße,
      Michelle

  5. Liebe Ulrike, liebe Dorit,
    ich habe es getan! Ich habe eure Geschichte weitererzählt, so wie ich sie mir wünschen würde: https://digitalschreiben.wordpress.com/2020/03/18/blogparade-lernwelten-2032/.
    Vermutlich hättet ihr ganz andere Vorstellungen, wie die Entwicklungen von Fiona und Kibe weitergehen – verzeiht meine Widerständigkeit! Ich danke euch für eure Impulse, über meine und die ganze Zukunft nachzudenken.
    Herzliche Grüße nach Berlin und KL: Amy

    1. Liebe Amy,
      ich habe herzlich gelacht über die berlinernde Pink-Mandy im Lifelong-Lörning-Stress und mit Gurkenfliejer-Nostalgie. Dass Kibe den Weg weg vom Hightech und hin zum menschennahen Nachhilfeunterricht in PC-Basics für graumelierte Vorrentner im sozialen „Brennpunkt“ Berlin Hellersdorf gefunden hat, gefällt mir sehr gut – es passt total zu seinem Charakter. Die bodenständige Aldi-Salami-Schrippe anstelle eines App-intelligenten Frühstücks – das hat Symbolkraft.

      Fiona hat sich offenbar auf ihre Waldorf-Wurzeln besonnen und ist ihrem Idealismus gefolgt (entgegen der Bevormundung ihres Vaters) und scheint sehr glücklich damit. Herrlich, dass sie Kibe Postkarten schreibt. Ein Dorftelefon gibt es auch schon. Wenn Micky hier wäre, dann würde er als metallische Vogelscheuche auf dem Feld stehen. Die Zeit scheint hier fast ein Jahrhundert zurück geschraubt zu sein, zumindest was den technologischen „Fortschritt“ anbelangt. Aber dafür haben sich die Menschen auf die wichtigen Elemente des sozialen Miteinanders zurück besonnen. Du beschreibst die ländliche Idylle mit Himbeer- und Holunderblütensirup zu frischem Brunnenwasser und die naturnahen Einrichtungen so lebendig, dass ich meine, den Duft von Gras, Blüten und Holz in der Nase zu haben und die Bienen summen zu hören.

      Vielen Dank für diesen utopischen Gegenentwurf zur digital optimierten und voll überwachten Zukunft von Menschen-Robotern.

    2. Liebe Miss Novice bzw Amy,

      vielen Dank für deine Weiterführung vom 7. Kapitel, es war wirklich sehr interessant sie zu lesen.

      Mir hat es zu Beginn sehr gefallen, dass die Technik wohl auch in der Zukunft andere überfordert wird und nicht jeder auf die neuste Technik im Jahre 2032 angesprungen ist. Sehr überrascht hast du mich mit Fiona: Sie hat in der Technik quasi gelebt und lebt jetzt ganz ohne sie. Das fand ich sehr erstaunlich und kam mir zuvor gar nicht in den Sinn!

      Mich würde sehr interessieren, warum du dich dagegen entschieden hast Kibe und Fiona nach Afrika zu schicken, um dort auszuhelfen. Für mich kam nämlich in der Geschichte heraus, dass die Beiden in Kenia sehr gerne helfen wollen.

      Liebe Grüße,
      Michelle

  6. “Das wird jetzt ein bisschen wehtun”, warnt Fiona vor. Sie hat sich von einem Moment auf den anderen verändert, sieht fast ein bisschen bedrohlich aus, aber auch viel wacher und präsenter. “Ich denke, die Entscheidung meines”, sie macht eine kaum hörbare Pause und fährt dann fort, “Vaters war ganz richtig”. Kibe holt Luft, um etwas zu entgegnen, entschließt sich dann aber doch, weiter zuzuhören. Ungerührt spricht Fiona weiter: “Mein Vater baut Maschinen, lebt mit Maschinen und vertraut ihnen. Da ist es nur konsequent, dass er Menschen nicht danach beurteilt, wie sie auf ihn wirken, sondern danach, wie sie für Maschinen aussehen. Da ist es doch klar und richtig, dass er dem Urteil von Select the best folgt, was besseres gibt es nicht.”

    Das gibt Kibe zu denken. “Du meinst”, fragt er, “dass für deinen Vater Menschenkenntnis bedeutet, Menschen auszusuchen, die zu seinen Maschinen passen? Wer nicht in das Raster passt, fliegt raus, egal, was für menschliche Qualitäten er sonst haben mag?” Sie antwortet nicht und er sagt, mehr zu sich selbst. “Wenn das so ist, will ich da vielleicht gar kein Praktikum machen. Ich dachte, die Maschinen wären für die Menschen da, aber hier scheint es ja geradezu umgekehrt zu sein. Vielleicht sollte dein Vater dann ganz auf Menschen verzichten und sich nur noch mit Maschinen umgeben!”

    “Kann sein”, sagte Fiona nun in auffallend gleichmütigem Ton. Ich muss jetzt aber los, das Reden über sogenannte menschliche Qualitäten finde ich immer ein bisschen anstrengend. Unvermittelt steht sie auf – erst jetzt fällt Kibe auf, wie exakt und mechanisch ihre Bewegungen wirken – und geht mit gleichmäßigen Schritten davon, ohne sich noch einmal umzudrehen. Und jetzt, erst jetzt, bemerkt er auch das feine, leiser werdende Surren, das jede ihrer Bewegungen begleitet – wie von ganz vielen Zahnrädern.

    1. Vielen Dank lieber Henning für deinen Beitrag! 🙂 Das ist ein toller Twist, da stellen sich mir die Nackenhaare auf. Wie konnte ich – genau wie Kibe – so lange blind sein angesichts der wahren Beschaffenheit von Fiona??? Da hat ihr Vater ganze Arbeit geleistet.

    2. Hallo Henning,
      was für ein überraschendes Ende für diese Szene! Ich war beim Lesen genau so überrascht wie Kibe über Fionas kalte Worte. Dabei hatte sie eigentlich mit einem einfühlsamen Satz begonnen: “Das wird jetzt ein bisschen wehtun”.
      Wie fühlt es sich wohl an, wenn ich eine Künstliche Intelligenz als Gesprächspartnerin habe, die darauf programmiert ist, oft gefühlvolle Dinge zu mir zu sagen, indem sie ein entsprechendes Vokabular benutzt? Würde ich darauf einsteigen?
      In meinem Gefühlsleben als Mensch fände ich es wahrscheinlich schon (im ersten Moment) bitter, wenn diese K.I. einerseits so “gefühlsduselig” mit mir redet, aber mir dann auf der Inhaltsebene etwas Unsensibles vor den Kopf knallt. Das wäre ja fast psychologische Kriegsführung.

      Denkst du auch, dass eine K.I. einen Menschen im Gespräch emotional manipulieren kann?

      Viele Grüße (mit Sonne aus der Pfalz in die Rhein-Mosel-Region)
      Dorit

    3. Lieber Henning

      Deine Fortsetzung hat mich wegen Fionas unerwarteter Zustimmung mit der Entscheidung ihres Vaters sehr gefesselt. Als ich dann zum Ende kam, war ich sehr überrascht. Fiona soll ein Robot sein? Damit habe ich nun wirklich nicht gerechnet.

      Kamst du zu dem Entschluss, da Fionas Vater sehr von Technik abhängt oder wieso hast du dich für die K.I. Namens Fiona entschieden?

      Schwierig find ich es schon mir das Vorzustellen. Hätte man die K.I. dann nicht als perfekte Tochter kreiert? Ich kann mir nur sehr schwer vorstellen, dass Fiona in seinem Unterricht so agiert hätte.

      Liebe Grüße,
      Michelle

      1. Hallo Michelle,
        ich denke, dass Henning absichtlich keine Erklärungen mitgeliefert hat, um für uns Lesende einen großen Interpretationsspielraum offenzulassen. In Science Fiction ist ja viel möglich.
        Ich habe mir dazu gedacht, dass die Fiona, die wir in den vorigen Szenen (Kapiteln) kennengelernt haben, die echte menschliche Fiona war. Aber ihr Vater Frankenfels hat heimlich einen lebensechten Klon (Replikanten) von ihr erstellt und mit K.I. ausgestattet. Um zu testen, ob die Menschen den Unterschied zwischen der echten und der künstlichen Fiona merken, hat er die Replikantin zu Kibe geschickt…
        LG Dorit

  7. Hallo Zusammen,

    die Studienberatung finde ich sehr interessant. Ich denke, dass ich Micky auch benutzen würde, wenn ich die Wahl hätte. Manchmal ist es dann doch sehr schwierig, alles im Blick zu haben.
    Auch Tipps und Hinweise für meine Lerneinheiten würde ich sehr gerne annehmen.

    Dennoch finde ich es schwierig, dass die K.I. die Beratung in relevanten Themen übernehmen soll. So wie Fiona habe ich auch dieselbe Skepsis hier.

    Was denkt ihr dazu?

    Liebe Grüße,
    Michelle

  8. Hallo alle zusammen,

    KI in der Studienberatung – ein interessantes Thema. Kurz gefasst: Ich glaube wirklich, dass eine digitale Ergänzung des Angebots in der Studienberatung viele Potenziale birgt. Es werden in diesem Kapitel ja auch schon einige Aspekte angesprochen, wie zum Beispiel individuelle Lernziele oder Fortschrittskontrollen, die von einer KI für jeden Studierenden erstellt werden. Ich denke aber, dass man dieses Thema von zwei Seiten her betrachten und differenzieren muss.

    Einerseits gibt es Aufgaben und Tätigkeiten in der Studienberatung, die sich wunderbar „automatisieren“ lassen und sich daher perfekt für KI eignen, ein bisschen so wie sich Fließbandarbeit auch für „wenig qualifizierte“ Beschäftigte eignet. Ich denke dabei an Funktionen wie Stundenplanerstellung, Motivationszitate oder regelmäßige Fortschrittskontrollen, um beispielsweise den CP-Stand zu überprüfen. Die KI könnte zum Beispiel Warnungen und Prognosen erstellen, wenn die Durchschnittsnote droht, sich zu verschlechtern. Außerdem könnte ich mir sehr gut den Einsatz von Chatbots vorstellen, denen Studierende Fragen zum Studiengang stellen können. Der Chatbot könnte sie dann zum Beispiel auf jeweils passende Websites der Uni weiterleiten oder automatisch den richtigen Ansprechpartner für bestimmte Themen nennen.

    Auf der anderen Seite steht das eigentliche Beratungsgespräch. Wenn Studierende in ihrem Studiengang einfach nicht mehr weiterwissen oder sich verloren fühlen, ist meiner Meinung nach immer noch ein Mensch der richtige Ansprechpartner. Probleme und Sorgen sind von Studierendem zu Studierendem so individuell unterschiedlich (und manchmal emotional sehr komplex), sodass eine KI nach dem jetzigen Stand der Technik schlicht nicht in der Lage wäre, adäquat zu helfen. Wie man im Kapitel 7 sieht, hat ja selbst im modernen Jahr 2030 die KI immer noch so ihre Probleme mit Mehrdeutigkeiten oder Emotionen…

    Aber wer weiss, vielleicht ist KI bald sogar menschlicher als wir Menschen? Vielleicht gelingt es ja irgendwann einmal, eine KI zu designen und zu konstruieren, die Emotionen und seelische Vorgänge sogar noch besser versteht als jeder Psychologe auf dieser Welt. Dann würden sich ganz neue Möglichkeiten für die Studierendenberatung eröffnen… Aber wie war das nochmal mit den Robotern und der Weltherrschaft der Maschinen? 😉

    Grüße,

    Denise

  9. Hallo!
    Ich kann Fiona vollkommen nachvollziehen. Selbstverständlich sollten K.I.‘s immer mit bedacht auf die Menschheit losgelassen werden, auch wenn diese insbesondere durch ihre Funktionen den Alltag des Menschen erleichtern, wenn nicht sogar perfektionieren, sollen. Daher stellt sich Fiona zu Recht die Frage, inwieweit man sich als Mensch auf die K.I. verlassen kann und wie abhängig man sich von dieser machen sollte. Denn dadurch würde diese einen erheblichen Einfluss auf das Leben des Menschen nehmen. Dies gilt vor allem dann, wenn die K.I. dafür genutzt wird, die Steuerung des Lebens durch Auswertungen zu beeinflussen.
    Gleichzeitig finde ich es interessant, denn wie Micky selbst definiert, handelt es sich bei der K.I. um eine künstliche Intelligenz, die so entworfen wird, dass diese die Entscheidungsstruktur des Menschen eigenständig nachbilden kann. Eventuell gilt es in der Zukunft der mechanisierten Denkweise einen nicht so hohen Stellenwert zukommen zu lassen. Sondern eher als Entscheidungshilfe heranzuziehen, also diese wie eine weitere Meinung zu betrachten und nicht die Entscheidung durch diese komplett übernehmen zu lassen.

  10. Eine mögliche Fortsetzung
    Fiona schweigt. Es tat ihr leid, dass Kibe, obwohl er sich seinen Weg mühsamer erkämpfen musste als manch andere Bewerbungskandidat es trotzdem nicht in das Vorstellungsgespräch geschafft hatte. Insbesondere da die Entscheidung von ihrem Vater gefällt wurde, fühlt sie sich mit in der Verantwortung. Fiona verliert sich in ihren Gedanken: “Vielleicht kann ich ja nochmal mit meinem Vater darüber sprechen… aber was würde das bringen? Er hatte Kibe ja bereits kennen gelernt und war überzeugt von ihm gewesen. Es ist wie Kibe sagt, mein Vater vertraut in allen Angelegenheiten der K.I. mehr als seinem eigenen Urteilsvermögen. Ich weiß wie wichtig das für Kibe gewesen wäre und wie gut er auf die Stelle gepasst hätte…“
    Kibe wendet den Blick von Fiona ab: „Weißt du was? Ich bin sehr dankbar, dass ich aufgrund der Technologie die wir haben, sei es durch die K.I. oder was auch immer, diese Chance überhaupt wahrnehmen konnte, denn ohne die hätte ich gewiss einen ganz anderen Lebensstandard. Ich würde immer noch in Afrika in meinem kleinen Dorf die Zeit verbringen und hätte einen ganz anderen Blickwinkel auf die Welt. Dennoch muss ich sagen, dass ich zum ersten Mal diese nun mit ganz anderen Augen sehe und viel stärker hinterfrage als ich dies vorher getan habe. Ich fühle mich fast so als wäre mein Vertrauen zur K.I. missbraucht worden. Denn auch ich muss zugeben, dass ich das erste Mal feststellen muss wie kalt und rational dadurch Entscheidungen getroffen werden.“
    Kibe sieht zu Fiona, sie erwidert seinen Blick und sieht wie niedergeschlagen dieser ist.
    Kibe wendet seinen Blick ab und sieht in die blauen Augen von Mickey und sagt leise: „Du bist noch nicht so weit.“

    1. Liebe Lya,

      Vielen Dank für den Einblick in Fionas Gedanken und in Kibe sehr emotionale Sicht. Deine Fortsetzung hat mich ein bisschen trauriger werden lassen für Kibe. Umso ungerechter finde ich nun die Entscheidung von Fionas Vater.

      Die letzten Worte, die Kibe an Mickey gerichtet hatte, haben mich auf eine komische Art getroffen. Diese sehr menschliche Aussage kann ich gar nicht in Verbindung mit der K.I. bringen. Das war irgendwie komisch mir vorzustellen, wie diese Szene abgelaufen ist.

      An deiner Fortsetzung würden mich zwei Sachen nun interessieren: Wieso hast du dich für einen sehr entmutigten Kibe entschieden? Seine Geschichte bisher macht ihn Charakterlich sehr stark und ich kann mir schwer vorstellen, dass er nach einem Misserfolg schon aufgibt.
      Wie hätte Mickey darauf reagiert deiner Meinung nach?

      Über eine Antwort bin ich sehr gespannt.

      Liebe Grüße,
      Michelle

    2. Liebe Lya,
      vielen Dank für diese hochinteressante Szene! Ich finde es schön, dass du Kibes Kampfgeist betont hast, denn es ist wirklich eine Leistung, dass er sich trotz der erschwerten Bedingungen (Aufwachsen in einem abgeschiedenen Dorf) weitergebildet hat und es bis zum Stipendium in Berlin geschafft hat. Auch den Aspekt des veränderten Blickwinkels auf die Welt hast du interessant eingebracht.
      Viele Grüße
      Dorit

  11. Fiona wusste nicht wie sie darauf antworten sollte. „Also, ich weiß nicht so recht.“ Kibe schaut sie überrascht an. „Du willst mir sagen, dass eine K.I. bessere Menschenkenntnisse hat, als ein Mensch selbst?“ Fiona schaut auf den Boden. Diese Art von Konfrontation mit ihrem Mentee gefiel ihr gar nicht.

    „Nein ich denke nicht”, sagte Fiona. “Ein Mensch kann sich nämlich ganz anders in einen anderen hineinversetzen. Das Problem, das ich beim Beantworten deiner Frage habe, ist, dass du nicht deswegen aussortiert wurdest. Das hat nichts mit Menschenkenntnissen zu tun.“ Sie schaut Kibe wieder in die Augen, der verwundert zurückblickte. „Wie soll ich dir das erklären.“ Nach einer kurzen Pause sprach Fiona weiter: „Mein Vater vertraut auf die K.I. in allen Lebenssituationen. Wenn sie ihm sagt, dass dir Qualifikationen fehlen und du im Vergleich mit den anderen schlechter abschneidest, dann sieht er keinen Grund, dich einzustellen.“
    „Wieso hat er mir in dem Gespräch dann so positiv zugesprochen? Das ergibt für mich gar keinen Sinn!“, rief Kibe.
    „Positiv Zusprechen oder au-“ begann Mickey Kibe eine Definition vorzulesen, doch bevor er weitersprechen konnte, schaltete Kibe ihn ab.

    „Ich kann dir deine Frage nicht beantworten”, sagte Fiona. „Ja, bei vielen Arbeitsstellen ist es tatsächlich so, dass man einen Vorteil hat wegen der sympathischen Ausstrahlung oder weil man jemanden charakterlich überzeugt. Aber es gibt eben auch Arbeitgeber, die mehr auf die Qualifikationen vertrauen. Vielleicht hat euer Gespräch dir sehr viel geholfen, aber dann leider doch nicht genug, um die Qualifikationen der anderen zu übertrumpfe.“
    Stille trat zwischen den beiden ein. Kibe dachte über Fionas Worte nach.
    „Es tut mir leid, dass ich dich so angefahren habe. Das wollte ich nicht. Du kannst nichts dafür, dass dein Vater sich gegen mich entschieden hat“, sagte Kibe

    „Alles gut, ich kann deinen Unmut verstehen. Ich denke aber, du solltest nicht aufgeben!“
    Wieder schaut Kibe sie verwundert an. „Du solltest nochmal bei meinem Vater vorsprechen, dir die Qualifikationen vielleicht aneignen oder dich für die jeweiligen Vorlesungen anmelden. Dann kannst du ihm Beweisen, dass er dich doch einstellen sollte!“ Fiona strahlte auf einmal pure Energie aus, die Kibe mitriss.
    „Ja, du hast Recht!“, rief er aus. „Ich habe schon so lange für so vieles gekämpft, ich werde jetzt nicht aufgeben. Ich werde deinem Vater beweisen, dass ich die Stelle verdient habe!“
    Kibe umarmte Fiona, die zunächst sehr überrascht war, allerdings dann seine Umarmung erwiderte. „Vielen Dank Fiona. Ich bin sehr froh, dass du meine Mentorin bist!“

    1. Vielen Dank liebe Michelle für diese lebendige Szene! Ich freue mich für Kibe, dass Fiona ihm wieder Mut macht. Sie scheint mir nicht nur eine gute Mentorin zu sein, sondern auch eine gute Freundin. Mit ihrem Einfühlungsvermögen und Enthusiasmus unterscheidet sie sich deutlich vom Roboter Micky.

      1. Liebe Ulrike,

        vielen Dank für dein Feedback. Ich muss ehrlich gestehen, dass es für mich genau so schwierig war, die Frage der Menschlichtkeit zu beantworten. Es freut mich, dass genau die Emotionen rübergekommen sind, die ich übermitteln wollte.

        Liebe Grüße,
        Michelle

    2. Liebe Michelle,
      in deiner Szene hat es mich sehr angesprochen, dass du die Gefühle von Kibe und Fiona so schön spürbar machst. Auch in die Argumentation der beiden bringst du wichtige Aspekte ein.
      Viele Grüße
      Dorit

  12. Es war fünf Uhr morgens, als Kibes Wecker ihn mit einem monotonen Fiepen unsanft aus dem Schlaf riss. Kibe schrak zusammen und fuchtelte wild mit den Armen umher, als wollte er einen unsichtbaren Einbrecher abwehren. Er brauchte etwas, bis er verstand wo er sich befand. Nach dieser unruhigen Nacht, voll schlechter Träume obendrein, dauerte es ein wenig, bis seine Sinne wieder voll funktionsfähig waren. Er richtete sich auf und pfefferte den immer lauter kreischenden und jaulenden Wecker gegen die Wand, woraufhin dieser jäh verstummte. Er hatte ihn sich erst letzte Woche besorgt, der letzte Schrei, das angesagteste Modell irgend so eines Berliner Startups. Diese Wecker taten alles und ließen nichts unversucht, um ihre Besitzer wach zu kriegen. Die Entwickler der Firma statteten sie mit allerlei technischen Gadgets aus, unter anderem mit der „WakeUpFrequency“ – so lautete der Markenname der Technologie, die angeblich den optimalen Ton mit der richtigen Frequenz erzeugte und so zu einem optimierten „Aufwachergebnis“ führte.
    „Unausgereift, sehr unausgereift.“ dachte sich Kibe, der von dem nervtötenden Klang des Weckers heftige Kopfschmerzen bekommen hatte. „Nicht mehr lange und dieses Startup kann sich selbst an den Nagel hängen!“ Während sein smarter kleiner Hausroboter Nick ihm seine Pantoffeln brachte, schloß Kibe die Augen und versuchte, sich zu konzentrieren. Konzentration… Er atmete tief durch.
    Denn Kibe hatte einen Plan.
    Und diesen Plan wollte er jetzt durchziehen.
    Er hatte die Kränkung noch nicht vergessen. Er hatte das Vibrieren des Smartphones nicht vergessen, und erst recht nicht hatte er die Meldung vergessen, die auf dem HyperHD Display seines Samsonic Pro zu sehen war: „Es tut uns leid Ihnen mitteilen zu müssen, dass Sie für die Praktikumsstelle bei FUTURA nicht geeignet sind. FUTURA bedauert dies und wünscht Ihnen für Ihre Zukunft nur das Beste.“ Steve Frankenfels hatte ihn unterschätzt. Und Kibe war sich sehr sicher, dass sogar Fiona ihn unterschätzte. Fiona… „Gerade ihr habe ich am meisten vertraut!“ Als Fiona und Kibe mit dem Testen des kleinen Roboters Micky fertig waren und sich auf den Heimweg machten, hatte Kibe das Gefühl, dass es Fiona nicht sonderlich interessierte wie es ihm gerade ging.
    Kibe hatte seit seiner Ankunft in Berlin unermüdlich am Entwurf einer eigenen Software gearbeitet, einer hochkomplexen, modular aufgebauten Lernsoftware. Dozenten und Professoren würden mit diesem Programm Online-Lehrangebote entwerfen können, deren Individualisierbarkeit praktisch keine Grenzen mehr gesetzt sein würden. Besonders stolz war Kibe auf die 3DLearn Funktion: Mit dieser konnten dreidimensionale, virtuelle Umgebungen erzeugt werden, in die man mit einer entsprechenden Datenbrille eintauchen konnte. Studierende in den Bereichen Ingenieurwissenschaften konnten mit dieser Funktion hochkomplexe technische Gebilde zuhause in ihrem Zimmer bequem virtuell „zerlegen“ und ihre Funktionsweise verstehen. Im naturwissenschaftlichen Bereich würde die Software es ermöglichen, Experimente detailgetreu und realitätsnah in dieser virtuellen Umgebung durchzuführen, so als befände man sich in einem echten Labor – und das ganz ohne jegliche Gefährdung. Für jeden bot die Software eine Fülle von Möglichkeiten an. Kibe hatte das System darüber hinaus so programmiert, dass es sehr einfach zu bedienen war. Dozenten mussten dem System nur mitteilen, welche Art von Lehrinhalt sie erstellen wollen und ein paar Parameter eingeben – den Rest erledigte das System ganz von selbst. Möglich machte es die hochentwickelte Künstliche Intelligenz KI.be.
    Kibe war stolz auf sein Werk. Er hatte lange daran gearbeitet und viele Rückschläge erlitten, oft war er kurz davor, seinen Traum von der eigenen Software einfach hinzuschmeißen und aufzugeben – aber er hatte nicht aufgegeben. Und wurde nun mit einer marktreifen Software belohnt, die die Welt des Lernens revolutionieren würde. Dessen war er sich sicher!
    „Wie gerne ich Steve Frankenfels von meiner Idee überzeugt und als Geschäftspartner gewonnen hätte…“ dachte sich Kibe. Er wollte das Praktikum bei FUTURA eigentlich dazu nutzen, Steve Frankenfels besser kennenzulernen, ihn von sich zu überzeugen und ihm schließlich sein Produkt und seine Geschäftsidee vorzustellen. Aber diese kalte, mechanische Absage die ihm erteilt wurde… Frankenfels schien wohl nicht viel von menschlichen Qualitäten wie Durchhaltevermögen und Fleiß zu halten, die Kibe, nicht zuletzt aufgrund seiner Herkunft, zur Genüge besaß. Wenn Frankenfels sich nur auf die Aussage seiner stumpfen KI Select the Best verlassen wollte… „Damit hat der gute Steve sich nun den härtesten Konkurrenten erschaffen, den die Firma FUTURA jemals haben wird!“ schoss es Kibe voll grimmiger Vorfreude durch den Kopf, während er sein Smartphone zückte und die App StartUp your Future des Landes Berlin öffnete. Mit wenigen Klicks war die Anmeldung seiner Unternehmensgründung abgeschlossen.
    „Jetzt kann es losgehen! An die Arbeit!“ rief sich Kibe voller Enthusiasmus selbst zu, während er in der Ferne der Sonne beim Aufgehen über dem Fernsehturm zusah und sich auf seine Zukunft freute.

    1. Vielen Dank Denise für diese spannende und überraschungsreiche Fortführung! Mir gefallen die vielen Details wie der nervige Wecker und der Hausroboter Nick, der Kibe seine Pantoffeln bringt. 🙂 Ich freue mich für Kibe, dass er den Mut nicht verliert und mit seiner tollen selbst entwickelten Software die Geschäftswelt erobern will (und wird). Das scheint mir die gerechte Strafe für Frankenfels zu sein, dass er auf die K.I. und nicht auf seinen eigenen menschlichen Eindruck vertraut hat.

    2. Liebe Denise,
      auch ich bin ganz begeistert von deiner Szene und wie du die kämpferische und ambitionierte Seite von Kibe ausgebaut hast. Er gibt auch bei Rückschlägen nicht auf, setzt sich große Ziele und zieht die Sache dann durch.
      Deine Schilderung, was die “3D Learn Funktion” im Zusammenspiel mit “KI.be” alles kann, finde ich faszinierend! Das wird es in naher Zukunft geben – für die Industrie hat die IT Branche bereits heute so ähnliche Dinge entwickelt (da fließt Geld…), aber wenn es solche virtuellen Erlebniswelten bald auch erschwinglich und benutzerfreundlich für Lernkontexte geben würde, wäre der (didaktische) Innovationssprung an den Hochschulen groß.
      Viele Grüße
      Dorit

  13. Kibe und Fiona testen Micky Mentor, einen Roboter, der zukünftig Studierende bei ihrer Studienplanung unterstützen soll.
    M.E. mit Recht macht sich Fiona Sorgen, ob ein lebensfremder Roboter Studierende effektiv bei ihrer Studienplanung unterstützen kann. Menschliche Aspekte spielen doch – wie sie noch äußerst positiv von ihrer hilfreich motivierenden Unterredung mit Frau Prof. Lindenbaum mitgenommen hat – auch eine sehr große Rolle. Kibe findet es dagegen mehr als umfassend, dass Mickey mit allen möglichen Algorithmen gefüttert wurde und aus diesen vielen Informationen müssen dann einfach gehaltvolle Ratschläge resultieren.
    Dass Fiona wohl nicht Unrecht hat, muss Kibe am eigenen Leib erfahren, als er die Absage von ihrem Vater erhält. Diese stützt sich nur auf K.I. und hat das positive Gespräch mit ihm wohl gar nicht berücksichtigt. Ich finde es gut, dass dieses leider letzte Kapitel die „Hammerentscheidung“ von Kapitel 6 noch einmal aufarbeitet, indem Fiona und Kibe das Dilemma zwischen bloßen Fakten und dem Einfluss menschlicher Intuition (die natürlich ebenso vorurteilend oder diskriminierend sein kann) ausdiskutieren. Insgesamt haben die Kapitel der „Lernwelten“ an sehr viele Stellen herausgearbeitet, dass man mit K.I. sehr viel Wissen anhäufen und anwenden kann, was Menschen das Leben erleichtert, indem sie auf einen vielseitig geprüften und optimierten Weg zurückgreifen können. Es wird aber immer wieder auch deutlich, dass eine vom Menschen verlassene künstliche Entscheidungsfindung doch nicht so optimal ist, zumindest aus Sicht der Menschen, die die K.I. zwar schaffen, aber doch nicht so denken.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.