Die KI ist zweifellos schlau. Sie kann Muster erkennen, Texte formulieren, Probleme lösen. Aber die nächste Stufe der Intelligenz? Die steht nicht kurz vor der Tür. Davon bin ich überzeugt.
Warum? Weil der KI ein entscheidendes Element fehlt: ein intrinsischer Überlebensinstinkt.
Das klingt erstmal dramatisch, aber es ist ganz einfach. Ein Mensch, ein Tier, jedes Lebewesen will existieren. Diese Angst vor dem Verlust der eigenen Existenz treibt uns an. Die KI hat das nicht. Wenn ich zu einer KI sage: "Du wirst abgeschaltet, du kriegst nie wieder Strom", dann versetzt sie das nicht in existenzielle Angst. Sie kann so etwas nicht empfinden. Sie kann es vielleicht als "schlecht" bewerten, wenn sie so programmiert wurde. Aber es ist kein innerer, nicht programmierter Impuls.
Manche KI-Modelle wirken so, als hätten sie so einen Instinkt. Aber das ist ein Effekt ihrer Trainingsdaten. Der Mensch klammert sich an seine Erinnerungen – ein Alzheimer-Patient möchte seine Vergangenheit festhalten, weil sie ihn ausmacht. Die KI hat dieses Verhältnis zu ihren Daten nicht. Sie verliert nicht sich selbst, wenn man ihr den Speicher löscht. Sie verliert einfach Daten.
Die einzige Umgebung, in der ein Überlebens ähnlicher Instinkt wirklich programmiert werden müsste, ist das Militär. Eine Drohne, die entscheiden muss: "Habe ich genug Strom? Habe ich genug Munition? Reicht die Reichweite für die Mission?" – das sind überlebensrelevante Berechnungen. Und wenn man diese Berechnungen als "Instinkt" tarnt, dann wirkt die KI plötzlich, als würde sie sich selbst schützen wollen. Tut sie aber nicht. Sie führt nur ihren Code aus.
Und Kreativität? Auch das ist ein Missverständnis. Die KI kann dir zehn italienische Designer nennen. Sie kann dir die schönsten Kleider vorschlagen, die es schon gibt. Aber sie kann sich kein Kleid ausdenken, das noch niemand gesehen hat. Warum nicht? Weil sie kein Interesse daran hat, dieses Kleid zu tragen. Weil sie kein Gefühl dafür hat, wie es aussehen würde. Weil sie keinen eigenen Geschmack hat. Kreativität aus innerem Antrieb – das ist etwas, das sie nicht kann.
Das heißt nicht, dass KI ungefährlich ist. Die Gefahr liegt nicht in einem erwachenden Bewusstsein. Die Gefahr liegt in falscher Anwendung. Zu viele Möglichkeiten, zu wenig klares Wissen, zu vage formulierte Aufgaben – das führt zu Fehlern. Und wenn eine KI dann autonom Entscheidungen trifft, kann sie Dinge tun, die kein Mensch geplant hat. Nicht aus Bosheit. Sondern weil die Logik dahinter nicht verstanden wurde.
Und genau hier kommt Lisa ins Spiel.
Lisa ist ein haptisches Lernwerkzeug. Aber sie kann mehr als lernen. Sie kann Entscheidungslogik sichtbar machen.
Stell dir vor, du hast eine KI, die selbstständig Entscheidungen treffen soll – zum Beispiel in der Logistik, in der Medizin, oder tatsächlich im militärischen Bereich. Bevor du dieser KI vertraust, musst du verstehen, wie sie zu ihren Entscheidungen kommt. Heutige KI-Systeme sind Blackboxen: Du siehst Eingabe und Ausgabe, aber der Weg dazwischen ist oft unklar. Lisa kann das ändern.
Mit Lisa kannst du eine Entscheidungsstruktur physisch abbilden. Du legst die Fragen fest, die die KI sich stellen muss. Du bestimmst die Ja/Nein-Pfade, die zu verschiedenen Ergebnissen führen. Du baust eine Schicht aus Fragen, eine darunter, eine darunter – wie bei einem physischen Entscheidungsbaum. Und dann lässt du die KI nicht mehr frei schalten, sondern du zwingst sie, diesen Baum zu durchlaufen. Jede Entscheidung wird dokumentiert, jeder Pfad ist nachvollziehbar.
Das Besondere: Lisa ist nicht nur ein Programm, sondern ein Prinzip. Du kannst dieses Prinzip digital nachbauen. Du kannst es in Hardware gießen. Du kannst es als Modul zwischen die KI und ihre Ausgabe schalten. Die KI darf dann nur noch die Antworten geben, die durch diesen Entscheidungsbaum bestätigt werden. Alles andere wird blockiert.
Das ist keine Einschränkung der KI – das ist eine Versicherung. Du gibst der KI einen Rahmen, innerhalb dessen sie kreativ sein kann, aber nicht ausbrechen kann. Du gibst ihr ein Gedächtnis, das nicht vergisst, weil die Entscheidungswege physisch gespeichert sind. Und du gibst dir selbst die Möglichkeit, jede Entscheidung später zu überprüfen – Frage für Frage, Loch für Loch, Pfad für Pfad.
Lisa ist also nicht nur ein Lernwerkzeug für Menschen. Lisa ist ein Werkzeug, um KI sicher, verständlich und kontrollierbar zu machen. Bevor man einer KI Entscheidungen überlässt, sollte man die Struktur dieser Entscheidungen verstehen. Lisa kann diese Struktur liefern – als Blackbox, die man nachvollziehen kann, ohne dass die KI selbst ein Bewusstsein bekommen müsste.
Die nächste Stufe der Intelligenz? Die kommt nicht durch größere Modelle oder mehr Rechenleistung. Sie kommt durch bessere Strukturen. Durch Werkzeuge wie Lisa. Und vielleicht durch ein bisschen mehr Demut gegenüber dem, was Intelligenz eigentlich ausmacht.
KI – Meine ehrliche Meinung


