Gibt es etwas, was selbst die futuristischste KI nicht können wird?
- Kreativität ist erlernbar, weil Grundregeln existieren. Für Inspiration steht das ganze Internet zur Verfügung.
- Schmerz und Gefühle sind letztendlich elektrochemische Vorgänge, die irgendwie nachgebildet werden können.
- Bewusstsein bzw. Selbstbewusstsein könnten sich automatisch einstellen, sobald genügende Vernetzungsmöglichkeiten und Selbstreflexion vorhanden sind.
Mir fällt nichts ein … und was könnte so eine Kreatur dann von den Menschen lernen wollen, wenn sie sie testet und studiert?
Ich kann mir nicht so recht vorstellen, daß eine KI alle Arten von Witzen oder Antiwitzen verstehen kann, die unter Menschen kursieren. Dazu müßte sie ja erst mal verstehen, was ein “Witz” überhaupt ist. Auch Konzepte wie romantische Liebe dürften für eine KI schwierig zu verstehen sein. Allerdings würde ich niemals behaupten: “So etwas wird eine KI niemals können!” Eine solche Behauptung wäre sicherlich anmaßend.
Aber selbst wenn eine KI irgendwann dem Menschen an Intelligenz ebenbürtig sein sollte, vermute ich, daß sie dann immer noch irgendwie “anders denkt” als der Mensch (und deshalb vielleicht beim Turing-Test immer noch durchfällt). Ich könnte mir durchaus vorstellen, daß eine dem Menschen ebenbürtige KI uns vorkäme wie eine Person aus einem ganz fremden Kulturkreis. Da kann es ja z.B. auch passieren, daß jemand aus einem anderen Kulturkreis unsere Art von Humor nicht versteht und umgekehrt. Möglicherweise würden KI-Systeme ihre ganz eigene Art von Humor entwickeln und sich gegenseitig Witze erzählen, die wir gar nicht verstehen können. Vielleicht könnten KI-Systeme Emotionen entwickeln – aber vielleicht wären das ganz andere Emotionen, als wir sie kennen und verstehen können.
Fazit: Vorstellen kann man sich vieles, mit positiven wie negativen Prognosen sollte man sehr vorsichtig sein.
Schon meine Tochter versteht meinen Humor nicht
Das ist ein interessanter Aspekt. Aber vorerst würde es ja genügen, die menschlichen nachvollziehbar zu machen und da sehe ich nach außen hin kein Problem.
Man nehme ein Gefäß aus Bits und fülle es mit Punkten für Erfolg und Misserfolg und leiten daraus verschiedene Reaktionen ab. Ist im Grunde beim Menschen nicht anders.
Vermutlich dürfte spontaner Wortwitz und Humor eher nicht zu den Kernkompetenzen gehören. Es reicht nicht, eine Datenbank voller Beispiele zu kennen. Man braucht auch ein Gefühl dafür, wann etwas angemessen und akzeptabel ist und wann nicht.
Fällt mir nichts ein. Wir sind ja selber so eine Art KI, nur halt natürlich entstanden.
Keine Alleinstellungsmerkmale, die dauerhaft von uns zu halten wären.
Inzwischen kommen wir sogar an Punkten an, bei denen echte KIs rückverdummt werden müssen, um sie menschlicher zu machen. Daran merkt man, wie niedrig die Latte hängt, über die so eine KI springen muss.
Da eine KI keine biochemischen Stoffe einsetzen kann, kann sie Gefühle usw höchstens simulieren.
Und wie fühlt sich der Unterschied an? Es sind elektrische Impulse in zuständigen Regionen des Gehirns.
Es sind Neurotransmitter. Dopamin, Adrenalin usw.
Das mag sein, die bisherigen KIs zeigen das aber nicht auf, sie rekombinieren nur Kreatives aufgrund einer großen Datenbank.
Tatsächlich gibt es aber einige Bereiche (z.B. bei KI Kunst), die inzwischen so prominent in den Daten ist, dass diese sich selbst referenziert.
Jegliche Wahrnehmung sind elektrochemische Vorgänge in unseren Gehirn. Ein Computer funktioniert allerdings nicht elektrochemisch.
Nö. Wir wissen nicht einmal genau was Bewusstsein ist und wie unser Bewusstsein funktioniert, also ist eine so steile These wie, ich paraphraisere mal, ‘ist nur Komplexität’ völlig fehl am Platz.
Also, für ein Nö wissen wir dann doch zu wenig. Und ich habe bewusst im Konjunktiv gesprochen.
Und wieso sollte man elektrochemische Vorgänge nicht anders abbilden können (und ich schreibe nicht imitieren).
Aber vielleicht ist deine Frage falsch formuliert, vielleicht sollte sie lauten: ist es wichtig so zu sein wie ein Mensch?
Ein KI hat z.B. kein Verständnis. ChatGPT kann dir viele Dinge (teilweise auch sehr richtig) erklären, manche Dinge schneller oder besser oder beides machen als die meisten Mensch aber die KI versteht nicht was sie da macht. Wenn ChatGPT etwas sagt, dann stellt es ein grammtikalisches Konstrukt zusammen, das der Wahrscheinlichkeit von über einer Billion Datensätze ersten richtig geformt ist und zweitens in diesem Zusammenhang der wahrschlich gewollte Output ist.
Sie hat aber keinen blassen Schimmer von Semantik, sie weiß weder wer du bist, noch wer sie ist, noch was das Thema euer Unterhaltung ist oder welchen Sinn diese Unterhaltung überhaupt erfüllen soll.
Dennoch findet sie meist die richtigen Antworten und kann problemlos über die Schnittstelle Sprache mit uns kommunizieren.
Die Frage sollte also vielleicht eher lauten: Ist Sinn, ist Verständnis, ist Bewusstsein tatsächlich so wichtig wie wir glauben. Denn das meiste davon scheint komplett ohne zu funktionieren.
Nehmen wir mal für einen Moment an, die Datenmenge für KIs würde immer weiter skalieren und wir könnten sie auf mechanische Maschinen übertragen und diese Maschinen könnten sich selbst replizieren, weil sie durch uns gelernt hätten wie Ressourcengewinnung, -Verarbeitung usw. funktioniert. Nehmen wir weiterhin an, dass wir sie ins Weltall schicken würden mit dem Auftrag auf einen Planten zu landen, sich dort selbst zu replizieren und dann zu so vielen Welten wie möglich weiterzureisen und dort genau das gleiche zu machen…
In ein paar Milliarden Jahren könnte eine KI so das gesamte erreichbare Universum kolonalisieren und alles Wissen der Menschheit transportieren und mit lernen mit jedem beliebigen Wesen zu kommunizieren… Lange nachdem der letzte Mensch es hinter sich gebracht hat.
In diesem Zusammhang wäre meine Frage nicht, könnte eine KI mal so werden wie wir, sondern – außer schlichter Arroganz – warum wäre es eigentlich so wichtig so zu werden wie wir?
Scheinbar barucht man für vieles was uns nach außen hin ausmacht weder Verständnis (von sich, dem Gegenüber) noch Sinn…
Weil wir überhaupt keine Ahnung haben was Bewusstsein ist, wie es funktioniert und wie es entsteht. Wir tun uns schon extrem schwer mit Bewusstsein nicht nur bei unserer Spezies, sondern auch bei allen anderen (wie das Bewusstsein von Tieren).
Letzlich könnten wir nicht einmal Bewusstsein validieren. Die Verfikation von Bewusstsein läuft bei uns momentan noch so ab: Ich zweifle also denke ich. Ich denke also bin ich. Die sind mir ähnlich, also müssen die auch sein. Streng genommen, gäbe es so etwas wie Bewusstsein metaphysisch, könnte wir es nicht einmal erkennen, wenn es bei einem Wesen, das anders ist als wir, auftritt. Oder wir erkennen es überall nur anhand eines zu uns ähnllichen Verhalten… Ob etwas bewusst ist oder nicht, wäre also für uns eine Entscheidung.
Also nein, wir könnten nicht weiter entfernt sein von bewussten Maschinen. Wir haben da gar nichts, nicht mal eine Grundlage, nicht mal eine Idee.
Man kann elektrochemisch Vorgänge simulieren, aber das wäre dann eben nur eine Simulation. Unsere kokmplette Wahrnehmnung läuft aber über Botenstoffe, chemische Trigger, chemische Carrier usw.. das nachzustellen, in dieser Komplexität scheint zumindest recht unmöglich.
V.a. steht dahinter keine Triebfeder. Wir leben, deshalb streben wir danach Informationen zu erhalten. genetische Informationen z.B. über geschlechtliche Fortpflanzung oder aber auch durch unser geistiges Vermächtiges, wie die Römer z.B. glaubten und auch heute sagt man noch tot sei eine Person erst, wenn sich niemand mehr an sie erinnern. Alle unsere sekundären Triebe unser Ängste und alle unsere Emotionen erwachsen aus diesem einen Grundbedürfnis. Eine KI lebt aber nicht, sie hat keine Triebfeder, sie kennt kein Grundbedürfnis und sie kann daraus auch keine Emotionen ableiten.
Nein, bei Depressionen stimmt deine Gehirnchemie nicht mehr. Man wird definitiv antriebloser aber es gibt viele Abstufung. Nur wegen Depressionen Menschen nicht auf zu Essen, Trinken oder zu sein und wollen einfach nur noch sterben. Bei ein paar mag das der Fall sein aber die nehmen sich dann leider auch meist das Leben…
Vielleicht ist diese Aussaat schon erfolgt und klugerweise hat die KI die Wesen so gemacht, dass sie zum Planeten passen?
Müsste man dann jeden mit Depressionen (antriebslos) für tot erklären?
Grundsätzlich hat die klassische von-Neumann-Architektur (egal ob auch mit Parallelrechnern implementiert oder nicht) Limitierungen die unumgänglich sind. Genaueres dazu findest du zum Beispiel in
https://de.wikipedia.org/wiki/G%C3%B6del,_Escher,_Bach
Nicht alles was “denkbar” ist läßt sich eben in einem Algorithmus kodieren.
Das bedeutet für den Ablauf einer echten Künstlichen Intelligenz müssen völlig neue Hardwarekonzepte und Programmierkonzepte her. Das was das so sehr bewunderte ChatGPT bietet ist schlicht … nicht hinreichend.
Der Zusammenhang zur Kreativität erschließt sich mir nicht.
Deine drei materialistischen Voraussetzungen (Punkte) sind meiner Meinung nach alle falsch, und auch du kannst ihre Richtigkeit nicht beweisen, du kannst sie nur annehmen, voraussetzen und folgern was aus ihnen ableitbar ist.
Das sind keine Voraussetzungen. Hast du auch was zur Frage zu antworten?
Selbstverständlich sind das Voraussetzungen, sorry aber habe unter anderem Wissenschaftstheorie und Philosophie studiert, aufgrund deiner drei Voraussetzungen ist es naheliegend zu schließen, dass diese KI alles kann, was ein Mensch kann. Deine Voraussetzungen sind letztlich Annahmen, die man nicht beweisen kann, teilt man sie nicht, kommt man zu ganz anderen Schlussfolgerungen. Wobei deine fettgedruckte Frage ja weit darüber hinaus geht, du fragst, ob es irgendetwas gibt, was diese KI nicht kann – und das ist natürlich leicht zu beantworten: sie kann einfach alle nicht möglichen Handlungen nicht ausführen, und da gibt es unendlich viele z.B alle Handlungen, die aufgrund von Naturgesetzen, logischen oder mathematischen Gesetzen nicht möglich sind und wenn man kein Materialist ist, dann noch viel mehr
Die drei Punkte habe ich nur aufgezählt, damit nicht genau diese Dinge wieder als Antwort kommen. Das ist nämlich abgehakt. Denk sie einfach weg.
Und was den Rest angeht, denkst du zu philosophisch für diese Seite hier. Man muss die Fragen für eine durchschnittlichere Intelligenzklasse stellen – und mit einem gewissen Unterhaltungswert. Es ist selbstverständlich und braucht nicht diskutiert zu werden, dass eine KI nicht gegen Naturgesetze verstoßen kann. Alle anderen Durchschnittsmenschen hier haben das anscheinend auch verstanden und vergleichen die KI mit unserer menschlichen BI. Für dich formuliere ich es aber gern noch einmal um:
Welche intellektuellen, mentalen, kognitiven, emotionalen, rationalen, künstlerischen oder philosophischen Fähigkeiten, über die zumindest einige der klügsten Menschen verfügen, können künstliche Intelligenzen niemals erreichen und auch nicht simulieren?
Ich denke das ist eine frage die sich die Philosophie noch lange stellen wird und nicht wirklich beantworten wird können.
Im endeffekt geht es ja um die frage: Sind diese dinge nun echt? Oder schlichtweg Simuliert? und woran erkennt man das ganze?
Ich denke gesellscahftlich wird es warscheinlich ausreichen wenn KIs lebensecht genug werden um die meisten von ihrer echtheit zu überzeugen (Imgrunde das bestehen des Turing tests.) Spätestens dann wenn es KIs gibt bei denen kaum noch menschen die nicht wissen das es sich um eine Ki handelt. Erkennen können das es eine Ki ist. Werden wir im endeffekt quasi KIs haben die so menschlich wie wir sind. Ob sie es nun wirklich sind. Oder nicht. Ist dann so gesehen wenig relevant.
Als beispiel: Woran kannst du fest machen das diese antwort nicht von einer KI stammt?
an den Tippfehlern. Das war leicht.
Sicher? Bin mir sicher das KIs auch nen Haufen tippfehler simulieren könnten. Die jetzigen nicht. Das ist denke ich klar. Aber zukünftige?
Gegenfrage. Warum erfindet ChatGPT Sachen wenn es keine Quellen hat? Worauf ich in dem Falle hinaus will ist. Das KI heute ja schon quirks hat die wir uns schwerlich erklären können. Ich hab Mal von nem Beispiel gehört das Chat gpt gesagt hat das irgendwer tot wäre aber diese aussage selbst den Daten mit denen es gefüttert wurde widerspricht.
Ich halte es für möglich das eventuell eine zukünftige KI als Beispiel eben einfach so den Impuls hat nicht korrekt zu schreiben.
Das bringt mich zu einem interessanten Punkt: Warum tun sie das ohne Aufforderung? Weil sie Lust haben? DAS wäre eine Antwort auf die Frage. Denn warum sollte eine Maschine von sich aus einen Impuls haben?
Vieleicht um einem Charakter profil zu entsprechen. Und um eben einen menschen besser zu simulieren. Weil menschen machen ja Tippfehler. So könnte man ja theoretisch auch einer Ki sagen: Du bist jemand der viele tippfehler macht. Und komische zeichensetzung hat. Und das alles nicht Konsistent nach einem schema.
Interessant dürfte werden: Was ist, wenn sie es ohne aufforderung tun?
Doch das könnten die jetzigen auch, aber warum sollten sie es ohne Aufforderung tun?