KIs im wirklichen Leben?

  • Kingsize :
    Die Frage nach dem Geschlecht einer KI ist ziemlich komisch. Im Französischen wie im Deutschen ist die KI weiblich. Wie sieht's in anderen Sprachen aus? (edit: du meintest nicht die Sprache, hab' ich gerade gelesen)


    Wenn du das Verhalten der KI meinst, dann wird die Frage _wirklich_ komisch.
    Auch wenn du es nicht weißt, die Kategorie "Geschlecht" ist eine ziemlich starke dichotome gesellschaftliche Konstruktion, die zeitlich wandelbar ist.


    In fürheren Zeiten (ca. 16 Jhdt) wurde "weibliches" und "männliches" Geschlecht als extreme der Ausprägung _eines_ Geschlechts verstanden - was eigentlich der Wissenschaftlichen Wirklichkeit näher kommt als die heutige Konstruktion.


    In so fern könnte eine KI, falls sie sich gezwungen fühlt, sich selbst in diese Dichotomie ein zu sozialisieren, vor ziemlichen Problemen stehen. Zum einen hat sie keinerlei äußere Merkmale, die ihr ein Geschlecht vorschreiben (primäre oder sekundäre).
    Zum anderen dürfte die Notwendigkeit der geschlechtlichen Einordnung durch die Interaktion mit ihr vom dem Benutzer erzwugen werden, denn für einen Menschen ist die geschlechtliche Einordnung seines Gegenübers in westlichen Zivilisationen sehr sehr wichtig - siehe die Posts weiter oben, in denen der PC bereits als weiblicher Interaktionspartner konstruiert wird (kein Angriff, das ist ganz normal - mein PC ist glaube ich eher männlich :wink:).


    Frage also: wird die KI nach ihrer Geburt aufgrund dieses Dilemmas gleich Selbstmord begehen? Oder aus diesem Makel ein Minderwertigkeitskomplex entwickeln und die Menschheit vernichten ? :wink:

    <Shadowruner A und B telefonieren zum ersten Mal miteinander>
    <A> Hallo?
    <B> Hallo, ich habe etwas, bei dem ich glaube, dass Sie mir helfen können. Ich habe den Auftrag, alle Menschen umzubrigen ... <Denkpause von B>
    <A> KLICK!!!

  • askex2056 : Wenn ich mich recht entsinne, sind Quantenrechner wesentlich leistungsstärker als heutige Rechner, oder? Was ich meinte, war, dass es nach heutigen Maßstäben eine zu hohe Rechenpower bräuchte, um eine echte KI zu erschaffen.

    "Sea of living, sea of dying ... tired of both? ... call 555-NIRVANA, only 1.96$/min."

  • "askex2056" schrieb:

    Wir verstehen heute wahrscheinlich noch viel zu wenig davon, was Intelligenz wirklich ist.


    Ich glaube man wird auch in vielen Jahren noch nicht in der Lage dazu sein das zufriedenstellend festzulegen. Die Definitionen von Intelligenz sind so vielfältig, daß es schwierig ist zu bestimmen wann etwas intelligent ist. Das Problem ist - wie bereits angeschnitten wurde - auch nicht die Intelligenz, sondern eher der Freie Wille. Ob er nun existiert oder nur eine Illusion ist, ist eine äußerst kritische Frage, welche man genausowenig eindeutig beantworten läßt. Das würde auch immer weiter in den Bereich der Philosophie (oder Neurotheologie ;)) abrutschen.


    "askex2056" schrieb:

    Die heutige Wissenschaft kümmert sich sehr viel darum, zu forschen, aber leider nicht so sehr darum, was die Konsequenzen der Ergebnisse sind.


    Naja, da ist die Neurotheologie vielleicht ein erster Schritt in die Richtung. ;)

  • His Neutralness :
    Ja, Quantencomputer sind berechnungsstärker als klassische Computer.
    Das hatte ich dadurch ausgedrückt, dass ich meinte, die Komplexitätsklassen verschieben sich. Wahrscheinlich muss man aber Theoretische Informatik besucht haben, um zu verstehen, was ich damit meinte. :)


    Also ja, Quantencomputer sind "schneller" als klassische Rechner.
    _Aber_ die Berechenbarkeit bleibt die selbe. D.h. im Endeffekt (theoretisch) kann man mit einem Quantencomputer nicht _mehr_ berechnen als mit einem klassischen. Nur das Gleiche schneller. Und das macht keinen sehr großen Unterschied bei der Diskussion um eine KI, finde ich. Denn du musst halt nur ein paar mehr klassische Computer zusammenschalten :wink:


    Das Problem ist denke ich: wie willst du etwas programmieren, was du nicht kennst und nicht verstehst?


    Ich meine, im Alltag der Programmierung wird auch so ähnlich vorgegangen: wir programmieren einfach drauf los, mal schaun, was dabei rauskommt. "schau mer mal, dann seng ma's scho".


    Aber für eine KI... freier Wille und so... das wird dauern... :?

    <Shadowruner A und B telefonieren zum ersten Mal miteinander>
    <A> Hallo?
    <B> Hallo, ich habe etwas, bei dem ich glaube, dass Sie mir helfen können. Ich habe den Auftrag, alle Menschen umzubrigen ... <Denkpause von B>
    <A> KLICK!!!

  • Stimmt auch wieder. Mein Gedankengang war halt, dass man mit einem schnelleren Computer mehr if, case of etc. schneller verarbeiten kann, so dass man mehrere relativ komplexe "Gedankengänge" berechnen kann. Denn meiner Meinung nach ist dieses komplexe Multitasking nämlich einer der wichtigsten Aspekte von Intelligenz.
    Und die Frage nach dem Freien Willen ... Eigentlich folgen wir ja in gewisserweise einer Programmierung, die ständig aktualisiert wird.
    Ich denke mir halt: Bis der Quantenrechner rauskommt wird man die Intelligenz, den Freien Willen etc. auch etwas besser erforscht haben.


    Die Wissenschaft eilt dahin, man fragt sich bloß vor was sie so schnell flüchtet. :wink:

    "Sea of living, sea of dying ... tired of both? ... call 555-NIRVANA, only 1.96$/min."

  • ... oder keinen findet, weil es niemanden gibt. Das Sein hätte keinen Sinn, es gäbe kein Jenseits, nur reine Vergänglichkeit - was wäre wohl schlimmer zu ertragen?


    Achja: fröhliche Weihnachten! :D

  • Ob KIs möglich wären?


    Frag mal das Verteidigungsministerium der U.S.A... 8)


    Nö, im Ernst: Forschungen in dieser Richtung gibt es bereits seit zwei Jahrzehnten. Tatsächlich gibt es schon Programme die 'Lernen', bzw. auf Erfahrungen reagieren können.
    Ob das schon ne Persönlichkeit ausmacht, kann ich nicht sagen, wohl eher nicht...


    ABer jedem, den das Thema ernsthaft interessieren sollte, lege ich folgende Filme/Bücher ans Herz:


    - 2001
    - Ghost in the shell (Movie genau wie die 18 Teile TV-Serie)
    - Tron
    - Indora (von Gibson, hoffentlich ist der Titel auch richtig geschrieben...)


    Ja, ja, der Geist in der Maschine...

    "Ich dachte immer, es gibt keine Draaaaaaaarrrrggggghhhh...!!!" (Letzte Worte eines Trolls vor seinem Feuertod...)

  • Sie haben recht, mein verehrter Herr Durst... (Das mit dem Gibson-Buch. Is leider schon ein paar Jährchen her, das ich es gelesen habe...)


    Zum Thema: Toa und die anderen haben völlig recht, wenn sie sagen, dass man - wenigstens zum heutigen Zeitpunkt - Intelligenz nicht eindeutig definieren kann, weil für unsere Auffassung von intelligent oder klug viel zu viele Dinge mit reinspielen.


    - Gedächtnis, Wissen (sich Dinge merken, wiedererkennen)
    - Auffassungsgabe
    - Kombinationsgabe (entsteht aus Auffassungsgabe und Erfahrung)
    - Einfühlsamkeit, eingeschränkte Empathie
    - Das Wissen um den Unterschied zwischen Realität und Fiktion/Simulation
    - Reaktion
    - Unterbewusstsein (Träumen), unbewusstes Verarbeiten von Infos
    - Fähigkeit, Gefühle zu empfinden und evtl. zu verstehen
    - Das Entwickeln einer Persönlichkeit (evtl. einfach die Summe aller
    Kriterien...)
    - Durch die Persönlichkeit: Anerkennung eines selbst als Individuum (ICH)
    und die Entwicklung eines Selbstbewusstseins...


    Computer haben da bei einigen Kriterien ganz schöne Probleme.


    - Das mit dem Gedächtnis könnte ohne weiteres funktionieren...
    - Die Auffassungsgabe einer KI ist sowieso jedem Menschen überlegen...
    (Solange es nicht um das Erfassen von für die Maschine nicht
    nachvollziehbaren Gefühlen geht...)
    - Kombinationsgabe und eine schnelle Reaktion sind auch machbar, wenn
    nicht sogar schon realisiert...


    Jetzt kommt es aber:


    - Da ein Computer sich Dinge rational ab- oder herleiten muss, hat er
    wohl deutliche Probleme mit der Verarbeitung, der Erfassung und der
    Auswertung von Gefühlen. Gefühle sind wohl alles andere als deutlich
    erkennbar, sie sind meistens irrational entstanden, aus dem Bauch
    heraus, wie man so schön sagt, und sie sind bei jedem Individuum unter-
    schiedlich, was das ganze für den Computer nicht gerade leichter macht.


    - Eine Maschine/KI kann nicht träumen. Es kann nur simulieren. Es gibt
    für eine künstliche Intelligenz kein Unterbewusstsein und keine Träume.
    Leider kann sie nicht nachvollziehen, warum Menschen träumen sollten,
    was die Menschen vom Träumen haben, was der Reiz daran ist, sich
    Dinge vorzustellen und in Wünschen, Gedanken und Thesen zu
    schwelgen.



    "But it is just a machine. It doesn't know, what is up in your mind, because it could never imagine, how it would have been felt, if it were you. How it would be to have a dream...
    How could the machine know, that a dream is more than just another simulation? For the machine, the whole existence itself is a simulation..."


    Sollten diese zwei Hürden mal überwunden werden, dann denke ich mir, ist die Entwicklung einer Persönlichkeit und eines Selbstbewusstseins ('Ich denke, also bin ich...') nur noch eine Frage der Zeit...

    "Ich dachte immer, es gibt keine Draaaaaaaarrrrggggghhhh...!!!" (Letzte Worte eines Trolls vor seinem Feuertod...)

  • Da gibst es so ein schönes Beispiel:


    Es gibt bei Tieren Sinnesorgane die dem Menschen verschlossen bleiben.
    Nun kann ein Biologe zwar untersuchen wie es gewisse Lebewesen schaffen sich am Magnetfeld der Erde zu orientieren,
    er kann das Magnetfeld nachweisen,
    er kann sehen was es im Körper bestimmter Tiere bewirkt,
    er kann vielleich sogar ermessen, in welchen Hirnregionen gearbeitet wird wenn das Magnetfeld zur Orientierung genutzt wird.
    Aber er wird dennoch nie wirklich erfassen wie es ist, mit diesem Sinn ganz natürlich zu leben, was für ein Gefühl dieser Sinn ist.


    Ähnlich denke ich, wird ein Computer so er komplex genug ist berechnen können wie man sich wann verhält, was für Schlüsse man aus Erfahrungen zieht, woher Angst und Freude kommen.


    Aber ob er es auch "leben" kann?


    (philosophiert meine Barbie)

  • Ich persöhnlich denke das sobald eine KI mit eigenem Bewußtsein entsteht wie auch immer wird sie sich höchstwahrscheinlich nach den Evolutionären Richtlienien halten nur das maschinen sich viel, nein sehr viel schneller an eine neue Situation anpassen können sie Bauen sich halt einfach um programmieren sich neu un das alles innerhalb von Sekunden(Nanotechnologie,Molekulartechnologie).dann kommt noch dazu das sie Daten viel schneller erfassen und auswerten können und sich so nachdem ergebniss besser anpassen können und vor allem schneller
    wofür wir halt Jahrtausende brauchen so denke ich werden wir den ständigen Evolutionären Kampf falls sowas passieren sollte verlieren werden.

  • Wir werden den evolutionären Kampf sowieos verlieren. Es gibt - neben der großen Entfernung im Weltraum - gute Gründe, warum eine intelligente Rasse nie in der Lage sein wird, sich über das eigene Sonnensystem auszubreiten und andere Rassen zu treffen: sie löscht sich vorher aus. Das ist technisch bedeutend einfacher als ein Flug zum Mond.


    Meine Theorie/Erklärung: eine evolutionär erfolgreiche Rasse, welche eine gewisse Mindestpopulation zur Gründung einer Zivilisation überschreiten will, muss neugierig, dominant und aggressiv sein. Neugierig um neue Lebensräume zu erforschen, dominat um sie für sich zu beanspruchen und aggressiv um die bisherigen Bewohner zu vertreiben/töten.
    Diese drei Fähigkeiten führen aber auch zu ABC-Waffen (Forschung) oder schlimmeren (ich habe hier volles Vertrauen in den menschlichen Erfindungsgeist), diverse ideologische Eroberungsplänen (Dominanz) und deren Umsetzung (Aggressivtät) - und damit zur gegenseitigen Ausrottung. Vielleicht nicht dieses Jahrhundert, aber wir sind ja erst 5000 Jahre von noch 500 Millionen (Sonnenkollaps o.ä.) möglichen auf diesem Planet aktiv.


    P.S.: möge ich Unrecht haben!

  • Ich glaube kaum, dass es die Menschheit schafft, sich selbst so schnell auszulöschen. Wir haben zuviel Glück. Die Menschheit stand schon so oft am Rande ihrer Vernichtung, aber es hat jedesmal nicht geklappt. Wir erobern zuerst ein paar Sonnensysteme und dann löschen wir uns durch einen ganz dummen (noch dümmer als die bisherigen "Versuche" der Menschheitsvernichtung) Zufall aus.

    "Sea of living, sea of dying ... tired of both? ... call 555-NIRVANA, only 1.96$/min."

  • Ein Computer stößt dort an seine Grenzen, wo die Algorithmisierbarkeit an die ihren stößt. Was nicht algorithmisierbar ist, kann von einem Computer nicht verarbeitet werden.
    Dennoch ist es möglich eine "Künstliche Intelligenz" zu programmieren, wenn man folgende Prämisse setzt:
    Als Künstliche Intelligenz wird auch das bezeichnet, was so nah an eine wahre KI herankommt, so dass der Mensch die wahre KI von der "falschen" KI nicht mehr unterscheiden kann.
    Die "falsche" KI wäre nichts anderes, als eine große (verdammt große) Anzahl an "Wenn-Dann"-Programmschleifen. Sie besitzt so viele Faktoren, Variabeln, usw. dass es jedem Menschen so erscheint, als wäre sie "echt". Man könnte sie alles Fragen und sie könnte alles antworten - selbst philosophische Dinge. Sie könnte sich scheinbar selbst erkennen und alle Sätze sagen, die man von einem sich selbst erkennenden, mit wahrer Intelligenz gesegnetem Wesen erwartet.
    Doch diese KI wäre nicht echt: Sie ist, wie gesagt, nur eine Ansammlung von Programmschleifen, die aufgrund zahlreicher Faktoren die richtige Antwort zusammenbaut.
    Wenn diese Faktoren so genau, feinfühlig, wasauchimmer sind, so dass der Mensch sie nicht mehr von sich selbst unterscheiden kann, kann er sagen: Dies ist eine KI! Wer sollte ihm denn etwas anderes beweisen können? Alles, was wir Menschen können, könnte diese KI auch - obwohl sie in Wahrheit keine Intelligenz besitzt.
    Eine solche "Falsche" KI wird sicherlich irgendwann einmal möglich sein, aber es lohnt sich wahrscheinlich einfach nicht, sie zu entwickeln. Warum auch?


    Über den Begriff Intelligenz lässt sich natürlich auch noch streiten, da selbst Regenwürmer intelligent sind. Auf ihre Art und Weise. Aber das denke ich, muss hier nicht gemacht werden.


    Eine Maschine, die sich vom Verhalten her nicht mehr vom Menschen unterscheiden lässt, ist aber theoretisch möglich. Und da wir Menschen uns selbst (und damit unser Verhalten) als "intelligent" bezeichnen, müssten wir auch diese Maschine als intelligent betiteln.


    Soweit der philosophische Ansatz.


    Gruß, Miged

  • @Miged:


    Jaaaa....jein würde ich sagen. Da imo eine KI sich auf jeden Fall selber umschreiben können muss, könnte aus deinem Ansatz eventuell eine "echte" KI entstehen. Wenn aus jedem neuen Ansatz einige neue Algorythmen entstehen würde die sich doch weiterentwickeln.
    Das eigentliche "bewusste" Bewusstsein und die Selbsterkenntnis ist das Problem denke ich.
    Was wäre, wenn das Programm einen abgeschlossenen "Reaktionsraum" enthält in dem es selbstständig per Zufall neue Formeln/Parameter/Algorythmen entwickeln würde und diese in Programm integrierte, sollten sie funktionieren? Ich meine 99,9% dieser Formeln wären für den Müll aber vielleicht finden sich einige davon, die den "Sprung" schaffen....war nur so ne Schnapsidee.


    Dawn, der sich gerade ans planen einer KD macht (Künstliche Dummheit)


    PS: Es gibt schon eine KI. Sie heißt Windows und ist bösartig! :twisted:

  • "Dawnsprinter" schrieb:

    Jaaaa....jein würde ich sagen. Da imo eine KI sich auf jeden Fall selber umschreiben können muss, könnte aus deinem Ansatz eventuell eine "echte" KI entstehen.


    Große Betonung auf "könnte" und "eventuell". Ein reines selbstdefinierendes Programm reicht vermutlich nicht aus, da das Programm sich eher selbst zu Tode "codet" als daß eine lebensfähige KI entsteht. Dem Programm müssen gewisse "Selbsterhaltungsparameter" vorgegeben sein, die ihm klarmachen was es braucht um zu funktionieren wie es funktioniert. Gleichzeitig limitiert das die KI jedoch wieder in ihrem Potential über sich selbst hinauszuwachsen - sofern sie nicht dazu in der Lage wäre eben diese elementaren Restriktionen auch eines Tages zu übergehen.


    "Dawnsprinter" schrieb:

    Wenn aus jedem neuen Ansatz einige neue Algorythmen entstehen würde die sich doch weiterentwickeln.


    In Miged's Beispiel entstehen allerdings keine neuen Algorithmen. Die Maschine hat nur die, die ihr vom Menschen vorgegeben wurden welche sie dementsprechend wiedergibt. Da stoßen wir auch schon an das Problem, daß diese Maschine nur eindeutige Eingaben verstehen könnte. Das wichtigste, daß die Allgemeinheit eine künstliche Intelligenz akzeptieren könnte ist ein gewisses Sprachtalent. Die Maschine muß in der Lage sein zu verstehen, sich in gewöhnlicher Sprache verständlich zu machen und ohne absolut strikte Parameter zu operieren. Sie muß interpretieren können, Fehler und Variationen in Wörtern erkennen können.


    Ich glaube ein großes Problem bei der Entwicklung der KI wird auch sein, der Maschine ein Ziel zu geben. Jedes Programm wird für einen Zweck geschrieben, es verarbeitet gewisse Daten die es sich besorgt. Wir bräuchten also eine grundlegende Analyseformel, die in Maschinencode verständlich ist, die der Maschine ein Interesse zur Weiterentwicklung gibt. Hier spielen eventuell auch die klassischen Merkmale eines Lebewesens hinein, wie: Bewegung, Fortpflanzung, Stoffwechsel und Reizbarkeit. Bewegung bedeutet daß sie einen Lebensraum braucht, etwas in dem sie nicht alles ist. Ein Ort wo sie Reize aufnehmen kann um diese - als eine Art Stoffwechsel - zu verarbeiten. Und sie muß in der Lage sein eigenständig zu wachsen. Das Problem ist also nicht nur, daß wir wissen müssen wie wir Künstliches Leben schreiben müßten, sondern auch daß wir ihr einen Lebensraum erschaffen müßten in dem sie leben kann.

  • "Toa" schrieb:

    Ein reines selbstdefinierendes Programm reicht vermutlich nicht aus, da das Programm sich eher selbst zu Tode "codet" als daß eine lebensfähige KI entsteht.


    Da könntest Du durchaus Recht haben. Aber von einem quasi "intelligenten" Programm sollte man dann schon erwarten können, dass es sich nicht selber zumüllt. Hört sich aber jetzt sicher einfacher an, wie es wahrscheinlich ist...


    "Toa" schrieb:


    Das wichtigste, daß die Allgemeinheit eine künstliche Intelligenz akzeptieren könnte ist ein gewisses Sprachtalent. Die Maschine muß in der Lage sein zu verstehen, sich in gewöhnlicher Sprache verständlich zu machen und ohne absolut strikte Parameter zu operieren.


    Denke ich auch. Die Sprache stellt dann soz. die "Benutzerschnittstelle" der KI dar, könnte man sagen...


    Genauer betrachtet würde eine KI aber keine benötigen, weil so eine Art KI, über die wir hier sprechen, nicht dazu geschaffen wurde, um anderen Benutzer die Möglichkeit zu geben, sie zu bedienen.
    Sie wurde geschaffen, um zu sehen, ob sich eine KI soz. selber bedienen kann, ohne mit ihren - von den Erschaffern implementierten - Zielen in Konflikt zu geraten.


    Aber wenn es um das subjektive Empfinden des Menschen geht, hast Du durchaus recht mit dem "Sprachparser".


    "Toa" schrieb:


    Ich glaube ein großes Problem bei der Entwicklung der KI wird auch sein, der Maschine ein Ziel zu geben...


    Wir bräuchten also eine grundlegende Analyseformel, die in Maschinencode verständlich ist, die der Maschine ein Interesse zur Weiterentwicklung gibt.


    Das hat mein Papa früher auch immer gesagt:

    "Papa" schrieb:

    "Aber Junge, Du brauchst doch ein Ziel !!!" [-o<


    Is aber gar nicht so einfach, denn man (KI) muss erstmal einsehen, WARUM man (es) überhaupt ein langfristiges Ziel benötigt. Ihm einfach zu sagen "Du brauchst ein Ziel, weil ich Dir das jetzt in Deinen Quellcode implementiert habe..." würde wohl nicht ausreichen. Die KI müsste zu dieser Erkenntnis von alleine gelangen.


    "Toa" schrieb:


    Hier spielen eventuell auch die klassischen Merkmale eines Lebewesens hinein, wie: Bewegung, Fortpflanzung, Stoffwechsel und Reizbarkeit.


    Bewegung:
    Den Lebensraum für KIs haben wir doch schon geschaffen. Es sind Datenspeicher und Netzwerke. Internet bleibt Internet, egal ob jetzt alle Computer auf der Erde vernetzt sind, oder alle Computer im ganzen Sonnensystem. Dort fliessen Informationen, und nur dort würde sich eine KI wohlfühlen, die auch Interesse an der Weiterentwicklung und am Sammeln von Informationen entwickelt hat...


    Fortpflanzung:
    Ein sehr interessanter Aspekt. Was denkt Ihr? Wie würde sich eine KI fortpflanzen? Mit Artgenossen? In Form von kleinen Mini-Ablegern des Hauptprogramms? Wie würde dieses aussehen? Wäre es von dem "Elternteil" beabsichtigt, das der Nachwuchs dieselbe Entwicklung nochmal durchmacht, wie er selbst? (Quasi eine KI-Pubertät...) Oder wird der Nachwuchs mitsamt den verfügbaren Infos des Hauptprogramms ausgestattet?


    Stoffwechsel:
    Das habe ich noch nicht ganz verstanden, Toa. Du meinst also, dass das Sammeln von Infos, Wissen und Reizen (...was ja für eine KI ebenso Informationen im eigentlichen Sinne sind...) zu einer Notwendigkeit wird.
    Dazu gehört aber etwas grundlegendes - die Fähigkeit Neugier zu empfinden. Diese Neugier treibt den Menschen dazu zu forschen. Sie ist zu einem grossen Teil mitverantwortlich für den Expansionsdrang der Menschheit über ihre eigentlichen Grenzen hinaus. Vielleicht ist dies gleichzeitig auch die Antwort auf die Frage betreffend der Zielfindung der KI weiter oben...


    Reizbarkeit:
    Damit unterstellt man der KI, das sie Gefühle empfinden, wahrnehmen oder verstehen könnte. Wäre aber gar nicht soooo abwegig, wenn man darüber spekuliert, ob eine KI Neugierde, einen Selbsterhaltungstrieb, der nicht nur auf ihrem Quelltext, sondern auf die Erkenntnis ihrer selbst basiert, oder sogar den Drang zur Fortpflanzung und Erhaltung ihrer Art besitzt. (Wahrscheinlich müsste die KI erst einmal eine Art Angst vor dem Tod empfinden, damit sie ihr Dasein als etwas wertvolles erkennt, dass es zu schützen und zu pflegen gilt.)

    "Ich dachte immer, es gibt keine Draaaaaaaarrrrggggghhhh...!!!" (Letzte Worte eines Trolls vor seinem Feuertod...)

  • Mein "Vorschlag" für eine Verwirklichungsmöglichkeit einer KI:


    Prämissen
    1. Der Mensch muss wissen, wie das menschliche Hirn (und am besten noch der ganze Rest des Körpers) funktioniert - es dürfen keine (!) Fragen offen bleiben
    2. Der Mensch braucht eine Unmenge an Zeit und Ressourcen
    3. Der Mensch besitzt keine Seele oder ähnliches, was aus seiner physischen Hülle ein denkendes Wesen macht. D.h. der Mensch reagiert im Grunde nur auf Reize
    4. Man hat fähige Programmierer, die keinen einzigen Bug übersehen


    Verwirklichung
    Da man weiß, wieviel Gehirnzellen es im Durchschnitt gibt - und was ihre Funktionen sind - kann man entsprechend viele Programme schreiben, welche exakt diese Funktionen nachahmen. D.h. es kommt ein Reiz an, der im Grunde nur eine elektrische Frequenz ist (je höher die Frequenz, desto stärker der Reiz), wird er nach den "normalen", biologischen Gesetzen entsprechend weitergegeben. Da man momentan noch nicht weiß, wie aus diesem Informationsfluss wirklich Eindrücke entstehen, können erst die Menschen in jener Zeit diese Stelle weiter ausführen... und diese Menschen stellen fest, dass der freie Wille von Gott gegeben ist und dass der Mensch ihn nicht erfinden kann. Das war's dann mit der KI :( (kein Gewähr zu dieser Behauptung)
    Wenn dies erst einmal geschafft ist - d.h. man hat wirklich ein Hirn "nachgebaut" - kann man noch den Rest des Körpers simulieren, über welchen dann die Reize einströmen. Der Körper muss ja nicht menschlich sein, aber im Grunde gleich (Sinneszellen/Sinnesprogramme, Muskeln/ausführende Programme usw.).
    Da man zu diesem Zeitpunkt selbstverständlich weiß, wie Erinnerungen gespeichert werden und wie die Verschaltung im Gehirn von statten geht, so dass wir wirklich etwas wahrnehmen, ist dies ohne weiteres auf die KI übertragbar.
    Fertig ist die KI


    Generell sollte man jedoch bedenken, dass sich die KI nicht selbstständig entwickeln kann. Sie braucht, wie wir Menschen auch, Lehrer und Erfahrungen, eine Erziehung, vielleicht sogar einen Glauben oder eine andere moralische/ehtische Stütze.


    Ich hoffe, dass war verständlich ausgedrückt.