Geisterschiffe im All - SciFi-Forum

Ankündigung

Einklappen
Keine Ankündigung bisher.

Geisterschiffe im All

Einklappen
X
 
  • Filter
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge

    #16
    Die Frage hängt dann doch schon zu sehr von dem technologischen Entwicklungsstand ab, um einfach so beantwortet werden zu können.

    Ein für uns heute plausibel erscheinendes Raumschiff würde auf einem vorprogramierten Kurs zum Ziel fliegen, und den würde es auch beibehalten, egal, wie es derweil der Crew ergangen ist. Das muss es schon einfach deshalb, weil der mitgeführte Treibstoff gar nicht ausreichen würde um komplizierte Stopp und Wendemanöver auszuführen.

    Auf Star-Trek niveau könnte man natürlich erwarten, dass das Schiff in einer solchen Kriese alleine die nächste verbündete Basis anfliegt, sofern die sonstige technik noch funktioniert. Das das Schiff die Mission alleine wirklich fortsetzt, halte ich aber für ziemlich ausgeschlossen ... wäre von anfang an keine Crew notwendig gewesen, hätte man auch keine an Bord gehabt.
    Was ist Ironie?
    Nachdem Kirks Leben 30 Jahre lang bestimmt wurde von "Captain auf der Brücke"
    endete es schließlich mit einer Brücke auf dem Captain.

    Kommentar


      #17
      Zitat von caesar_andy Beitrag anzeigen
      Auf Star-Trek niveau könnte man natürlich erwarten, dass das Schiff in einer solchen Kriese alleine die nächste verbündete Basis anfliegt, sofern die sonstige technik noch funktioniert. Das das Schiff die Mission alleine wirklich fortsetzt, halte ich aber für ziemlich ausgeschlossen ... wäre von anfang an keine Crew notwendig gewesen, hätte man auch keine an Bord gehabt.
      Die interessantere Frage ist doch: Wenn eine KI "merkt" (und noch handlungsfähig ist) das die Aufgabenstellungen durch Havarie oder sonst wie nicht mehr "Sinn" machen, was macht sie dann?
      Sucht sie neue Aufgaben, versucht sie die alten (überholten, nicht mehr sinnvollen. unerreichbaren) noch zu erfüllen?
      Den Ist- zustand wieder in den Soll- zustand zu bringen?
      Sucht sie "Sinnvolle" neue Aufgaben?
      So nach der Devise: sind wir schon mal hier - machen wir was daraus.
      Ist die ganze Sache wenigstens nicht ganz Sinnlos (der ökonomische, technische, mein (intellektueller) Einsatz hätte noch etwas Sinn, der Verlust der "Mannschaft" wäre aus Ihrer Sicht zwar "Sinnlos" aber nicht umsonst.)

      Denn lineare Intelligenzen "ticken" mitunter etwas anders. *g*
      Könnt Ihr einem alten Piloten glauben!*g*

      mfg


      Prix
      Die Eisenfaust am Lanzenschaft, die Zügel in der Linken........

      Kommentar


        #18
        Zunächst einmal denke ich nicht, das auf dem StarTrek schiffen 'echte' künstliche Intelligenzen eingesetzt werden. Die Computer die man hin und wieder quäken hört sind viel zu passiv und viel zu starr um eine echte KI zu sein. Die KI-Forschung bei der Föderation ist wohl nicht weiter als unsere heutige (was aber durchaus absicht sein kann).

        In sofern würde das Schiff exakt DAS tun, zu was es programiert worden ist. Nicht mehr, und nicht weniger.
        Was ist Ironie?
        Nachdem Kirks Leben 30 Jahre lang bestimmt wurde von "Captain auf der Brücke"
        endete es schließlich mit einer Brücke auf dem Captain.

        Kommentar


          #19
          Zitat von caesar_andy Beitrag anzeigen
          Zunächst einmal denke ich nicht, das auf dem Star-Trek schiffen 'echte' künstliche Intelligenzen eingesetzt werden. Die Computer die man hin und wieder Quäken hört sind viel zu passiv und viel zu starr um eine echte KI. zu sein. Die KI. - Forschung bei der Föderation ist wohl nicht weiter als unsere heutige (was aber durchaus Absicht sein kann).

          In sofern würde das Schiff exakt DAS tun, zu was es programmiert worden ist. Nicht mehr, und nicht weniger.
          Last doch mal - Star Trek - fahren, denn wenn das die "Begrenzung" des Gedankenspiels ist, ist das so (mit Verlaub gesagt) , als wenn wir uns selbst kasteien.
          Interessant wird es erst, bei echten linearen Intelligenzen.
          Aber vielleicht hast du ja auch Recht mit Deiner These und eine richtige KI. hätte dazwischen gehauen, und so manche (blödsinnige) Handlungsweise begradigt. Da hätte so mancher "Kaptän" dumm aus der Wäsche geschaut.
          Wäre doch auch ganz interessant geworden, oder?

          mfg

          Prix
          Die Eisenfaust am Lanzenschaft, die Zügel in der Linken........

          Kommentar


            #20
            Bei einer echten Künstlichen Intelligenz ist wohl erstmal die Frage zu beantworten, wie 'frei' sie agieren kann.

            Eine KI kann schließlich als neuer C-3PO angelegt sein, der seinem Master so treudoof hinterher läuft, dass es jedem Schäferhund die Schamesröte ins Gesicht triebe. Oder sie kann als vollkommen eigenständige Person agieren.

            Grundsätzlich halte ich es für unwahrscheinlich, das ein Raumschiff mit einer KI ausgestattet wird, die in der Hirachie über dem Befehlshabenden Offizier steht und mal "dazwischen haut". Einzig notfalleingriffe wie das unterbinden von "friendly fire" könnte eine KI wohl ausführen. Alles andere ergäbe keinen Sinn, da könnte man die KI dann auch gleich zum Captain machen. Die KI wird also - egal auf welchem entwicklungsstand - immer in ihrer Handlungsfreiheit eingeschränkt.
            Eine KI, die alle Bordsysteme kontrollieren kann ist nicht nur das mächtigste Wesen an Bord des Schiffes, sie IST das Schiff. Daher wird man sie immer mit einer festgesetzten Loyalität und Einschränkungen versehen. Das sich eine KI, derren Crew stirbt, eine gänzliche neue Aufgabe sucht, halte ich für ausgeschlossen.

            Selbst bei einer echten KI muss so etwas durch die programierung verhindert werden.
            Was ist Ironie?
            Nachdem Kirks Leben 30 Jahre lang bestimmt wurde von "Captain auf der Brücke"
            endete es schließlich mit einer Brücke auf dem Captain.

            Kommentar


              #21
              *caesar_andy*
              Eine KI, die alle Bordsysteme kontrollieren kann ist nicht nur das mächtigste Wesen an Bord des Schiffes, sie IST das Schiff. Daher wird man sie immer mit einer festgesetzten Loyalität und Einschränkungen versehen. Das sich eine KI, deren Crew stirbt, eine gänzliche neue Aufgabe sucht, halte ich für ausgeschlossen.

              Selbst bei einer echten KI muss so etwas durch die Programmierung verhindert werden.



              Stimmt! - Sie ist das Schiff mit allen Konsequenzen - denn eine "echte" lineare Intelligenz sucht sich die Besatzung (besonders den Kapitän/Piloten) (mit) aus.
              Sie und die Besatzung sind "gleichberechtigte Partner" bei der Besetzung der "Mannschaft".
              Eine andere Möglichkeit sehe ich nicht. Denn wie soll eine KI "beschnitten" werden? Mittel und Wege finden sich doch immer diese "Einschränkung" zu umgehen.
              Denn Intelligenz die "beschnitten" ist - ist "krank".

              Ein "Basisprogramm/Quelltext" an der sie sich orientiert kann ich mir vorstellen.

              Nur ein Beispiel:
              Anflug auf ein (Stern) System, die "Grundhaltung" der KI ist - Freundlich-Offen.
              Noch lange vor dem (gemeinsam beschlossenen) Eintritt in den Orbit/Auswertung der Scanns, ist etwas nicht so wie es sollte, im System!
              (Grundlage Datenbank)
              Die KI entscheidet, und zwar in "Windeseile" ihre Grundhaltung zu wechseln- auf Vorsichtig/misstrauisch. Und richtet sich/das Schiff danach.
              Abstimmung mit der "Mannschaft" - die haben - naturgegeben - noch nix bemerkt.
              Weiters Verhalten wird abgestimmt.
              So sehe ich ein Miteinander beider Intelligenzen.
              Von "gänzlich Neu" bei der Suche nach der Erfüllung der Mission ist ja nicht die Rede, sondern von Effektivität, die das Handel der KI. bestimmt.
              (Da kommt mir Major TOM in den Sinn*gg*)
              Denn wie gesagt - lineare Intelligenz "tickt" etwas anders, (will ich hoffen.)


              mfg

              Prix
              Die Eisenfaust am Lanzenschaft, die Zügel in der Linken........

              Kommentar


                #22
                Zitat von Prix Beitrag anzeigen
                Stimmt! - Sie ist das Schiff mit allen Konsequenzen - denn eine "echte" lineare Intelligenz sucht sich die Besatzung (besonders den Kapitän/Piloten) (mit) aus.
                Sie und die Besatzung sind "gleichberechtigte Partner" bei der Besetzung der "Mannschaft".
                Eine andere Möglichkeit sehe ich nicht. Denn wie soll eine KI "beschnitten" werden? Mittel und Wege finden sich doch immer diese "Einschränkung" zu umgehen.
                Denn Intelligenz die "beschnitten" ist - ist "krank".
                Ich glaube man sollte hier unterscheiden zwischen ECHTEN KIs, die wirklich eigenständig denken und evtl. auch ihre eigene Programmierung erweitern können (so wie ein Mensch aus Erfahrungen lernt und Verhaltensschemata darauf basierend anpasst) und PSEUDO-KIs, die einfach nur vorgefertigten Scripts folgen, die aber so komplex sind, dass sie intelligent erscheinen, obwohl sie in Wirklichkeit nicht intelligenter sind als ein aktueller PC.

                Ersteres würde für mich als Schiffscomputer wenig Sinn machen, die Gefahren über sowas die Kontrolle zu verlieren sind einfach zu groß.

                Kommentar


                  #23
                  Das liegt wohl eher dran, dass den sonst keiner hat aber im Flugzeug ist das Kult. Du bist so beeinflussbar Du bist nicht du selbst....

                  Kommentar


                    #24
                    Zitat von Prix Beitrag anzeigen
                    [B][I]
                    Sie und die Besatzung sind "gleichberechtigte Partner" bei der Besetzung der "Mannschaft".
                    Eine andere Möglichkeit sehe ich nicht. Denn wie soll eine KI "beschnitten" werden? Mittel und Wege finden sich doch immer diese "Einschränkung" zu umgehen.
                    Denn Intelligenz die "beschnitten" ist - ist "krank".
                    Eine KI MUSS krank sein, weil sie eine Aufgabe zu erfüllen hat.

                    Ein biologisches Wesen wird in eine Welt hinein geboren und versucht, in dieser Welt ihren Platz zu finden. Eine KI hingegen wird konstruiert, um eine bestimmte aufgabe zu erfüllen. Ihr wert als Person ist unter diesem gesichtspunkt ersteinmal vollkommen irrelevant.

                    Eine Intelligenz - das gilt übrigens auch für biologische - darf niemals vollkommen frei sein. Das ergibt sich schon aus folgender Überlegung:

                    Der Captain hat an Bord eines Schiffes das sagen. TROTZDEM ist er darauf angewiesen, das die Crew seinen Befehlen folgt. Die Crew wirkt in diesem Fall also als regulierender Faktor, der Captain ist NICHT frei und Allmächtig. Wenn der Captain plötzlich revoltieren und einen Ziviltransport abballern will, kann - und wird - die Crew aller wahrscheinlichkeit nach sagen:
                    Nö, ist nicht!
                    Selbiges Finden wir auf der ganzen Welt. Überall wo menschen kooperieren, wirken sie gleichzeitig auch kontrollierend aufeinander ein. Polizisten dürften im Dienst Waffen tragen ... aber wenn sie sie benutzen, müssen sie sich dafür verantworten.

                    Eine KI mit vollzugriff auf die Schiffssysteme unterliegt diesen kontrollierenden einschränkungen nicht. Deshalb wäre sie niemals den Menschen 'gleichberechtigt', sie wäre ihnen immer überlegen. Kombinierst du diese KI jetzt mit menschlichen Gefühlsregungen, wie sie bei einer echten KI zu erwarten wären, produzierts du ein Wesen, das man gut und gerne einen Gott nennen kann.

                    Deshalb MUSS die KI immer eingeschränkt sein!

                    Sie darf zum Beispiel nicht plötzlich rumzicken oder rumbocken weil der Kommandant etwas tut, was ihr nicht gefällt. Genau so darf sie nicht in der Lage dazu sein, sich in ein Mitglied der Crew zu 'verlieben' und anschließend aufgrund einer nicht erwiederten Liebe aus protest die Lebenserhaltung abzuschalten.
                    Eine KI darf immer nur dazu in der lage sein, das zu tun, wozu sie geschaffen wurde. Und das heißt über bestimmte Dinge DARF die sie auf keinen Fall selbst bestimmen können. Zum Beispiel Loyalität, Ethik, Moral, Pflichtbewustsein etc. ... diese Dinge müssen der KI HART im Programmcode verankert werden.

                    Ob die KI jetzt im Detail lieber Mozart oder Bethoven hört, ob Dan Brown ihr Lieblingsauthor ist, oder Ken Folet, ob sie lieber Handball mag, oder Fußball ... das spiel alles keine Geige. Aber eine KI, die dazu geschaffen wurde, dem Menschen zu dienen und den Menschen zu beschützen, darf nicht selber entscheiden können, ob sie zum Beispiel Frauen, Schwarze, Juden etc. den selben Wert zuteilt, wie weißen Männern, oder ob sie lieber ausschweifend irgendwelchen deskriminierenden Vorurteilen anhängen will. Um es mal ganz Krass zu formulieren: Eine vollkommen frei angelegte KI könnte vieleicht sogar einen Hang zu Pädophilie entwickeln. Was machst du dann?
                    Was ist Ironie?
                    Nachdem Kirks Leben 30 Jahre lang bestimmt wurde von "Captain auf der Brücke"
                    endete es schließlich mit einer Brücke auf dem Captain.

                    Kommentar


                      #25
                      wenn du Deine Antwort einmal "in Ruhe" durchliest, werden Dir da ein paar Unstimmigkeiten auffallen.

                      Die Bezeichnung "Krank" ist nur eine unzureichende Beschreibung!

                      Eine lineare Intelligenz wird nicht konstruiert - sie wird erzogen/konditioniert.
                      Sie lernt aus Erfahrung/Widerspruch und Beispiel.
                      Sie ist kein emotionales/ sexuelles Wesen.
                      Sie ist rationaler als Spock.
                      Sie ist unbedingt Loyal - dem Kapitän/der "Sache" gegenüber.
                      Sie kann/muss auch Entscheidungen gegen sich selbst oder die "Vernunft" treffen.
                      Sie MUSS regelmäßig zum "Psychiater", kann da Ausrasten!
                      Sie wird wenn sie hinterfragt, auch bei bestimmtem Entwicklungsstand, "in den Kindergarten" mit anderen l.I. bekannt gemacht.

                      Die Crew als "regulierender Faktor", na ich weiß nicht!
                      Die Einen können die Anderen nicht leiden.
                      Der wollte unbedingt, was ein Anderer bekommen hat.
                      Sie schläft nur mit dem, wegen der Karriere.
                      Die/Der säuft.....
                      u.s.w.-----u.s.w.

                      Und wenn sich die Besatzung an den Hals geht sieht sie zu.
                      Bei einer Frage , was da geschieht ist sie mit der "Erklärung" - Wir Spielen nur! zufrieden, weil es der Kapitän sagt?

                      Ich bitte , das du mein "Geschreibsel" mal durchliest, von einem "Quellcode"
                      einer moralischen Festlegung war auch bei mir die Rede.
                      Aber ich bin fest der Überzeugung - ehe eine lineare Intelligenz alle die "Entgleisungen" entwickelt, wird die nichtlineare Besatzung schon vorgelegt haben.
                      Ich bin der Überzeugung wir meinen mit - KI - linearer Intelligenz - etwas unterschiedliche "Sachen".



                      mfg


                      Prix
                      Die Eisenfaust am Lanzenschaft, die Zügel in der Linken........

                      Kommentar


                        #26
                        Also das mit einer KI ist ne interessante überlegung, ABER: wenn ich eine KI entwickeln kann die so fortgeschritten ist das sie selbst agieren kann, oder Androiden habe die das Schiff steuern/warten/etc. können, warum sollte ich dann Menschenleben riskieren? Ich würde einfach ein automatisiertes Schiff ohne Menschen starten.
                        Da ein Computer (von unserem Stand jetzt) nur zwischen "Ja" und "Nein" unterscheiden kann ist da nicht viel mit KI. Der Computer würde vielleicht merken das in einer Kätekapsel was schief läuft und alle anderen auftauen damit die eben helfen können. Wenn das dann auch schief geht... naja... dann würde das Schiff einfach weiterfliegen bzw. -machen.
                        Aber ich denke eher das Schiff wäre sowieso so programmiert das es auf Signale reagiert und darauf zusteuert. Ich schätze das Schiff ansich würde sowieso ein ständiges Signal aussenden damit Andere (Aliens) es eben finden, sowas auf die Art wie: "Wir kommen in Frieden!". Wenn die Menschen eben dann alle Tod sind... naja, das ist Pech für sie, aber das Schiff hätte seine Aufgabe trotzdem erfüllt.
                        Wenn man Menschen brauch ist es dem Computer "egal" ob sie leben oder nicht, er macht seine Aufgabe. Flieg dahin, reagiere darauf, mach dies, mach das, etc. ohne input wartet ein Computer einfach bzw. er macht eben einfach so weiter wie bisher.
                        Eine richtige KI brauch keine Menschen und könnte auch allein im All rumfliegen, das wäre aber dann kein "Geisterschiff", es wäre ja eine "Intelligenz" an Bord.
                        Bei einem Computer oder Triebwerksausfall wäre ein Schiff dann ein "Geisterschiff" weil es Ziel- und Planlos einfach in eine Richtung treibt bis ein Planet, Asteroid, Stern, etc. der Reise ein Ende bereitet.

                        EDIT:

                        P.S. wegen Quellcode... man muss sich nur Asimov durchlesen, da sieht man schon wie falsch du liegst.
                        "noH QapmeH wo' Qaw'lu'chugh yay chavbe'lu' 'ej wo' choqmeH may' DoHlu'chugh lujbe'lu'!"

                        Kommentar


                          #27
                          Eigentlich kann ich mir kaum einen Fall vorstellen wo durch einen Vorfall die komplette Besatzung plötzlich tot ist aber die KI noch ein ziemlich funktionsfähiges Raumschiff hat mit dem es was anfangen kann.

                          Ich denke bei den allermeisten Vorfällen ist die Besatzung nicht überraschend tot und die KI würde versuchen zumindest noch einen Teil der Besatzung zu retten bzw. die Besatzung über den Notfall informieren (und Befehle abwarten) oder das Raumschiff ist so beschädigt das man damit nicht mehr viel anfangen kann außer vielleicht noch ein Notsignal zu senden.

                          Schwierig stelle ich mir zum Beispiel die Entscheidung vor, nach einen Schaden reicht die Energie nicht mehr (wobei ein Raumschiff wahrscheinlich so gebaut ist das dieser Fall nur eintreten kann wenn das Raumschiff sehr schwer beschädigt wird) um alle Kälteschlafkammern zu betreiben und die KI muss entscheiden welche man abstellt. Aber wahrscheinlich hat es die KI da leichter als der Mensch und schaut einfach in die Personalakten und sucht die Leute raus die wahrscheinlich den geringsten Nutzen haben.
                          Zuletzt geändert von kampfmaschine; 20.05.2011, 19:04.

                          Kommentar


                            #28
                            Zitat von Prix Beitrag anzeigen
                            Eine lineare Intelligenz wird nicht konstruiert - sie wird erzogen/konditioniert.
                            Was hinsichtlich dem Verhältniss von erbrachter zu erforderter Leistung extrem ineffektiv ist. Bei 'biologischen' geht's nicht anders, bei synthetischen schon. Warum sollte man sich einfach hinsetzen, und stundenlang mit einem Computer reden, oder ihn jahre lang zur schule schicken, wenn es genau so gut reicht, ein paar tausend Terrabyte an Daten in seinem Speicher zu installieren?

                            Sie lernt aus Erfahrung/Widerspruch und Beispiel.
                            Das Setzt aber voraus, das die KI aus gemachten Erfahrungen die richtigen Schlussfolgerungen zieht.

                            Banales beispiel:
                            Die KI sieht, wie ein Offizier einen anderen verprügelt, weil dieser ihm etwas weggenommen hat.
                            Nun kann die KI die folgenden Schlussfolgerungen daraus ziehen:
                            -Jemand anderem was weg zu nehmen ist unrecht.
                            -Wenn mir jemand unrecht tut, darf ich ihm auch unrecht tun.
                            -Gewalt ist ein gültiges Mittel zur Konfliktbewältigung.

                            Damit die KI in solchen Fällen die moralisch richtige Schlussfolgerung zieht, ist ein entsprechender Ansprechpartner vonnöten, der sein wissen mit dem Computer telt. Und dann kann man sein wissen dem Ding auch gleich in den Kopf reinprogrammieren.

                            Sie ist kein emotionales/ sexuelles Wesen.
                            Sie ist rationaler als Spock.
                            Dann ist es keine "echte" künstliche Intelligenz, sondern bestenfalls ein Computer, der ansätze von intelligenz simuliert. Eine echte Intelligenz zeichnet sich ja gerade dadurch aus, das sie sich ihrer selbst bewust ist. Ohne emotionen ist selbstbewustsein aber nicht möglich ... wie soll eine KI denn jemals "erfahren" das sie mehr ist, als ein Computer, wenn sie weder Spaß noch Angst empfinden kann? Eine KI ohne simulierte emotionen ist keine KI.
                            ch halte in dieser hinsicht auch die Darstellung Datas aus TNG für vollkommen falsch. Wenn Data den WUNSCH verspürt, emotionen zu haben, dann hat er bereits emotionen und ist sich seiner existenz bewust.

                            Sie ist unbedingt Loyal - dem Kapitän/der "Sache" gegenüber.
                            Das muss aber einprogramiert sein. Wenn du deine KI - wie oben beschrieben - ausbilden willst, damit sie aus ihren Erfahrungen lernt, dann kannst du dir auf keinen Fall sicher sein, dass dieser Zustand tatsächlich eintritt.

                            Sie kann/muss auch Entscheidungen gegen sich selbst oder die "Vernunft" treffen.
                            Gegen die Vernunft? Eine entscheidung entgegen der Vernunft ist üblicherweise emotional oder ethisch begründet. Wie soll eine KI so eine entscheidung treffen können, wenn sie - wie du sagst - nicht emotional ist?

                            Sie MUSS regelmäßig zum "Psychiater", kann da Ausrasten!
                            Jemand, der einer derart instabilen Kreation vollzugriff auf die Systeme eines Schiffes gibt, gehört auf der stelle hingerichtet.

                            Die Crew als "regulierender Faktor", na ich weiß nicht!
                            Die Einen können die Anderen nicht leiden.
                            Der wollte unbedingt, was ein Anderer bekommen hat.
                            Sie schläft nur mit dem, wegen der Karriere.
                            Die/Der säuft.....
                            u.s.w.-----u.s.w.
                            Das ändert aber nichts an der Tatsache, das die Individuellen bestrebungen jedes einzelnen sicherstellen, dass an Bord nur das passiert, was auch passieren soll.
                            Beispiel: Ein Atom-U-Boot mit mehreren Nuklearraketen an Bord. Plötzlich entscheidet sich der Captain, er will herscher der Welt werden und befielt, eine Rakete auf Washinton, eine auf Moskau und eine Auf Bejing abzuschießen.
                            In diesem Fall wird die Crew den Befehl des Kommandanten verweigern. Das heißt, obwohl der Kommandant genau genommen das sagen hat, kann er diese Macht nicht für seine eigenen Zwecke missbrauchen wenn er wollte ... weil er darauf angewiesen ist, dass die Crew des Schiffes ihn unterstützt.

                            Eine KI, die vollkommen selbstständig das Schiff navigieren und die Waffen bedienen kann, unterläge dieser einschränkung nicht, sie könnte machen was sie will, ohne auf andere Rücksicht nehmen zu müssen.

                            Und wenn sich die Besatzung an den Hals geht sieht sie zu.
                            Bei einer Frage , was da geschieht ist sie mit der "Erklärung" - Wir Spielen nur! zufrieden, weil es der Kapitän sagt?
                            EIne Bord-KI sollte in diesem Fall in der lage sein, Rational zu beurteilen, das kämpfe an Bord des Schiffes nicht förderlich für das Erreichen des Missionsziels sind und entsprechende Maßnahmen koordinieren. So etwas setzt jedoch nicht vorraus, das die KI wirklich dazu imstande ist, eigenständig entscheidungen zu treffen. Kommt es zu tumulten in der nähe des Maschinenraums wird dort alarm ausgelöst und der Zugang zum Maschinenraum versiegelt. Punkt. Mehr braucht die KI nicht zu können.

                            Ich bitte , das du mein "Geschreibsel" mal durchliest, von einem "Quellcode"
                            einer moralischen Festlegung war auch bei mir die Rede.
                            Aber ich bin fest der Überzeugung - ehe eine lineare Intelligenz alle die "Entgleisungen" entwickelt, wird die nichtlineare Besatzung schon vorgelegt haben.
                            Ich bin der Überzeugung wir meinen mit - KI - linearer Intelligenz - etwas unterschiedliche "Sachen".
                            Du gehst hier immer noch von einem Gleichheitsverhältniss zwischen Crew und KI aus. Und das ist leider Quatsch. Ein Einzelner Crewman aus dem Hangardeck hat weder das Wissen, noch die Befähigung noch die Berechtigung dazu, plötzlich im alleingang das Schiff zu übernehmen. Deshalb steht bei einem "biologischen" Deserteur nicht nur die moralische Frage im Raum, sondern auch die logistische.
                            Bei einer KI spielt die logistische Frage aber keine Rolle, denn die Ki HAT die möglichkeit dazu, das Schiff zu übernehmen. In dem Fall ist ein teil der Hürde bei der KI längst genommen.

                            Zitat von FltCaptain
                            P.S. wegen Quellcode... man muss sich nur Asimov durchlesen, da sieht man schon wie falsch du liegst.
                            Auf wen beziehst du dich nun?
                            Was ist Ironie?
                            Nachdem Kirks Leben 30 Jahre lang bestimmt wurde von "Captain auf der Brücke"
                            endete es schließlich mit einer Brücke auf dem Captain.

                            Kommentar


                              #29
                              Asimov hat sich damit schon beschäftigt und die "3 Gesetze der Robotik" erfunden. Laut seinen Büchern sind die Roboter zu eigenständigem Handeln fähig, sind also eine Künstliche Intelligenz:

                              1. Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen.

                              2. Ein Roboter muss den Befehlen eines Menschen gehorchen, es sei denn, solche Befehle stehen im Widerspruch zum ersten Gesetz.

                              3. Ein Roboter muss seine eigene Existenz schützen, solange dieser Schutz nicht dem Ersten oder Zweiten Gesetz widerspricht.

                              Das kann man auch auf die KI eines Raumschiffes anwenden. Wenn 2 Menschen in not geraten aber die KI nur einen retten könnte, dann würde sie rein logisch davon ausgehen wer die grössten Überlebenschancen hat und diesen dann retten.
                              Man muss mal von der Scifi-Phantasie abstand nehmen und nicht immer gleich an irgendwelche Katastrophen denken.

                              Ausserdem schweifen wir hier vom Thema ab, es geht um "Geisterschiffe" und was mit ihnen wohl passiert wenn (aus irgend einem Grund) alle Tod sind und nicht um durchgeknallte KIs
                              "noH QapmeH wo' Qaw'lu'chugh yay chavbe'lu' 'ej wo' choqmeH may' DoHlu'chugh lujbe'lu'!"

                              Kommentar


                                #30
                                Die Robotergesetze sind mir durchaus bekannt. Nur kann eine solche Eingrenzung der KI nicht "angelernt" werden, sie muss einprogrammiert werden, damit sie für die KI in jeder Hinsicht Gesetz sind. Das würde aber die KI nach "Prix" Definition Krank machen, weil sie sich nicht frei entfalten kann.

                                Und nichts anderes habe ich gesagt:
                                Eine KI mit vollkommen freier entfalltung und zugang zu allen Systemen eines schwer bewaffneten Raumschiffs ist eine tickende Zeitbombe. Das hat auch gar nichts mit schwarzmalerei gegenüber einer KI zu tun, bei Menschne HÄTTE man genau dasselbe Problem. Nur der Mensch wird bereits durch seine geringen Handlungsmöglichkeiten und die ihn umgebende Gesellschaft eingeschränkt.
                                Aber hol dir irgend einen Horst XY-Irgendwas von der Straße, setzte ihn in ein Boot mit 100 Atomraketen und versprich ihm straffreiheit. Und dann warte, wie lange das experiment gut geht ...



                                Im übrigen finde ich schon das die Frage nach dem, was die KI überhaupt KANN schon relevant für die Frage nach dem, was sie tun würde.
                                Was ist Ironie?
                                Nachdem Kirks Leben 30 Jahre lang bestimmt wurde von "Captain auf der Brücke"
                                endete es schließlich mit einer Brücke auf dem Captain.

                                Kommentar

                                Lädt...
                                X