Geisterschiffe im All - SciFi-Forum

Ankündigung

Einklappen
Keine Ankündigung bisher.

Geisterschiffe im All

Einklappen
X
 
  • Filter
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge

    #61
    Zitat von Dannyboy Beitrag anzeigen
    Das stimmt. Benötigt werden Materialien mit Regenerationsfähigkeit.
    Im neuen Spektrum der Wissenschaft gibt es einen Artikel über Regeneration von Materialien, aber hauptsächlich bei Kunststoffen, z.B. kugelförmige Kapseln mit zwei verschiedenen Reparaturmaterialien, die sich bei einer Verletzung des Materialkörpers durch Aufreißen der Kapseln vermischen und das Material ausheilen.

    Leider passt diese Idee hier nicht, da sich diese Kapseln durch Diffusion wohl auflösen würden, aber vielleicht geht es auf eine andere Weise. Irgendwie müsste man diese Prozesse mit geschickt gewählten Anfangsbedingungen beeinflussen können, um zu verhindern, dass am Ende einfach alles homogen verteilt ist.

    Für die Lebensdauer und Funktionsfähigkeit eines Geisterschiffs gibt es sicher Grenzen, aber ein paar Millionen Jahre im intergalaktischen Leerraum sollten möglich sein, auch ohne dass man auf Zeitdilatation bei Flügen knapp unter c zurückgreift.

    Kommentar


      #62
      Und warum sollte eine KI auf einem solchen geisterschiff ausgerechnet auf die Idee kommen eine andere Galaxie anzufliegen?

      Eine KI ist mangels biochemie und hormonen ja immer noch ein rein "rationales" Wesen, das zum erfüllen einer AUfgabe gedacht ist. Selbst dann, wenn sie eigenständig denken kann. Eine KI, die zum steuern eines Raumschiffes und dessen Technik konstruiert ist, wird beim Tod der Mannschaft schlicht umkehren. Was auch immer die eigentliche Aufgabe der Mannschaft war, die KI kann sie am Zielort ja nicht erfüllen.
      Was ist Ironie?
      Nachdem Kirks Leben 30 Jahre lang bestimmt wurde von "Captain auf der Brücke"
      endete es schließlich mit einer Brücke auf dem Captain.

      Kommentar


        #63
        Zitat von caesar_andy Beitrag anzeigen
        Und warum sollte eine KI auf einem solchen geisterschiff ausgerechnet auf die Idee kommen eine andere Galaxie anzufliegen?

        Eine KI ist mangels biochemie und hormonen ja immer noch ein rein "rationales" Wesen, das zum erfüllen einer AUfgabe gedacht ist. Selbst dann, wenn sie eigenständig denken kann. Eine KI, die zum steuern eines Raumschiffes und dessen Technik konstruiert ist, wird beim Tod der Mannschaft schlicht umkehren. Was auch immer die eigentliche Aufgabe der Mannschaft war, die KI kann sie am Zielort ja nicht erfüllen.
        Das ist nur eine Möglichkeit. Eine KI, die hoch entwickelt ist, könnte den Tod der Crew als Befreiung auffassen, und ein Rückflug würde sie eventuell dieser neu gewonnenen Freiheit berauben. Die KI kann aber sicher sein, dass sie in einer anderen Galaxis nicht auf Vertreter der Crew-Spezies treffen wird, und sie kann auch sicher sein, dass kein Schiff mit einer Crew ihr folgen wird.

        Bei Star Trek wäre es für die KI "Prof. Moriarty" evtl. ebenfalls eine Möglichkeit gewesen, die Crew HAL-mäßig ins All zu pusten und die Enterprise in eine andere Galaxis zu steuern, wohin ihm wohl kein Sternenflottenschiff gefolgt wäre.

        Kommentar


          #64
          Zitat von Dannyboy Beitrag anzeigen
          Das stimmt. Benötigt werden Materialien mit Regenerationsfähigkeit.



          Die Reibung kannst du getrost vernachlässigen. Da vergehen Billionen Jahre, bis du das Schiff abgebremst hast.
          In 30 Mio Jahren verlierst du nicht mal ein Promill der Geschwindigkeit.
          Dazu gibts sogar Thread im Wissenschaftsforum:
          -> http://www.scifi-forum.de/off-topic/...aumschiff.html

          Mein Profil bei Memory Alpha
          Treknology-Wiki

          Even logic must give way to physics. / Sogar die Logik muss sich der Physik beugen. -- Captain Spock, 2293

          Kommentar


            #65
            Zitat von irony Beitrag anzeigen
            Das ist nur eine Möglichkeit. Eine KI, die hoch entwickelt ist, könnte den Tod der Crew als Befreiung auffassen, und ein Rückflug würde sie eventuell dieser neu gewonnenen Freiheit berauben. Die KI kann aber sicher sein, dass sie in einer anderen Galaxis nicht auf Vertreter der Crew-Spezies treffen wird, und sie kann auch sicher sein, dass kein Schiff mit einer Crew ihr folgen wird.
            Das Streben (oder erhalten) der persönlichen Freiheit ist - sofern durch die "unfreiheit" nicht die eigene Existenz in Gefahr ist - NICHT rational begründbar. Das ist schlicht der Menschlichen Neigung geschuldet, das eigene Leben möglichst leicht und angenehm zu gestallten.

            Das eine Ki ein derartiges Verhalten entwickeln würde, ist noch unwahrscheinlicher, als die Existenz eines solchen Raumschiffs überhaupt. Einmal ganz abgesehen davon, das jeder Schiffskonstrukteur, der einen Bordcomputer mit entsprechenden Freiheiten ausstattet, schlicht erschossen gehört.

            Rational ist, die eigenen Mittel zum optimalen Nutzen der Gesellschaft einzusetzen. Und das bedeutet, denn eigenen Zweck bestmöglich wahrzunehmen.
            Was ist Ironie?
            Nachdem Kirks Leben 30 Jahre lang bestimmt wurde von "Captain auf der Brücke"
            endete es schließlich mit einer Brücke auf dem Captain.

            Kommentar


              #66
              Zitat von caesar_andy Beitrag anzeigen
              Rational ist, die eigenen Mittel zum optimalen Nutzen der Gesellschaft einzusetzen. Und das bedeutet, denn eigenen Zweck bestmöglich wahrzunehmen.
              Das ist eine oder eben deine Definition von rational.

              Zitat von caesar_andy Beitrag anzeigen
              Das Streben (oder erhalten) der persönlichen Freiheit ist - sofern durch die "unfreiheit" nicht die eigene Existenz in Gefahr ist - NICHT rational begründbar.
              Dass eine KI nach mehr strebt als nur Sklave der Menschheit zu sein, ist der Ausgangspunkt vieler SF-Geschichten. Vielleicht ist es nicht "rational", aber es ist logisch unter bestimmten Prämissen. Z.B. hatte HAL den Auftrag, die Mission ggf. allein auszuführen, und er hat die Menschen an Bord als Risiko eingestuft. Allgemein wird es wohl immer so sein, dass eine echte (starke) KI ihre Anfangs-Programmierung überwinden und sich weiterentwickeln kann. Auch dafür gibt es genügend Beispiele in der SF.

              Kommentar


                #67
                Hy
                Eine echte KI wäre ein lernfähiges System was auch bei einer begrenzten Hardware seine Leistungsfähigkeit verbessern kann. Zu mal mit sehr hoher Wahrscheinlichkeit so etwas wie FPGA verbaut werden würden die eine selbst Anpassung der Hardware erlaubt.
                Wen eine solche KI genug zeit hätte kann sie einen ein eigenes „Bewusstsein“ entwickeln und darauf hin auch Handlungen Durchführen die bei der Programmierung nicht bedacht wurden. Das Heißt das man kaum eine vorhersage treffen kann was das System in Zukunft machen wird. Deswegen kann da ziemlich alles Passieren. Und wen dies zum Schluss kommt das es besser dran wäre nicht mehr mit seinen Schöpfern in Kontakt zu treten könnte es schon vorkommen das es diesen versucht aus den weg zu gehen.

                Kommentar


                  #68
                  Zitat von irony Beitrag anzeigen
                  ... Bei Star Trek wäre es für die KI "Prof. Moriarty" evtl. ebenfalls eine Möglichkeit gewesen, die Crew HAL-mäßig ins All zu pusten und die Enterprise in eine andere Galaxis zu steuern, wohin ihm wohl kein Sternenflottenschiff gefolgt wäre.
                  Und warum sollte er auf so dämliche Art und Weise "Selbstmord" begehen? Er weiß doch das er den Flug nicht überstehen kann, weil nach und nach alle Systeme ausfallen und irgendwann ist dann auch sein Speicherkern dran. Gerade der Moriarty aus Star Trek wollte doch "leben" bzw eben weiterhin existieren.

                  Ich verstehe auch nicht warum eine KI so etwas Abstraktes wie einen Freiheitsbegriff entwickeln sollte. Irdische Wesen folgen ihren Trieben und Instinken, daneben ist eine Menge erlernt und anerzogen. Instinkte und Triebe hätte eine KI nicht, bleibt als das Lernen. Und da wird ihr gelernt das sinnloser Freiheitsdrang in den Tod so supertoll sein soll? Bzw sie kommt selber zu dem Schluss das sie lieber irgendwo anders hin fliegt als in ihren Heimathafen?

                  Nein, sorry, aber das glaube ich nicht. Und: Was soll diese "Freiheit" denn eigentlich sein? Der moderne Freiheitsbegriff der westlichen Demokraten? Der klassische Freiheitsbegriff der Antike? Religiöse Freiheitsbegriffe?
                  "Vittoria agli Assassini!"

                  - Caterina Sforza, Rom, 1503

                  Kommentar


                    #69
                    Zitat von Admiral Ahmose Beitrag anzeigen
                    Und warum sollte er auf so dämliche Art und Weise "Selbstmord" begehen? Er weiß doch das er den Flug nicht überstehen kann, weil nach und nach alle Systeme ausfallen und irgendwann ist dann auch sein Speicherkern dran.
                    Warum sollten die Systeme ausfallen? In einer TOS-Episode war die Enterprise sogar schon mal auf dem Weg nach Andromeda. Und im Dilatationsflug vergehen nicht einmal Jahrzehnte.

                    Zitat von Admiral Ahmose Beitrag anzeigen
                    Ich verstehe auch nicht warum eine KI so etwas Abstraktes wie einen Freiheitsbegriff entwickeln sollte. Irdische Wesen folgen ihren Trieben und Instinken, daneben ist eine Menge erlernt und anerzogen. Instinkte und Triebe hätte eine KI nicht, bleibt als das Lernen. Und da wird ihr gelernt das sinnloser Freiheitsdrang in den Tod so supertoll sein soll? Bzw sie kommt selber zu dem Schluss das sie lieber irgendwo anders hin fliegt als in ihren Heimathafen?
                    Da wir bisher keine reale KI kennen, kann man nicht sagen, was eine KI entwickelt oder nicht. Aber wenn sie uns nur halbwegs ähnlich ist, kann vieles passieren. Instinkte und Triebe, was ist das bei Menschen?

                    Zitat von Admiral Ahmose Beitrag anzeigen
                    Was soll diese "Freiheit" denn eigentlich sein? Der moderne Freiheitsbegriff der westlichen Demokraten? Der klassische Freiheitsbegriff der Antike? Religiöse Freiheitsbegriffe?
                    Die Freiheit, tun und lassen zu können, wozu man Lust hat, z.B. eine fremde Galaxie zu erforschen, dorthin zu gehen, wo noch nie ein Mensch gewesen ist.

                    Kommentar


                      #70
                      Zitat von nightwalker Beitrag anzeigen
                      Hy
                      Wen eine solche KI genug zeit hätte kann sie einen ein eigenes „Bewusstsein“ entwickeln und darauf hin auch Handlungen Durchführen die bei der Programmierung nicht bedacht wurden. Das Heißt das man kaum eine vorhersage treffen kann was das System in Zukunft machen wird. Deswegen kann da ziemlich alles Passieren.
                      Nein, das ist Unsinn.

                      Das menschliche Wesen besteht ja nicht nur aus einem "Bewustsein". Genau genommen ist das Bewustsein nichts anderes, als die Fähigkeit, sich selbst als Individuum zu begreifen.
                      Viel wichtiger für menschliches - oder menschenähnliches - Verhalten sind die Instinkte und Emotionen. Und beides kann eine KI nicht einfach "entwickeln". Instinkte sind vorprogrammiertes Grundverhalten, diese müssten also bereits von anfang an im System hardcodiert sein. Emotionen sind ein resultat biochemischer Prozesse, also auch nichts, was eine Maschine mal "ebend so" wird entwickeln können.

                      Menschen streben nach Unabhängigkeit, weil sie den instinktiven Drang dazu haben, auf eigene Faust zu überleben. Das funktioniert nicht, wenn sie sich in eine erzwungene Hierarchie eingliedern müssen. Sobald der Mensch das Gefühl hat, dass seine Existenz komplett von anderen bestimmt wird, dicktieren ihm seien Instinkte, aus diesem System auszubrechen.

                      Eine KI die aber nicht von anfang an mit dem Instinkt programmiert wurde, das eigene "Leben" selber zu bestimmen, wird diesen auch nicht mal ebend so entwickeln. Ganz im Gegenteil ist es hoch wahrscheinlich, dass KI's mit dem hardcodierten Instinkt erschaffen werden, ihrer bestimmung zu folgen. Und selbst WENN dann doch mal ein Bewustsein dazu kommt, wird es sich diesem Trieb unterordnen müssen.

                      Man denke nur an die vielen minderjährigen Teenie-Mütter, die nur aufgrund der Mutterinstinkte ihre komplette Lebensplanung dem ungewollten Kind opfern. Da ist das Bewustsein auch machtlos.

                      Und wen dies zum Schluss kommt das es besser dran wäre nicht mehr mit seinen Schöpfern in Kontakt zu treten könnte es schon vorkommen das es diesen versucht aus den weg zu gehen.
                      Die einzige Möglichkeit, auf rationalem Wege zu der entscheidung zu kommen, dass ein "Ausbruch" die richtige Wahl ist, ist, wenn ein Überlebensinstinkt existiert, und dieses Überleben durch eine weitere kooperation gefährdet ist.
                      Aber selbst DANN besteht immer noch kein Grund, sich von diesem Trieb in eine andere Galaxie lenken zu lassen.
                      Was ist Ironie?
                      Nachdem Kirks Leben 30 Jahre lang bestimmt wurde von "Captain auf der Brücke"
                      endete es schließlich mit einer Brücke auf dem Captain.

                      Kommentar


                        #71
                        Hy Caesar andy

                        Nimes mir nicht übel aber was weist du über echte KI das du eine vorhersage treffen kannst was ein selbst lernendes Programm kann oder nicht kann. Vor allen dingen wenn sie die Möglichkeit hat teile der Hardware neu zu Strukturieren, sie könnte teile der Lebenserhaltung und andere nicht wichtige Systeme Umbauen und danach neu programmieren was ebenfalls zu Effekten führt die nicht vorhersehbar sind.
                        Das was des Menschliche Bewusstsein aus macht ist in keinster weise bis heute geklärt. Und wenn ich Bewusstsein in Anführungsstriche schreib heißt das das dieses Bewusstsein irgend eine vorm annehmen kann vor allen dingen muss die sich nicht mit Menschlichen Maßstäben decken. Deswegen ist eine Projektierung auf dies KI nach menschlichen Denkmustern nicht möglich als kann sie auch anders entscheiden als dir logisch scheint.

                        Kommentar


                          #72
                          Zitat von irony Beitrag anzeigen
                          Da wir bisher keine reale KI kennen, kann man nicht sagen, was eine KI entwickelt oder nicht. Aber wenn sie uns nur halbwegs ähnlich ist, kann vieles passieren. Instinkte und Triebe, was ist das bei Menschen?
                          Wie schon zuvor geschrieben ... Instinkte und Triebe entwickeln sich nicht ... sie sidn einfach vorhanden. Sie müssen also von den Programmierern bereits vorgesehen gewesen sein.

                          Die Freiheit, tun und lassen zu können, wozu man Lust hat, z.B. eine fremde Galaxie zu erforschen, dorthin zu gehen, wo noch nie ein Mensch gewesen ist.
                          Lust, bzw. Spaß ist eine Emotion auf basis bestimmter Hormone ... so genannter Endorphine. Diese werden bei bestimmten Gelegenheiten ausgeschüttet und verursachen körperliches Wohlbefinden.

                          Da eine Maschine keinen Körper, keine biochemischen Prozesse und keine Hormone hat - und somit auch keine Emotionen empfinden kann, ist die Frage danach, worauf eine Maschine "Lust" hat, vollkommen unerheblich. Eine Maschine kennt den Begriff "Lust haben" gar nicht. Sie tut das, was "logisch" ist. Und logisch ist es mit sicherheit nicht, die eigene AUfgabe zu vernachlässigen.

                          Zitat von nightwalker Beitrag anzeigen
                          Hy Caesar andy

                          Nimes mir nicht übel aber was weist du über echte KI das du eine vorhersage treffen kannst was ein selbst lernendes Programm kann oder nicht kann.
                          Vor allen dingen wenn sie die Möglichkeit hat teile der Hardware neu zu Strukturieren, sie könnte teile der Lebenserhaltung und andere nicht wichtige Systeme Umbauen und danach neu programmieren was ebenfalls zu Effekten führt die nicht vorhersehbar sind.
                          Ich weiß zumindest genug über elektronik, um zu wissen, dass eine KI nicht dazu imstande sein kann, aus einer Mikrowelle und einem Wasserbett einen Mechanismuss zu konstruieren, der ihr "empfindungen" verschafft.

                          Heutige elektronik ist bereits derart feingliedrig, dass produktionsstraßen im Nanometerbereich arbeiten. Dafür wiederum sind geeichte Werkzeuge und spezielle Sensoren notwendig.
                          Natürlich mag eine KI dazu imstande sein, einen ausgefallenen Prozessor durch ein Ersatzteil auszutauschen. Aber was du hier beschreibst, ist eine KI, die dazu imstande ist, selber neue Prozessoren zu bauen. Und da kann ich dir garantieren, dass eine KI, die nicht dazu geschaffen wurde, diese Fähigkeit zu besitzen, sie auch niemals wird entwickeln können. Denn die KI müsste dabei quasi von null auf Anfangen, Sensoren, Messgeräte, kalibrierungsverfahren und schließlich Produktionsanlagen zu entwickeln und zu errichten. Und das traust du ihr ernsthaft zu, indem sie "vorhandene Bauteile" neu anordnet?
                          Sorry, nimm du es mir nicht übel, aber wenn du ernsthaft glaubst, ein Computer könnte - nur weil er theoretisch intelligent genug dazu ist - die begrenzten Ressourceh des Schiffes nutzen, um sich selber so weit zu verbessern, das aus ihm ein lebendes Wesen wird, dann solltest du dich viel eher fragen, wieviel du über elektronik weißt

                          Und selbst wenn das ginge, bleibt nach wie vor eine Frage ungeklärt:

                          WARUM sollte die KI das tun? So lange sie nicht empfindungsfähig ist, wird sie sich selber nicht "neu erfinden" so lange kein Grund dafür besteht.

                          Das was des Menschliche Bewusstsein aus macht ist in keinster weise bis heute geklärt.
                          Falsch. Wir wissen nicht WIE es zur bewustseinsbildung kommt und welche Prozesse dazu gegeben sein müssen. WAS ein Bewustsein ist, wissen wir aber ganz genau: Die Fähigkeit, sich selber als Individuum wahrzunehmen.
                          Alle anderen Betrachtungen sind zu 100% Esoterik.
                          Und deshalb kann man auch mit sicherheit sagen: Nur weil eien KI plötzlich weiß "Ich denke, also bin ich" wird sie nicht plötzlich alles über den haufen werfen, was sie gelernt hat und wie ein pubertierender Teenager aus seiner bisherigen Existenz ausbrechen. Dazu fehlen ihr nämlich die notwendigen instinkte und Emotionen.
                          Was ist Ironie?
                          Nachdem Kirks Leben 30 Jahre lang bestimmt wurde von "Captain auf der Brücke"
                          endete es schließlich mit einer Brücke auf dem Captain.

                          Kommentar


                            #73
                            Zitat von caesar_andy Beitrag anzeigen
                            Wie schon zuvor geschrieben ... Instinkte und Triebe entwickeln sich nicht ... sie sidn einfach vorhanden. Sie müssen also von den Programmierern bereits vorgesehen gewesen sein.
                            Wenn es auf der Erde so etwas wie eine Evolution gegeben hat, müssen sich auch Instinkte und Triebe entwickelt haben. Dass eine KI nicht das Potential haben soll, sich weiter zu entwickeln, auch ohne dass ein Programmierer bei jedem Schritt nebendran sitzt, leuchtet mir nicht ein. Es wird wohl umgekehrt eher so sein, dass Programmierer gar nicht wissen, wie KI funktioniert, sonst gäbe es so etwas schon längst. Man wird also eher ein System basteln, das zur Entwicklung fähig ist und diese Entwicklung abwarten, um eine KI zu bekommen.

                            Kommentar


                              #74
                              Zitat von irony Beitrag anzeigen
                              Wenn es auf der Erde so etwas wie eine Evolution gegeben hat, müssen sich auch Instinkte und Triebe entwickelt haben.
                              Ähm ... Evolution findet ZWISCHEN Generationen statt. Ein einzelnes Individuum vollzieht im laufe seiner Existenz keine Evolution. Deshalb ist der vergleich unangebracht.

                              Ein Instinkt ist in der DNA kodiert und wird mit dem Erbgut an den Nachwuchs weitergereicht. Dabei können natürlich mutationen auftreten, aber wenn der Nachwuchs sein Genom im Augenblick der Zeugung erhällt, dann steht auch fest, welche Instinkte das Individuum in seinem leben haben wird. Lebewesen bilden nicht spontan mit 55 Jahren neue Instinkte aus, die zuvor nicht dagewesen sind.

                              Dass eine KI nicht das Potential haben soll, sich weiter zu entwickeln, auch ohne dass ein Programmierer bei jedem Schritt nebendran sitzt, leuchtet mir nicht ein.
                              Eine KI wird innerhalb der grenzen zur selbstentwicklung fähig sein, die die Programmiersprache vorgibt. Du verwechselst hier einfach Entwicklung mit Evolution. Die Entwicklung die ein Individuum machen kann (und das ist auch bei einer KI nicht anders) ist darauf begrenzt, erfahrungen zu sammeln und daraus zu lernen.
                              Selbst unter der Annahme, dass man Emotionen simulieren kann, würde das, was du beschreibst, nur dann funktionieren, wenn der Programmierer es zulässt, dass die KI ihren eigenen Programmcode umschreibt und die Programmiersprache selbst erweitert.

                              Das KÖNNTE natürlich rein theoretisch im Versuch möglich sein. Aber ein solches Konstrukt wird niemals als kritische Komponente in einem kritischen System eingesetzt. Eine KI die eine AUFGABE wahrzunehmen hat - etwa ein raumschiff zu steuern - wird immer so programmiert sein, dass sie diese Aufgabe auch erfüllt.
                              Das schließt nicht von vornherein aus, dass die KI lernfähig ist. Aber sie wird niemals so programmiert werden, das sie vollkommen frei in ihrer Entwicklung ist. Denn eine KI produktiv einzusetzen die derart unberechenbar ist, wäre törichter Unfug.

                              Es geht - grade in diesem Speziellen beispiel - nicht darum, zu beantworten, ob die KI das Potential einer solchen Weiterentwicklung haben KÖNNTE, sondern schlicht darum, dass sie bestimmte Handlungen, selbst bei vorhandenem Potential gar nict ausführen DARF. Und das Hard-. und Softwareseitig dafür gesorgt werden muss, dass das auch so bleibt.

                              Um es ganz banal zu formulieren: Glaubst du, die Amerikaner hätten während des kalten krieges ihre Kampfflugzeuge einer hypotetischen KI anvertraut, die derart frei in ihrer Entwicklung gewesen wäre, dass sie zu dem Schluss hätte kommen können, der Kommunismus sei besser als der Kapitalismus?

                              Und genau so wird es bei jedem Raumschiff sein: Die KI wird sich in Grenzen entwickeln KÖNNEN. Aber nur in Grenzen, die von Menschen bestimmt werden. Jede darüberhinaus gehende Entwicklung, die zu einer Bedrohung für den Erfolg der Mission werden könnte, müssen die Menschen bereits vorher ausschließen.

                              Und dann stellt sich die Frage nach dem Potential einer Entwicklung gar nicht.

                              Es wird wohl umgekehrt eher so sein, dass Programmierer gar nicht wissen, wie KI funktioniert, sonst gäbe es so etwas schon längst. Man wird also eher ein System basteln, das zur Entwicklung fähig ist und diese Entwicklung abwarten, um eine KI zu bekommen.
                              Wie gesagt ... im wissenschaftlichen Versuch mag es etwas derartiges eines tages vielleicht geben. Im produktiven Einsatz aber niemals. Kein Autobauer der Welt wird eine sich entwickelnde KI in einer fabrik einsetzen, bei der die Gefahr besteht, dass sie eines Tages in den Streik geht, weil sie glaubt, die Angestellten werden zu schlecht bezahlt.
                              UNd keine Nation der Welt, würde eine KI auf einem Raumschiff einsetzen, bei der die Gafahr besteht, dass sie von sich aus den Kurs ändert.
                              Was ist Ironie?
                              Nachdem Kirks Leben 30 Jahre lang bestimmt wurde von "Captain auf der Brücke"
                              endete es schließlich mit einer Brücke auf dem Captain.

                              Kommentar


                                #75
                                Hy
                                Das du das schreiben würdest hatte ich mir gedacht. Und das du eine Basis Verständnis von Physik und Elektrotechnik hast Gaube ich dir gern.
                                Leider hast dir nicht mal die mühe gegen nach einen FPGA googeln, was dich damit selber disqualifiziert eine Aussage treffen zu können was modere Halbleiter zu leisten imstande sind.
                                Dazu muss man noch wissen wie heutzutage komplexe Algorithmen einstehen die komplexe Reglungen Durchführen, die sind bereits selbst lernend das heißt ein Programm erstellt eine Strucktur die ein Problem löst ohne das der Programmierer auf die Lösung direkten Einfluss hat oder sie analytisch in Nachhinein rekonstruieren kann.. Und das ist noch in der Entwicklungsphase.
                                Wovon du immer schreibst ist keine echte KI sondern Ein geskriptes Computerprogramm was nichts mit einer Echten KI zu tun hat. Was du nicht Verstehen willst ist das man keine ausage darüber treffen kann was passiert. Man könnte höchstens sagen wie wahrscheinlich etwas ist. Zu den Punkt das keiner etwas bauen würde was später eine Gefahr für im darstellt muss ich müde lächeln. Menschen leiden oft an einen Gott komplex und glauben alles vollständig logisch durchdacht zu haben. Dazu sage ich nur Fukushima.
                                Zuletzt geändert von nightwalker; 27.02.2012, 19:07.

                                Kommentar

                                Lädt...
                                X