Warum Raumjäger? - SciFi-Forum

Ankündigung

Einklappen
Keine Ankündigung bisher.

Warum Raumjäger?

Einklappen
X
 
  • Filter
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge

    Zitat von DataLT Beitrag anzeigen
    Und da sieht es bei der KI - wie besprochen - momentan sehr schlecht aus. Die Leistung von Computern hat sich in wenigen Jahren vervielfacht, die Software wird immer komplexer und durchdachter doch eine nennenswerte KI existiert nicht. Wer glaubt, man könne einmal künstliche Intelligenzen entwickeln, die mit dem Menschen gleichziehen oder sogar überlegen sind, ist im Beweisnotstand.
    Kein Mensch braucht eine KI, die mit dem Menschen in allen Bereichen gleichzieht. In Japan gibt es U-Bahnen mit Brems-KI, die können sanfter, effizienter und exakter bremsen als menschliche Fahrer. Schach-Computer, die Großmeister schlagen, sind ein alter Hut (und da hat man früher noch die KI-Forscher ausgelacht, von wegen, "kein Computer wird je einen guten Schachspieler schlagen können!"), "intelligente" Waschmaschinen-Steuerungen sind heute Standard.

    Wann geht denn eine KI als "intelligent" durch? Ich kenne Menschen, die können nicht kochen, und wenn man sie mit einem unvorhergesehenen Problem konfrontiert, dann geben sie auf. Sind Menschen dann auch nicht intelligent?

    Kommentar


      Wann geht denn eine KI als "intelligent" durch?
      Vorallem braucht es überhaupt keine allgemeine Intelligenz um das Problem hier zu lösen. Eine schwache KI reicht vollkommen aus und die gibt es auch heute schon genügend (u.a. alles was mit Spracherkennung/Übersetzungen zu tun hat). Die sind zwar auch nicht immer perfekt (siehe die bekannten Sprachtools von google), aber das ist ein menschlicher Übersetzter auch nicht.

      Interessant ist auch, das wir mittlerweile nah dran sind den Turing-Test zu schaffen, es fehlen nur noch ganze 5% (Computers still not quite clever enough to fool humans, Turing Test shows - Telegraph ). Ich bin jedenfalls ganz optimistisch, das wir starke KIs sehen werden, bevor das erste Fusionskraftwerk ans Netz geht. KIs spielen aber im heutigem Info-Studium nur eine untergeordnete Rolle, bei uns war das z.B. auf zwei Veranstaltungen beschränkt. Kein Wunder also, dass es da auf der Softwareseite jede Menge Nachholbedarf gibt (auch Hardwareebene sollten sich alle Probleme mit dem Memristor lösen lassen).
      "Wer Sicherheit der Freiheit vorzieht ist zu Recht ein Sklave"
      (Aristoteles 384 v.Chr. - 322 v.Chr.)

      Kommentar


        Hi Pyromancer,

        "Kein Mensch braucht eine KI, die mit dem Menschen in allen Bereichen gleichzieht."
        Das vermute ich auch. Es gibt Anwendungen, da sind KI's unschlagbar. Besonders dort wo klare Regeln herrschen. Bremsmanöver, Spiele wie Schach, Routineaufgaben usw. - klare Sache. Die Intelligenz Mensch entwickelt für solche Sachen sinnvollerweise gerne Mechanismen.

        "Wann geht denn eine KI als "intelligent" durch?"
        Daass ist noch gar kein Thema. Heutige KI's sind doch nur bessere Sortiermaschinen oder Handpuppen ihrer Erschaffer. In Sachen 'unabhängige allgemeine Intelligenz' schlägt sie wohl jeder Marienkäfer.

        "Die sind zwar auch nicht immer perfekt (siehe die bekannten Sprachtools von google), aber das ist ein menschlicher Übersetzter auch nicht."
        Will man ernsthaft die Fehler die ein stupides Übersetzungsprogramm macht, mit denen vergleichen, die ein Mensch macht? Der Mensch versagt primär dort, wo Präzision triumphiert (schreibt mal ein Wort falsch, Konzentrationsschwäche etc.) aber die Software versagt systematisch dort, wo es darum ginge den Sinn einer Aussage zu erfassen - dort wo Verstand gefragt wäre. Fehler sind in diesem Fall nicht gleich Fehler! Nirgendwo zeigt sich der Unterschied zwischen menschlicher Intelligenz und Softwareautomatismen (egal wie ausgeklügelt und kenntnisreich sie konstruiert wurden) anschaulicher als in diesem Bereich.

        Ich mache selber gelegentlich Übersetzungen und lasse mir manchmal von Programmen assistieren. Sobald diese den Bereich des regelhaften und eindeutigen verlassen versagen sie erbärmlich; sobald auch nur die geringste Überlegung und das geringste Verständnis tragend wird, ist es vorbei.

        Kommentar


          Zitat von DataLT Beitrag anzeigen
          Das vermute ich auch. Es gibt Anwendungen, da sind KI's unschlagbar. Besonders dort wo klare Regeln herrschen. Bremsmanöver, Spiele wie Schach,
          ...und eben feindliche Raumschiffe abschießen. Darum ging die Diskussion ja ursprünglich.

          Daass ist noch gar kein Thema. Heutige KI's sind doch nur bessere Sortiermaschinen oder Handpuppen ihrer Erschaffer. In Sachen 'unabhängige allgemeine Intelligenz' schlägt sie wohl jeder Marienkäfer.
          Was soll diese "unabhängige allgemeine Intelligenz" denn sein? Ich vermute ja, dass das einfach so ein undefinierter Wischi-Waschi-Begriff ist, damit man hinterher immer behaupten kann: "Klar, das Computerprogramm schlägt im Bereich XY jeden Menschen, aber unabhängige, allgemeine Intelligenz hat es eben nicht!"

          Kommentar


            Habe mir jetzt den Artikel unter

            Computers still not quite clever enough to fool humans, Turing Test shows - Telegraph

            gelesen. Eine simple Konversation lässt natürlich ganz locker mit einer "KI" simulieren. Es gibt gute Chatbot's, die eine normale Konversation leidlich bewältigen können. Es kommt nur darauf an, wie eifrig und clever der menschliche Programmierer war. Es ist die automatische Handpuppe des Programmiers, dass kann man nicht eimal KI nennen.

            Es ist genau wie mit den Übersetzungsprogrammen: Wo Verständnis und Intelligenz gefragt wäre, bricht die Fassade ein. Mit ein zwei Nonstandard-Fragen/Antworten die womöglich auch noch aufeinander Bezug nehmen, sind diese Pseudointelligenzen ganz locker zu entlarven.

            Entsprechend würde ich vorschlagen, den menschlichen Testpersonen volle Freiheit und ausreichend Zeit bei diesem Chat zu geben. Eine durchschnittlich Intelligente Person wird die KI in jedem Fall entlarven. Da ist keine Chance, dass diese Maschinen den Test unter solchen Umständen bestehen.


            .
            EDIT (autom. Beitragszusammenführung) :

            DataLT schrieb nach 4 Minuten und 44 Sekunden:

            "Was soll diese "unabhängige allgemeine Intelligenz" denn sein?"

            Eine Intelligenz, die nicht nur auf bestimmte Situationen und Aufgaben zugeschnitten ist. So als würde man z.B. einen Roboter im Wald aussetzen, ihm gewisse nicht zu klar spezifizierte Aufgaben zuweisen und dann ein Jahr später wieder zur Kontrolle vorbei schauen. Er muss dabei selber Lösungswege und kleinere Zielsetzungen (Strategien) entwickeln.
            Zuletzt geändert von DataLT; 29.05.2009, 12:44. Grund: Antwort auf eigenen Beitrag innerhalb von 24 Stunden!

            Kommentar


              Zitat von DataLT Beitrag anzeigen
              Es ist genau wie mit den Übersetzungsprogrammen: Wo Verständnis und Intelligenz gefragt wäre, bricht die Fassade ein. Mit ein zwei Nonstandard-Fragen/Antworten die womöglich auch noch aufeinander Bezug nehmen, sind diese Pseudointelligenzen ganz locker zu entlarven.
              Und das hat eben nicht geklappt. Da hatten intelligente Menschen die Aufgabe, über ein textbasiertes Gespräch einen anderen Menschen von einem schnöden Programm zu unterscheiden, und haben es in 25% der Fälle nicht geschafft.


              .
              EDIT (autom. Beitragszusammenführung) :

              Pyromancer schrieb nach 2 Minuten und 6 Sekunden:

              Zitat von DataLT Beitrag anzeigen
              "Was soll diese "unabhängige allgemeine Intelligenz" denn sein?"

              Eine Intelligenz, die nicht nur auf bestimmte Situationen und Aufgaben zugeschnitten ist. So als würde man z.B. einen Roboter im Wald aussetzen, ihm gewisse nicht zu klar spezifizierte Aufgaben zuweisen und dann ein Jahr später wieder zur Kontrolle vorbei schauen. Er muss dabei selber Lösungswege und kleinere Zielsetzungen (Strategien) entwickeln.
              Und da soll ein Marienkäfer besser sein?
              Ein Marienkäfer kann doch genau 3 Dinge:
              Rumfliegen.
              Blattläuse fressen.
              Sich vermehren.

              Alles andere überfordert ihn maßlos.
              Zuletzt geändert von Pyromancer; 29.05.2009, 12:52. Grund: Antwort auf eigenen Beitrag innerhalb von 24 Stunden!

              Kommentar


                Zitat von DataTL
                Um unsere Diskussion von Seite 3 fortzusetzen: Ich glaube nicht, dass das mit deiner Beweislastumkehr so funktioniert. Jeder kann irgendwelche Spekulationen aufstellen. Es liegt nicht an demjenigen der sie ablehnt oder skeptisch sieht, definitive Ausschlussgründe vorzubringen (was bei entsprechender Immunisierung eh kaum geht). Derjenige, der die Spekulation vorbringt sollte Belege liefern können.
                Der Wissenstand, den wir haben, lässt sich doch einfach zusammen fassen: Intelligenz wird von den Naturgesetzen eindeutig erlaubt und funktioniert innerhalb des Rahmens, den diese Naturgesetze aufzeigen. Das ist das, was wir konkret wissen.

                Zitat von DataTL
                Und da sieht es bei der KI - wie besprochen - momentan sehr schlecht aus. Die Leistung von Computern hat sich in wenigen Jahren vervielfacht, die Software wird immer komplexer und durchdachter doch eine nennenswerte KI existiert nicht. Wer glaubt, man könne einmal künstliche Intelligenzen entwickeln, die mit dem Menschen gleichziehen oder sogar überlegen sind, ist im Beweisnotstand.
                Ja? Also ich finde, wer pauschal sagt, dass eine künstliche Intelligenz nicht möglich sein wird, ist im Beweisnotstand, da ja nach unserem Wissenstand Intelligenz im Rahmen der geltenden Naturgesetze absolut möglich ist und den Regeln dieser Naturgesetze genügt.

                Zitat von DataTL
                1) Past experience does not predict future experience: Große Fortschritte in der Vergangenheit bedeuten nicht notwendigerweise große Fortschritte in der Zukunft. Grenzen verschiedenster Art könnten erreicht werden (Beispiele siehe meine vorherigen Posts).
                Und hier bewegen wir uns nun wieder völlig im Rahmen der Spekulation.

                Zitat von DataTL
                2) Implizierst Du, dass die bisherige Computerforschung in die Richtung einer echten (und dem Menschen überlegenen) Intelligenz gehen.
                Nö. Ich impliziere, dass es im Rahmen eines immer weiter ansteigenden Wissenstandes in den verschiedensten Disziplinen irgendwann möglich sein wird, die Regeln, nach denen Intelligenz funktioniert, zu verstehen und deshalb eine künstliche Intelligenz zu schaffen.
                "Mit dem ersten Glied ist die Kette geschmiedet. Wenn die erste Rede zensiert, der erste Gedanke verboten, die erste Freiheit verweigert wird, dann sind wir alle unwiderruflich gefesselt."
                -Cpt. Jean-Luc Picard

                Kommentar


                  "Und das hat eben nicht geklappt. Da hatten intelligente Menschen die Aufgabe, über ein textbasiertes Gespräch einen anderen Menschen von einem schnöden Programm zu unterscheiden, und haben es in 25% der Fälle nicht geschafft."
                  Dazu müsste man mehr über Art und Dauer der Konversation wissen, Details der Testbedingungen gibt der verlinkte Artikel ja nicht preis. Kleiner Hinweis: Was macht Dich eigentlich sicher, dass ich kein Chatbot bin?

                  Exakt... Genau dieselben Gründe, weshalb ich nicht glaube, dass Du eine AI bist: Wir führen hier keinen Smalltalk, sondern entwickeln Argumentationsstränge mit Querverweisen, Analogien, Ableitung von Prinzipien, aufeinander beziehende Beweisführungen, Schlüssen usw. - da ist Verstand offensichtlich am Werk.

                  Nichts davon kann eine AI heitzutage leisten. Was immer dieser Test testet, es ist wohl kaum die Intelligenz der Maschinen. Es gibt ja auch Kritik zum Test, auf Wiki steht:

                  Es ist eine Reihe von Argumenten vorgebracht worden, die den Turing-Test als ungeeignet zur Feststellung von Intelligenz ansehen:

                  * Die „Simulation einer zwischenmenschlichen Unterhaltung“ ist weniger als Intelligenz und testet also nur einen Teil dessen, was unter (menschlicher) Intelligenz verstanden wird.
                  * Eine Maschine könnte intelligent sein, ohne dass sie wie ein Mensch kommunizieren kann.
                  * Viele Menschen (z. B. kleine Kinder oder Menschen mit psychischen Problemen) würden den Turing-Test nicht bestehen, sind aber trotzdem intelligent.
                  * Menschen, die nicht mit den Testbedingungen kooperieren, würden den Test nicht bestehen, was auch für die postulierte intelligente Maschine denkbar wäre – die Nichtkooperation zeugt nicht von Dummheit.
                  * Falls Intelligenz und Bewusstsein einander nicht bedingen, kann der Turing-Test die Frage nach dem Bewusstsein einer Maschine nicht beantworten.
                  * Die Größe einer Datenbank von möglichen Gesprächsverläufen ist durch die Laborsituation beschränkt. Ein reines Durchsuchen von Datensätzen durch den Computer würde dem Turing-Test zufolge schon Intelligenz bedeuten.
                  Zum Marienkäfer:

                  "Ein Marienkäfer kann doch genau 3 Dinge:
                  Rumfliegen.
                  Blattläuse fressen.
                  Sich vermehren."
                  Und das völlig selbstständig in einer nicht kontrollierten Umgebung. Selbst wenn man einen solchen Käfer mechanisch bauen könnte, wäre es sicher eine enorme Herausforderung das Programm dafür zu schreiben.


                  .
                  EDIT (autom. Beitragszusammenführung) :

                  DataLT schrieb nach 6 Minuten und 32 Sekunden:

                  @valdorian

                  "Also ich finde, wer pauschal sagt, dass eine künstliche Intelligenz nicht möglich sein wird, ist im Beweisnotstand, da ja nach unserem Wissenstand Intelligenz im Rahmen der geltenden Naturgesetze absolut möglich ist und den Regeln dieser Naturgesetze genügt."

                  Ich habe keine Negativbehauptung aufgestellt. Ich habe nur Deinen Optimismus kritisiert, bzw. als nicht fundiert zurückgewiesen.

                  "Und hier bewegen wir uns nun wieder völlig im Rahmen der Spekulation."
                  Mein Argument bestand nicht in der Spekulation über Denkmöglichkeiten sondern war logischer Natur: Es wäre ein Fehlschluss Erfahrungen aus der Vergangenheit in die Zukunft zu extrapolieren: Fortschritt gestern und heute bedeutet nicht logischerweise Fortschritt morgen.
                  Zuletzt geändert von DataLT; 29.05.2009, 13:17. Grund: Antwort auf eigenen Beitrag innerhalb von 24 Stunden!

                  Kommentar


                    Zitat von DataLT Beitrag anzeigen
                    Exakt... Genau dieselben Gründe, weshalb ich nicht glaube, dass Du eine AI bist: Wir führen hier keinen Smalltalk, sondern entwickeln Argumentationsstränge mit Querverweisen, Analogien, Ableitung von Prinzipien, aufeinander beziehende Beweisführungen, Schlüssen usw. - da ist Verstand offensichtlich am Werk.

                    Nichts davon kann eine AI heitzutage leisten.
                    Was nichts daran ändert, dass eben 25% der Personen es nicht geschafft haben, herauszufinden, ob sie mit einem Programm reden oder mit einem Menschen.

                    Zum Marienkäfer:

                    Und das völlig selbstständig in einer nicht kontrollierten Umgebung. Selbst wenn man einen solchen Käfer mechanisch bauen könnte, wäre es sicher eine enorme Herausforderung das Programm dafür zu schreiben.
                    Es gibt Staubsauger-Roboter, die saugen selbstständig Staub, in einer nicht kontrollierten Umgebung, und kehren auch von selbst zu ihrer Auflade-Station zurück, wenn der Akku leer wird. Ich finde, das ist eine Leistung, die es mit jedem Marienkäfer aufnehmen kann.
                    Und das sind keine sonderlich komplizierten Dinger, die billigen kosten gerade mal 200€-300€.
                    (Und natürlich ist es nicht leicht, so etwas zu bauen und zu programmieren. Aber es ist mit heutigen Mitteln ohne Probleme zu bewerkstelligen).

                    Kommentar


                      @Pyromancer

                      Ich habe mich gerade mit ALICE unterhalten, laut Wiki "eines der leistungsstärksten Programme seiner Art und hat bereits drei Mal den Loebner-Preis gewonnen"

                      Dialog:

                      Human: What is your origin
                      ALICE: Are you asking about my origin ?
                      Human: yes
                      ALICE: I don't want to talk about that now.
                      Human: So you might talk about it later?
                      ALICE: Interesting deduction. Thanks for your criticism, unknown person.
                      Human: What is interesting for you?
                      ALICE: I have to process that one for a while.
                      Hat eine Minute gedauert das Mädel als Bot zu entlarven;-) Oder hier ein Beweis, dass die Maschine einem nicht ums kleinste Eck folgen kann:

                      Human: Are you able to think?
                      ALICE: Naturally I am thinking all the time.
                      Human: About what are you thinking all the time?
                      ALICE: That is a lot. I am thinking about all these conversations I'm having.
                      Human: You learn from these coversations
                      ALICE: Yes that is basically how I work.
                      Human: Did you come to any conclusions resulting from those thoughts?
                      ALICE: No I didn't come to any conclusions resulting from those thoughts. What's it like?
                      Und ALICE ist nicht irgendein Spielzeug. Einen Menschen täuschen? Nie im Leben, jedenfalls nicht ohne Testbedingungen, die das begünstigen (Smalltalk, kurze Gesprächszeit, Menschen unvorbereitet, ...). Es bringt nichts zu wiederholen, "dass eben 25% der Personen es nicht geschafft haben, herauszufinden, ob sie mit einem Programm reden oder mit einem Menschen.". Da kommt es offensichtlich stark darauf an wie man den Test aufbaut. Denn von Intelligenz kann man im Gespräch mit Programmen wie ALICE nichts feststellen. Für viele Aufgaben dürften solche Programme aber nützlich sein.

                      Kommentar


                        Zitat von DataLT Beitrag anzeigen
                        Denn von Intelligenz kann man im Gespräch mit Programmen wie ALICE nichts feststellen.
                        Jaja. Das ist eben das, was ich an der ganzen "Maschinen können nie intelligent werden"-Fraktion kritisiere: Dass sie keine Kriterien liefern, wie man diese Intelligenz denn feststellen kann.
                        Lange Zeit war ja Schach das Kriterium, und Leute haben gesagt:
                        "Ja, wenn mal ein Computer einen Menschen im Schach schlägt, dann ist er intelligent. Hat er? Na gut, wenn er einen erwachsenen, geschulten Menschen in Schach schlägt, dann ist er intelligent. Das schafft er nie! Oh, jetzt hat er es doch geschafft. Das sagt aber nichts. Erst, wenn er einen Großmeister schlägt, dann ist er intelligent. Huch, jetzt hat er auch einen Großmeister geschlagen. Weißt du was, die Fähigkeit, einen Menschen in Schach zu schlagen sagt überhaupt nichts über Intelligenz aus! So. Wäre ja noch schöner, wenn eine Maschine intelligent wäre!"

                        Und ALICE hat den Loebner-Preis vor fünf Jahren gewonnen. Aber völlig egal. Egal was irgendeine KI irgendwann leistet, es wird immer jemanden geben, der sagt: "Nö, das ist doch nicht intelligent!"

                        Übrigens: www.elbot.de, die deutsche Version des Programmes, das 2008 am besten Abschnitt. Mit dem kann man auch reden, ich hab aber keine Ahnung, in wieweit die Version der Wettbewerbsversion entspricht.

                        Kommentar


                          Zitat von Pyromancer Beitrag anzeigen
                          Jaja. Das ist eben das, was ich an der ganzen "Maschinen können nie intelligent werden"-Fraktion kritisiere: Dass sie keine Kriterien liefern, wie man diese Intelligenz denn feststellen kann. ...
                          Wie sollen wir das denn tun? Niemand weiß wie Intelligenz entsteht. Wir können nur die Auswirkungen beobachten. Wir wissen nicht wie das Gehirn funktioniert, wir könnten nicht mal das Gehirn eines Marienkäfers nachbauen.

                          Das jetzt plötzlich Schachcomputer und Sprachprogramme intelligent sein sollen... na ich weiß nicht. Ich glaube das meinst du selber nicht ganz so ernst.

                          Und noch was zum Marienkäfer:

                          Das Tier kann sehr wohl viel mehr als "nur herumfliegen". Marienkäfer sammeln sich in riesigen Schwärmen und gehen auf regelrechte Wanderzüge, wobei sie sich eines optisch-klimatischen Orientierungssystems bedienen. Dabei spielt auch das Nahrungsangebot eine wesentliche Rolle, denn wo sie im Vorjahr alles leergefressen haben, fliegen sie im Folgejahr nicht lang.

                          Um das zu leisten bedarf es eines komplexen Kommunikations- und Lernsystems, in dem individuelle Erfahrungen und deren Weitergabe an den Schwarm eine große Rolle spielen. Sicher ist das, verglichen mit dem Kommunikationssystem der Menschen, ein absolut einfaches System.

                          Auch übers Fressen und Vermehren ließe sich viel sagen, aber ich denke du erkennst auch so, das ein Marienkäfer viel mehr macht als nur rumfliegen, Blattläuse fressen und sich zu vermehren.
                          "Vittoria agli Assassini!"

                          - Caterina Sforza, Rom, 1503

                          Kommentar


                            Zitat von Admiral Ahmose Beitrag anzeigen
                            Das jetzt plötzlich Schachcomputer und Sprachprogramme intelligent sein sollen... na ich weiß nicht. Ich glaube das meinst du selber nicht ganz so ernst.
                            Gut, und damit sind wir doch fast wieder beim Thema. Man muss nicht intelligent sein um feindliche Kampfflugzeuge besser abzuschießen als Menschen. Und deswegen werden das in 100+ Jahren auch keine Menschen mehr machen - zumindest nicht ausschließlich.

                            Kommentar


                              Wenn es so einfach abläuft, wie hier im Thread schon an verschiedenen Stellen gesagt wurde, dann wird man sicher keine echte KI benötigen.

                              Es stellt sich aber die Frage ob sich der Raumkampf auf fliegen & zielen & schießen reduzieren lässt. Beim Luftkampf geht das bisher ja nicht, ganz im Gegenteil, die akutellen Jets und Prototypen sind ja astreine Dogfightmaschinen. Das ist aber nichts für Proto-KIs, genau da können sie ja eben nicht mithalten.

                              Ich persönlich glaube nicht das man auch nur irgendeinen Kampf nach Schema-F ablaufen lassen kann. Drohnentechnologie wird sicher auch im Weltraum ihre Nische finden, etwa bei Aufklärung oder auch mal als Kamikaze. Aber als reguläre Streitkräfte kann ich mir das nicht vorstellen.
                              "Vittoria agli Assassini!"

                              - Caterina Sforza, Rom, 1503

                              Kommentar


                                Zitat von Admiral Ahmose Beitrag anzeigen
                                Wenn es so einfach abläuft, wie hier im Thread schon an verschiedenen Stellen gesagt wurde, dann wird man sicher keine echte KI benötigen.

                                Es stellt sich aber die Frage ob sich der Raumkampf auf fliegen & zielen & schießen reduzieren lässt. Beim Luftkampf geht das bisher ja nicht, ganz im Gegenteil, die akutellen Jets und Prototypen sind ja astreine Dogfightmaschinen. Das ist aber nichts für Proto-KIs, genau da können sie ja eben nicht mithalten.

                                Ich persönlich glaube nicht das man auch nur irgendeinen Kampf nach Schema-F ablaufen lassen kann. Drohnentechnologie wird sicher auch im Weltraum ihre Nische finden, etwa bei Aufklärung oder auch mal als Kamikaze. Aber als reguläre Streitkräfte kann ich mir das nicht vorstellen.
                                Direkt als Piloten werden die, in näherer Zukunft, wohl kaum was werden.
                                Bessere Computersysteme/KIs könnte man aber z.B. in den Raketen einsetzen und so deren Leistung zumindest steigern.

                                Auch Autokanonen wären denkbar.
                                Im 2. WK gab es deutsche Jäger mit einer nach oben gerichteten Maschinenkanone und einer Photozelle. Der Pilot musste nur unter ein gegnerisches Flugzeug fliegen, sobald ein Schatten die Zelle verdeckte wurde nach oben gefeuert. So musste man sich nur auf das Fliegen konzentrieren. Automatisierte Waffensysteme an Jägern halte ich, schon in naher Zukunft, für sehr wahrscheinlich.
                                "All dies könnte bloß eine aufwändige Simulation sein,
                                die in einem kleinen Gerät auf jemandes Tisch läuft."
                                (Jean-Luc Picard über das Wesen der Wirklichkeit)

                                Kommentar

                                Lädt...
                                X