In Slowenien werden jetzt Roboter gebaut, die auf Kommando Leute verkloppen. Wie das doch gleich mit dem 1. Asimovschen Gesetz...?
Ankündigung
Einklappen
Keine Ankündigung bisher.
Asimovsche Gesetze und Prügel vom Robbie
Einklappen
X
-
Asimovsche Gesetze und Prügel vom Robbie
Die Sternenflotte bescheinigt hiermit, dass zur Erzeugung dieses Textes kein Rothemd gemeuchelt, gephasert, erstochen, erschlagen, gesteinigt, transporterverunfallt noch in irgendeiner anderen Weise grob ausgebeutet, misshandelt oder an körperlicher oder geistiger Unversehrtheit geschädigt wurde.Stichworte: -
-
Zitat von Dessler Beitrag anzeigenIn Slowenien werden jetzt Roboter gebaut, die auf Kommando Leute verkloppen. Wie das doch gleich mit dem 1. Asimovschen Gesetz...?
Heutige Roboter können nicht nach Asimov programmiert werden, denn diese Grundprogrammierung setzt voraus das die Maschine den Grips hat einen Menschen von einem Ding zu unterscheiden, und eine Vorstellung hat woran an ein Mensch Schaden nehmen könnte. Davon sind wir immer noch mindestens Jahrzehnte entfernt.
Es ist ein Trugschluß das eine Programmierung nach Asimov automatisch JEDEN Menschen einschließt. Eine solche Grundprogrammierung kann überhaupt nur dann funktionieren wenn Abstriche gemacht werden. Wenn mehrere Menschen in Gefahr geraten, welchem Helfen und welchen nicht? Wenn ein Mensch Anweisungen erteilt, ist diesen überhaupt Folge zu leisten? (Festgenommener und Polizeitroboter, Einbrecher und Haushaltshilfe, Kampfroboter im Einsatz gegen feindliche Truppen).
Eine solche Grundprogrammierung soll verhindern das sich die künstliche Intelligenz gegen ihren Schöpfer oder ihren Besitzer wendet. Welchen erweiterten Personenkreis zusätzliche Rechte eingeräumt werden liegt dann im Ermessensspielraum des Schöpfers/Benutzers.Korvettenprojekt 3435 A.D.
Korvetten-Basismodellreihe des späten Solaren Imperiums (Perry Rhodan-Serie)
Kommentar
-
Die Asimovschen Gesetzte verlangen von einem Roboter eine KI, welche von den heutigen Möglichkeiten noch Lichtjahre entfernt ist.
Asimov auf die heutige Robotik zu übertragen, wäre etwa so als würde man ISO Normierung auf Feuersteinwerkzeuge der Steinzeit anwenden.Understanding the scope of the problem is the first step on the path to true panic.
- Florance Ambrose
Kommentar
-
Asimov auf die heutige Robotik zu übertragen, wäre etwa so als würde man ISO Normierung auf Feuersteinwerkzeuge der Steinzeit anwenden.
Ich stell mir grad ein TÜV-Siegel (oder vergleichbares) auf nem Steinzeitbeil vor.
SCNRLeute, jetzt bitte keine Panik bekommen: Ich habe soeben festgestellt, dass mein Kalender am 31.12.2016 endet!!!
Scheiße - wir werden also schon wieder sterben!!!
Kommentar
-
Ich muss in gewisser Weise meinen wiedersprechen.
Eine absolute KI ist nicht notwendig um diese Gesetze auch umzusetzen.
Nehmen wir z.B. eine einfache Aufzugtür. Sie ist so gebaut, dass sie keinen Menschen verletzen darf. Der selbe Mechanismus soll auch eine selbstbeschädigung des Aufzugs verhindern und die Tür gehorcht natürlich auch unseren Befehlen...
Und auch die bisher entwickelten Roboter berücksichtigen diese Regeln, sofern die dazugehörigen Sensoren verbaut wurden.
Nur sind diese Mechanismen nicht direkt mit einem logischen "Denkvermögen" der Maschine verbunden.
Ebenfalls sind Maschinen unter Umständen bereits durchaus in der Lage, Menschen zu erkennen und bei manchen auch den Zustand einer Person, sofern diese mit entsprechenden Apparaten ausgestattet ist.
Bei diesen Maschinen wurden die besagten Gesetze auch weitgehend Implementiert (Sofern dies notwendig war)
Es handelt sich hier ja um eine ethnische Richtlinie und nicht um eine notwenige Voraussetung. Bei den Prügelrobotern wird sie aber praktisch nicht verwendet...
Ich gehe auch davon aus, dass bei den zivilen Robotern diese Regeln auch immer tiefer verankert werden, wenn sie denn zum Einsatz kommen (Vorrangig in der Kranken- und Altenpflege); bei den mitlitärisch genutzen Robotern wird man aber wohl auf den ersten Artikel verzichten und die anderen Gesetze auch anders auslegen.
Abgesehen davon sind die drei Gesetzte nicht ultimativ zu sehen, wie uns die Romane des Roboter Zyklus gezeigt haben. Den Sammelband mit den Kurzgeschichten kann ich da sehr empfehlen.
Kommentar
-
War doch klar, dass das irgendwann mal kommt..."Der Überwachungsstaat der Zukunft findet dich!"
www.alexander-merow.de.tl
http://www.amazon.de/Beutewelt-B%C3%.../dp/3869018399
http://www.amazon.de/Das-aureanische...889779&sr=1-11
Kommentar
-
Ich als Robot aus der Zukunft getarnt als Mensch sags ehrlich: Ihr Menschen-Affen habt überhaupt keine Chance die nächsten Jahrzehnte zu überleben, ohne dass wir Logik-Gehirne aus der Zukunft intervenieren.
Und Asimov hats ja nachher mit seinem "Nullten Gesetz" selber eingesehen: Für den Robot gilt es nicht, einen einzelnen Menschen zu retten, sondern die Menschheit!
Stauffenberg z.B. war ein schlecht programmierter Roboter, der in der Zeit zurückgeschickt wurde, der aber teilweise noch nach den alten Asimov-Gesetzen funzte, deshalb hat er seine Bombe falsch platziert. Einerseits sollte er nach dem Nullten Gesetz handeln (Die Menschheit vor Schaden bewahren), andererseits durfte er keinen Menschen verletzen, was er auch nicht geschafft hat. Nun ja, irgendwie ist da was schief gegangen.
Programmiert Eure Robots nicht ganz ohne eigenen Willen, rufe ich Euch Entwicklern aus der Vergangeheit zu!
Kommentar
-
Zitat von odem Beitrag anzeigenNehmen wir z.B. eine einfache Aufzugtür. Sie ist so gebaut, dass sie keinen Menschen verletzen darf. Der selbe Mechanismus soll auch eine selbstbeschädigung des Aufzugs verhindern und die Tür gehorcht natürlich auch unseren Befehlen...
1. A tool must be safe to use. Hammers have handles, screwdrivers have hilts.
2. A tool must perform its function efficiently unless this would harm the user.
3. A tool must remain intact during its use unless its destruction is required for its use or for safety.Die Sternenflotte bescheinigt hiermit, dass zur Erzeugung dieses Textes kein Rothemd gemeuchelt, gephasert, erstochen, erschlagen, gesteinigt, transporterverunfallt noch in irgendeiner anderen Weise grob ausgebeutet, misshandelt oder an körperlicher oder geistiger Unversehrtheit geschädigt wurde.
Kommentar
-
Zitat von odem Beitrag anzeigenIch muss in gewisser Weise meinen wiedersprechen.
Eine absolute KI ist nicht notwendig um diese Gesetze auch umzusetzen.
Nehmen wir z.B. eine einfache Aufzugtür. Sie ist so gebaut, dass sie keinen Menschen verletzen darf. Der selbe Mechanismus soll auch eine selbstbeschädigung des Aufzugs verhindern und die Tür gehorcht natürlich auch unseren Befehlen...
Die zweite Hälfte schließt Reaktionen auf nicht vorhersehbare Situationen ein die die Maschine meiner Meinung nicht ohne eigene KI bewältigen könnte.Korvettenprojekt 3435 A.D.
Korvetten-Basismodellreihe des späten Solaren Imperiums (Perry Rhodan-Serie)
Kommentar
-
@logman:
Zuallererst wollte ich darauf hinweisen, dass man im algemeinen ein falsches Verständnis für künstliche Intelligenz hat. Jede Maschine die auf einem Computerprogramm basiert handelt intelligent. (Von gewissen Ausnahmen abgesehen) Eine KI muss nicht gleich ein Data (Star Trek) den das ist eine künstliche Persönlichkeit. Und davon sind wir in der Tat noch sehr weit entfernt.
Persönlichkeiten lassen sich zwar schon recht gut emulieren aber die Maschine ist sich ihrer Existenz noch lange nicht bewusst.
trotzdem wären Maschinen bereits in der Lage aktiv eine Gefahr für einen Menschen zu erkennen und entsprechend zu handeln.
Ein gutes Beispiel sind die Autonomen Autos. Sie können erkennen, wenn ein Mensch die Straße betritt und weichen diesem aus, auch wenn sie dadurch selber Schaden nehmen könnten, hingegen wird ein einfaches Hindernis wie eine absperrng in der selben Situation gerammt, wenn sich dadurch die eigenbeschädigung in Grenzen hält.
Der Prozess, wo aus einer Künstlichen Intelligenz eine künstliche Persönlichkeit wird, ist recht schleichend und wir werden uns nur wundern, dass Maschinen immer komplexere Aufgaben bewältigen können.
Und damit dies nicht im Fiasko âla Matrix oder Terminator endet werden im Hintergrund diese Regeln wohl apliziert oder die Maschine künstlich dumm gehalten.
Kommentar
-
Zitat von odem Beitrag anzeigentrotzdem wären Maschinen bereits in der Lage aktiv eine Gefahr für einen Menschen zu erkennen und entsprechend zu handeln.
Ein gutes Beispiel sind die Autonomen Autos. Sie können erkennen, wenn ein Mensch die Straße betritt und weichen diesem aus...
Erstes Gesetz, zweite Hälfte: Ich darf nicht tatenlos zusehen, wenn dem Menschen von ANDERER Seite Schaden droht
Das autonome Nichterfassen von Fußgängern im Straßenverkehr ist eine tolle Sache, aber wo erfüllt das autonome Auto die zweite Hälfte?
Ich behaupte weiterhin: mit "einfachen" Programmstrukturen und Sensoren kann man lediglich die Gefahren abdecken die vorhersehbar aus dem Betrieb der Maschine selbst abgeleitet werden können. Damit kommt man nicht über den ersten Part des ersten Gesetzes hinaus.
Zitat von odem Beitrag anzeigenbei den mitlitärisch genutzen Robotern wird man aber wohl auf den ersten Artikel verzichten
Bei Kampfrobotern möglicherweise auf die eigenen Truppen und auf Zivilisten.
Zitat von odem Beitrag anzeigenund die anderen Gesetze auch anders auslegen.Zuletzt geändert von logman; 29.01.2011, 09:44.Korvettenprojekt 3435 A.D.
Korvetten-Basismodellreihe des späten Solaren Imperiums (Perry Rhodan-Serie)
Kommentar
-
Zitat von logman Beitrag anzeigenErstes Gesetz, erste Hälte: ICH SELBST darf einen Menschen nicht Schaden
Erstes Gesetz, zweite Hälfte: Ich darf nicht tatenlos zusehen, wenn dem Menschen von ANDERER Seite Schaden droht
Das autonome Nichterfassen von Fußgängern im Straßenverkehr ist eine tolle Sache, aber wo erfüllt das autonome Auto die zweite Hälfte?Die Sternenflotte bescheinigt hiermit, dass zur Erzeugung dieses Textes kein Rothemd gemeuchelt, gephasert, erstochen, erschlagen, gesteinigt, transporterverunfallt noch in irgendeiner anderen Weise grob ausgebeutet, misshandelt oder an körperlicher oder geistiger Unversehrtheit geschädigt wurde.
Kommentar
Kommentar