In der Hoffnug dieses Thema in die richtige Spalte geschoben zu haben wollte ich euch, als eingefleischte SciFi-Fans zu Rate ziehen.
Eine der Themen die mich interessieren ist, ob ihr überhaupt noch die 3 (bzw.4) Gesetzte der Robotik kennt.
Außerdem:
Sind die Gesetzte bei KIs durchsetztbar, wenn noch tatsächliche Intelligenz entstehen soll?
Haben die Gesetzte übnerhaupt noch Glültigkeit, sind sie noch aktuell?
Kann man die Gesetzte überhaupt für Maschinen verständlich abfassen?
Und natürlich ist es auch wünschenswert, wenn ein paar schöne Dilemmas gepostet werden.
Die 3(4) Gesetzte:
0. Ein Roboter darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt.
1. Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen, außer er verstöße damit gegen das Nullte Gesetz.
2. Ein Roboter muss den Befehlen der Menschen gehorchen - es sei denn, solche Befehle stehen im Widerspruch zum Nullten oder Ersten Gesetz.
3. Ein Roboter muss seine eigene Existenz schützen, solange dieses sein Handeln nicht dem Nullten, Ersten oder Zweiten Gesetz widerspricht.
(nach http://de.wikipedia.org/wiki/Robotergesetze )
Ein Beispieldilemma:
Ein Roboter steuert eine Klappe in einem senkrechten Schacht.
Ein Mensch fällt in diesen Schacht.
Schließt der Roboter die Klappe stirbt der Mensch durch den Roboter, da er auf die Klappe fällt. Die Überlebenswahrscheinlichkeit ist immer noch verschwindend gering, aber höher, als wenn der Mensch nicht auf die Klappe sondern auf den Boden fällt. Wenn der Roboter die Klappe offen lässt lebt der Mensch wahrscheinlich länger, der Roboter läd keine aktive Schuld auf sich (sondern nur passive) und die Überlebenswahrscheinlichkeit ist für den Menschen nur noch halb so groß.
Wie sollte der Roboter nach den gesetzten handeln?
Eine der Themen die mich interessieren ist, ob ihr überhaupt noch die 3 (bzw.4) Gesetzte der Robotik kennt.
Außerdem:
Sind die Gesetzte bei KIs durchsetztbar, wenn noch tatsächliche Intelligenz entstehen soll?
Haben die Gesetzte übnerhaupt noch Glültigkeit, sind sie noch aktuell?
Kann man die Gesetzte überhaupt für Maschinen verständlich abfassen?
Und natürlich ist es auch wünschenswert, wenn ein paar schöne Dilemmas gepostet werden.
Die 3(4) Gesetzte:
0. Ein Roboter darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt.
1. Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen, außer er verstöße damit gegen das Nullte Gesetz.
2. Ein Roboter muss den Befehlen der Menschen gehorchen - es sei denn, solche Befehle stehen im Widerspruch zum Nullten oder Ersten Gesetz.
3. Ein Roboter muss seine eigene Existenz schützen, solange dieses sein Handeln nicht dem Nullten, Ersten oder Zweiten Gesetz widerspricht.
(nach http://de.wikipedia.org/wiki/Robotergesetze )
Ein Beispieldilemma:
Ein Roboter steuert eine Klappe in einem senkrechten Schacht.
Ein Mensch fällt in diesen Schacht.
Schließt der Roboter die Klappe stirbt der Mensch durch den Roboter, da er auf die Klappe fällt. Die Überlebenswahrscheinlichkeit ist immer noch verschwindend gering, aber höher, als wenn der Mensch nicht auf die Klappe sondern auf den Boden fällt. Wenn der Roboter die Klappe offen lässt lebt der Mensch wahrscheinlich länger, der Roboter läd keine aktive Schuld auf sich (sondern nur passive) und die Überlebenswahrscheinlichkeit ist für den Menschen nur noch halb so groß.
Wie sollte der Roboter nach den gesetzten handeln?
Kommentar