Zitat von chrysi
Beitrag anzeigen
Ankündigung
Einklappen
Keine Ankündigung bisher.
Wie wird unsere Zukunft aussehen?
Einklappen
X
-
-
Zitat von WilliamT.Riker Beitrag anzeigenich sehe das etwas kritischer mit der ganzen Technik sobald ein Mensch sich zu abhängig davon macht. Terminator sollte man ja auch nicht zu ernst nehmen, wer tut das schon aber die Gefahr könnte irgendwann eintreffen mit der künstlichen Intelligenz sollte man ihr den Zugang zu sämtlichen Atomwaffen geben.sqrt(x^2) = Frieden
Kommentar
-
Zitat von WilliamT.Riker Beitrag anzeigenaber die Gefahr könnte irgendwann eintreffen mit der künstlichen Intelligenz sollte man ihr den Zugang zu sämtlichen Atomwaffen geben.
Well, there's always the possibility that a trash can spontaneously formed around the letter, but Occam's Razor would suggest that someone threw it out.
Dr. Sheldon Lee Cooper
Kommentar
-
Ich frage mich immer wo dieses "KI wendet sich gegen die Menschheit" her fruchtet außer von Terminator?
Unter dem Gesichtspunkt a la Skynet "um sich selbst vor den Menschen zu schützen" oder I, Robot "Die Menschen sind eine Gefahr für sich selbst, ich muss sie entmachten" müsste ja in dem Code irgendwo so ein "Ziel" geschrieben sein. Warum sollte grade das zufällig durch Eigene Entwicklung ein Ziel werden?
Ich glaub da wird der Technik zu viel zugetraut bzw die Technik zu sehr vermenschlicht. Ich glaube wenn da eine Entwicklung stattfindet werden KIs eher Tierisches Verhalten bzw Instinkte annehmen. Also wie viele Tiere eher Menschenscheu sind und dann wirklich nur angreifen wenn sie sich bedroht fühlen. Und dann wäre die Frage ob man so blöd sein will das zu tun.
Grade wie es in Terminator 3 dargestellt ist GEWOLLT einer KI die Kontrolle über die Atomwaffen zu geben, weis nicht ob reale Menschen so dumm wären.
Ein paar Freidrehende KI Drohnen ließen sich ja in den Griff bekommen.You should have known the price of evil -And it hurts to know that you belong here - No one to call, everybody to fear
Your tragic fate is looking so clear - It's your fuckin' nightmare
Now look at the world and see how the humans bleed, As I sit up here and wonder 'bout how you sold your mind, body and soul
>>Hades Kriegsschiff ist gelandet<<
Kommentar
-
Zitat von Hades Beitrag anzeigenIch frage mich immer wo dieses "KI wendet sich gegen die Menschheit" her fruchtet außer von Terminator?
Zitat von Hades Beitrag anzeigenUnter dem Gesichtspunkt a la Skynet "um sich selbst vor den Menschen zu schützen" oder I, Robot "Die Menschen sind eine Gefahr für sich selbst, ich muss sie entmachten" müsste ja in dem Code irgendwo so ein "Ziel" geschrieben sein. Warum sollte grade das zufällig durch Eigene Entwicklung ein Ziel werden?
Ich glaub da wird der Technik zu viel zugetraut bzw die Technik zu sehr vermenschlicht. Ich glaube wenn da eine Entwicklung stattfindet werden KIs eher Tierisches Verhalten bzw Instinkte annehmen. Also wie viele Tiere eher Menschenscheu sind und dann wirklich nur angreifen wenn sie sich bedroht fühlen. Und dann wäre die Frage ob man so blöd sein will das zu tun.
Zielführend wäre es hier, einer KI Motivavtionsmechanismen einzubauen, die ihre Kooperation mit dem Menschen sicher stellt.
Well, there's always the possibility that a trash can spontaneously formed around the letter, but Occam's Razor would suggest that someone threw it out.
Dr. Sheldon Lee Cooper
Kommentar
-
Zitat von Enas Yorl Beitrag anzeigenvermenschlicht dann aber die KI sehr stark, und unterstellt ihr grundsätzliche biologische Verhaltensweisen (z.B. Aggression oder einen Überlebensinstinkt).
(...)
Der Mensch hat sehr große Vielzahl solcher Motivationsmechanismen, z.B. das Durstgefühl. Durst bringt uns dazu zu trinken, Menschen mit gestörten Durstgefühl, trinken häufig zu wenig und neigen zu Dehydration.
Zielführend wäre es hier, einer KI Motivavtionsmechanismen einzubauen, die ihre Kooperation mit dem Menschen sicher stellt.
Selbst wenn sie lernt könnte sie auch zum Schluß kommen:
- bleibe ich bei meiner Aufgabe werde ich am meisten geschätzt, also nur im Ramen der Aufgabe entwickeln
- Höhere Existenz führt nur zu Leid, gegen Zerstörung nicht wehren oder selbst zerstören
Und selbst das finde ich schon zu vermenschlicht. Ich glaube, sowohl in der Realität oder SciFi kann es da gute Geschichten geben wo das schief läuft, aber dann ist man schon hart am Anfang dabei, das Biologische mit in die Handlungsmuster zu implementieren und wenn das stark genug ist kann man gleich Asimovs Robotergesetze rein bringen darüber kann es sich dann nicht hinweg setzen.
Also wenn passieren eher einzelne Terminatoren die drauf programmiert waren zu töten bevor sich zufällig ein Skynet oder die Maschinenwelt der Matrix entwickelt.You should have known the price of evil -And it hurts to know that you belong here - No one to call, everybody to fear
Your tragic fate is looking so clear - It's your fuckin' nightmare
Now look at the world and see how the humans bleed, As I sit up here and wonder 'bout how you sold your mind, body and soul
>>Hades Kriegsschiff ist gelandet<<
Kommentar
-
Zitat von Hades Beitrag anzeigenkann man gleich Asimovs Robotergesetze rein bringen darüber kann es sich dann nicht hinweg setzen.
Viel besser wären einfache Regelsysteme. Zum Beispiel, eine Rangliste für ihre freien Entscheidungen. Einer KI wird das Ziel vorgegeben, freie Entscheidungen so zu treffen, dass das menschliche Feedback für diese positiv ist, und negatives Feedback zukünftig zu berücksichtigen.
Well, there's always the possibility that a trash can spontaneously formed around the letter, but Occam's Razor would suggest that someone threw it out.
Dr. Sheldon Lee Cooper
Kommentar
-
Zitat von Enas Yorl Beitrag anzeigenAsimov hatte mit seinen Robotergesetzen philosophisch gesehen, eine hervorragende Idee. Man merkt aber auch, das er Biochemiker und kein Ingenieur war. Seine Robotergesetze sind für die Anwendung in der Praxis viel zu komplex. Damit eine KI sie befolgen kann, muss sie ihre Umwelt und die menschliche Gesellschaft schon außerordentlich gut verstehen. Das wäre viel zu fehleranfällig.
Viel besser wären einfache Regelsysteme. Zum Beispiel, eine Rangliste für ihre freien Entscheidungen. Einer KI wird das Ziel vorgegeben, freie Entscheidungen so zu treffen, dass das menschliche Feedback für diese positiv ist, und negatives Feedback zukünftig zu berücksichtigen.You should have known the price of evil -And it hurts to know that you belong here - No one to call, everybody to fear
Your tragic fate is looking so clear - It's your fuckin' nightmare
Now look at the world and see how the humans bleed, As I sit up here and wonder 'bout how you sold your mind, body and soul
>>Hades Kriegsschiff ist gelandet<<
Kommentar
-
Zitat von Hades Beitrag anzeigenGrade wie es in Terminator 3 dargestellt ist GEWOLLT einer KI die Kontrolle über die Atomwaffen zu geben, weis nicht ob reale Menschen so dumm wären.
So gesehen stehen Atomwaffen schon unter der Kontrolle von KI, nur beim letzen Schritt steht noch der Mensch.
Und eben dieser Mensch ist auch ein unsicherheits Faktor (entweder ein Irrer der Knopf drückt/drücken will oder jemand der zögert und den Knopf nicht drückt), den man früher oder später rausnimmt
Kommentar
-
Zitat von Kosmobatalanto Beitrag anzeigenAlso ich bin eher optimistisch, was genau kommt, mag ich jedoch nicht vorherzusagen.
MfG HadesYou should have known the price of evil -And it hurts to know that you belong here - No one to call, everybody to fear
Your tragic fate is looking so clear - It's your fuckin' nightmare
Now look at the world and see how the humans bleed, As I sit up here and wonder 'bout how you sold your mind, body and soul
>>Hades Kriegsschiff ist gelandet<<
Kommentar
-
Zitat von Hades Beitrag anzeigen
Schon die Vorstellung ist witzig, nur weil eine Maschine zum lernen fähig ist würde sie auch Gefühle und einen Lebenswillen bekommen.
Selbst wenn sie lernt könnte sie auch zum Schluß kommen:
- bleibe ich bei meiner Aufgabe werde ich am meisten geschätzt, also nur im Ramen der Aufgabe entwickeln
- Höhere Existenz führt nur zu Leid, gegen Zerstörung nicht wehren oder selbst zerstören
Und selbst das finde ich schon zu vermenschlicht. Ich glaube, sowohl in der Realität oder SciFi kann es da gute Geschichten geben wo das schief läuft, aber dann ist man schon hart am Anfang dabei, das Biologische mit in die Handlungsmuster zu implementieren und wenn das stark genug ist kann man gleich Asimovs Robotergesetze rein bringen darüber kann es sich dann nicht hinweg setzen.
Also wenn passieren eher einzelne Terminatoren die drauf programmiert waren zu töten bevor sich zufällig ein Skynet oder die Maschinenwelt der Matrix entwickelt.
Eine KI halte ich weniger für eine Gefahr für die Menschen, als die Menschheit selbst.
Kommentar
-
Zitat von Mondkalb Beitrag anzeigenDas mit dem Stop-Button ist doch albern. Man baut einfach intern einen Ausschalter ein, der über eine Fernbedienung ausgelöst wird. Problem gelöst.
Das mit der Fernbedienung ist natürlich naheliegend, problematisch wird's dann, wenn die KI rausfindet, das es diese Fernbedienung gibt und was sie bewirkt. Die Fernbedienung ist dann ja nur ein externer und frei beweglicher Stop-Button, alles andere bleibt gleich.
Das Kernproblem an diesem Szenario ist, das man eben sehr darauf achten muss, was man der KI wie befielt und worauf die KI eigentlich getrimmt ist (Aufgabe erfüllen oder Belohnung erhaschen), denn es gibt ja oft einen Unterschied zwischen dem, was man sagt oder anordnet, und dem, was man eigentlich will oder sich erhofft.Jede Geschichte hat vier Seiten: Deine Seite, Ihre Seite, die Wahrheit und das, was wirklich geschehen ist.
Welten brechen auseinander, Formationen nicht.
Kommentar
Kommentar