Humanoide Roboter - Entwicklung und Perspektiven - SciFi-Forum

Ankündigung

Einklappen
Keine Ankündigung bisher.

Humanoide Roboter - Entwicklung und Perspektiven

Einklappen
X
 
  • Filter
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge

    #76
    Bahnbrechende Durchbrüche eher weniger, (es kommt bestimmt morgen niemand und verkündet er hat die Positronik erfunden und ab übermorgen gehen die Asimovschen Romanroboter in Serie) allerdings hat die Entwicklungsgeschwindigkeit schon in den letzten 4 Jahren tierisch angezogen.
    Wenn ich rückblickend nur das betrachte was ich seit 15 Jahren jedes Jahr auf der CeBit sehe und was auf der "Pentagon Robot Challenge" zu sehen ist, dann ist der Bereich autonome System und Teamworking entwicklungstechnisch gradezu explodiert.

    Wenn man betrachtet was jedes Jahr so über Echolon und die such Software durchsickert und wie sich OCR seit mitte der 90er von witzlos zu einem allerweltstool entwickelt hat, denke ich das da auch ein riesen Entwicklungspotential in Bewegung ist.

    Das derzeitige Problem dürfte sein daß Pentagon und die 3 Buchstaben Vereine eher angst vor KI haben die sie nicht wirklich verstehen.
    Und die unabhängigen universitären Forscher haben nicht die Mittel um wertfrei eine Universal KI zu entwickeln. Firmen wünschen nur zielgerichte Forschung zur Lösung spezieller Probleme.
    Aber trotzdem wird sich mit dem Ansatz selbstentwickelnder KI in den nächsten Jahren die KI vermutlich erheblich weiter entwickeln als in mehreren Jahrzehnten mit LISP & Co basierter en Detail Programmierung.
    Wer Rechtschreibfehler findet, darf sie behalten.
    Ein umtausch eines Fehlers impliziert kein allgemeines Umtauschrecht.
    Wem auffällt das Posts von mir noch nachträglich editiert werden: Fehler die ich finde, tausche ich unaufgefordert um.

    Kommentar


      #77
      Könnte man nicht solche evolutionären Programme auf diesen großen CLusterrechnern laufen lassen? Solche welche auch das Wetter berechnen.

      Dann wäre es bestimmt irgendwann machbar. Zumal diese Rechner ja immer leistungsfähiger werden und sich gegenseitig überbieten. Wenn die dann noch mit Quantenzuständen rechnen geht die Post richtig ab.

      Kommentar


        #78
        Zitat von BongoMercury Beitrag anzeigen
        Könnte man nicht solche evolutionären Programme auf diesen großen CLusterrechnern laufen lassen? Solche welche auch das Wetter berechnen.

        Dann wäre es bestimmt irgendwann machbar. Zumal diese Rechner ja immer leistungsfähiger werden und sich gegenseitig überbieten. Wenn die dann noch mit Quantenzuständen rechnen geht die Post richtig ab.
        Ja man kann, Transputer sind ja auch nichts anders wie masiv parallel arbeitende Rechencluster. Nur waren die halt mal 20 Jahre ihrer Zeit vorraus.

        Das Problem gegenüber FPGA's ist aber das die Neuronen simuliert werden und itterativ, Zeitschritt für Zeitschritt einzeln die Netzzustände und Feedbackeffekte simuliert werden müssen.
        Ab einem Netzwerk mit 3 oder mehr Schichten und Rückkopplung wird das ähnlich langsam die Wetterberechnung bei sich selbst beeinflussenden Systemen.

        Da bei FPGA's die Neuronen durch Hardware dargestellt werden, werden Feedbacks nur durch die Laufzeitverzögerung der Gatter gebremst und ein ähnliches Laufzeitverhalten wie in einem realen Gehirn erreicht.

        Bei meinen bisherigen Versuchen mit in Turbopascal programierten Neuronalen Netzen ist ab ca. 300 Neuroen schluß mit Echtzeit gewesen.
        Wer Rechtschreibfehler findet, darf sie behalten.
        Ein umtausch eines Fehlers impliziert kein allgemeines Umtauschrecht.
        Wem auffällt das Posts von mir noch nachträglich editiert werden: Fehler die ich finde, tausche ich unaufgefordert um.

        Kommentar


          #79
          Also das Problem ist dabei das wenn die Komplexität steigt es immer stärkere Verzögerungen gibt? Also wenn es über Software simuliert wird?

          Kann man nicht einen Clusterrechnen auch so umfunktionieren wie FPGA´s? Das z.B ein Prozessor-Kern so und sovielen Neuronen entspricht?

          Kommentar


            #80
            Zitat von BongoMercury Beitrag anzeigen
            Also das Problem ist dabei das wenn die Komplexität steigt es immer stärkere Verzögerungen gibt? Also wenn es über Software simuliert wird?

            Kann man nicht einen Clusterrechnen auch so umfunktionieren wie FPGA´s? Das z.B ein Prozessor-Kern so und sovielen Neuronen entspricht?
            Eine CPU arbeitet sequenziell (Je Takt ein Befehl, sachen wie ein Befehl an der steigenden Flanke einen an der fallenden lassen wir mal außen vor)
            Da ein neuronales Netz nicht nur vorärtsgerichtet arbeitet sondern durch Feedback auch rückwärtsgerichtet.
            Haben wir das Problem ,das die Zustände eines Neurons in Verarbeitungsrichtung mehrere Neuronen der Nächsten Ebene beeinflussen können, Quer zur Verarbeitungsrichtung mehrere Neuronen der gleichen Verarbeitungsebe sowie entgegen der Verarbeitungseben Neuronen der vorgelagerten Verarbeitungsebenen.

            Jedes sequenziel arbeitende Verarbeitungssytem hat damit ein Problem.
            Deshalb hat Intel ja zwei Pipes inden Core gesetzt und mittlerweile sogar Dualcore CPU's da Multitasking systeme teilweise auf die selben Probleme stoßen. Nur die Abhängigkeit ist nicht so hoch.

            Auch massiv Parallel Rechner wie Beowulf Cluster oder Deep Blue würden schlußendlich die meiste zeit damit zubringen die Knoten zu synchonisieren anstelle Neuronen Zustände zu berechnen.

            Wenn man FPGA's in einem Raster anordnet und an den Kreuzungen zwichen je vier FPGA's einen vielkanaligen Matrixschalter anordnet, kann je ein FPGA mehrere (hundert) Neuronen simmulieren und Dentriten / Axon Verknüpfungen die ein FPGA verlassen werden durch die Matrixschalter realisiert so das ein neuronales Netz nicht auf die Größe eines einzigen FPGA beschränkt ist.
            So laufen "Nervenimpulse" durch Netz ähnlich dem Laufzeitverhalten in einem realen Gehirn.
            Die Simulierung neuronaler Netze auf klassisch organisierten Computern macht meiner Meinung nach nur Sinn um Anfangszustände von Teilnetzen reifen zu lassen. die dann auf die FPGA's übertragen werden und so die Entwicklung dort beschleunigen können.
            Wenn wir mal davon ausgehen das wir 200 Neuronen auf einen FPGA bekommen und mit allen Matrixschaltern und weiteren Bauteilen, 32 FPGA auf eine 8 fach Eurokarte. Dann Gaben wir 6HE (Höheneinheiten) im 19" Rack in das wir 21 Steckkarten bekommen. Ein Rechenkluster hat also
            21*32*200=134.400 Neuronen.
            Je Rack mit 42HE passen 7 Einschübe=940.800 Neuronen.
            Im RZ (Rechenzentrum) rechnet man mit 1,4m² je Rack.
            in Ein 1000m² RZ passen also rund 700 Racks. Macht 658.560.000 Neuronen

            Die menschliche Großhirnrinde (Cortex) hat etwa 12 Milliarden Neuronen.

            Selbst bei 1000 Neuronen pro FPGA kommen wir grade auf knapp 3,3 Milliarden.
            Wenn man sich mal alleine die Hardware Kosten und die Betriebskosten des RZ ansieht, weis man daß das nur NSA & Co stemmen könnten.

            Wir sind wohl jetzt schon in der Lage die technischen Vorraussetzungen zu schaffen. (Das RZ in dem ich arbeite hat 4 mal 1200m² plus 2 mal 500m².
            Sowie die passende Klimatisierung und Stromversorgung.
            Die Komplette HW ist so heute realisierbar.

            Die Entwicklung dürfte, falls sie nicht schon in einem Save liegt, in einer Dekade zu schaffen sein.
            Die Entwicklung des Netzes durch selbstlernen und selbst Modulation würde vermutlich 20 bis 40 Jahre dauern.
            Es ist davon auszugehen das wir danach vor einer KI stehen würden die einem menschlichen Teen bis jungen Erwachsenem entspricht.
            Ob sich allerdings ein Bewustsein und eine eigene Persönlichkeit entwickeln würde kann wohl keine sagen. Und so lannge das nicht mitsicherheit auszuschließen ist werden NSA & Co da wohl nichts investieren.
            (Wer steckt schon gerne milliarden in ein Projekt das dan einfach sagt "Ich habe jetzt alle Daten analysiert, und bin zu dem Schluß gekommen die andere Seite ist im Recht. Ich werde nichts tun im ihr zu schaden."
            TILT..................
            Wer Rechtschreibfehler findet, darf sie behalten.
            Ein umtausch eines Fehlers impliziert kein allgemeines Umtauschrecht.
            Wem auffällt das Posts von mir noch nachträglich editiert werden: Fehler die ich finde, tausche ich unaufgefordert um.

            Kommentar


              #81
              Man merkt das du dich mit der Materie beschäftigst und auskennst. Und du bist der Meinung das es sich nur mit FPA`s realisieren läßt?

              Mit Vektorprozessoren müßte es doch auch machbar sein oder?

              Vektorprozessor - Wikipedia

              Ich glaube der "CELL" Prozessor ist auch so einer. Mit mehreren Kernen.

              So könnte ein(oder mehrere) "Kern(e)" eines solchen Prozessors sich auf die Netzwerksynchronisation spezialisieren. Im Netzwerk wird das dann hochgerechnet. So bleibt dann immer noch genug Rechenpower für die Berechnung der Neuronen und Axone.

              Bei Standard Prozessoren welche parallel angeordnet werden könnte man bestimmte Prozessoren darauf zuteilen.

              Wie ich Wikipedia entnehmen konnte können FPGA´s noch nicht so hoch getaktet werden wie herkömmliche CPU´s. Dafür aber mehr parallel verarbeiten.

              Unterm Strich ist wohl ein Netzwerk aus Vektorenrechnern leistungsfähiger und kann durch gezielte Aufgabenteilung bestimmt auch in Echtzeit synchronisieren. Allerdings wäre das wohl sehr teuer.


              Und beim Hirn müßten sich die Schaltmöglichkeiten irgendwie auf 10*10^9*10*10^2 belaufen. Nämlich die Anzahl der Neuronen im Gehirn multipliziert mit den möglichen synaptischen Verknüpfungen pro Zelle. Natürlich ist das jetzt kein mathematisch korrekte stochastische Darstellung. Aber du weißt bestimmt wie ich es meine.

              Kommentar


                #82
                Die Autos beim DARPA Urban Challenge werden auch immer besser, obwohl sie auch noch offensichtliche Schwächen haben:
                Darpa Urban Challenge: US-Universität gewinnt Roboterrennen - Netzwelt - SPIEGEL ONLINE - Nachrichten
                "Die Wahrheit ist so schockierend, die kann man niemandem mehr zumuten." (Erwin Pelzig)

                Kommentar


                  #83
                  Vektorprozessoren: JAIN, es gibt etwas Beschleunigung gegenüber einer klassischen CPU.
                  In einem Neurónalen Netz müssen kaum Speicherdaten verarbeitet werden sondern die Zustände der umliegenden Neuronen.

                  Vektorrechner sind spitze wenn itterative Abläufe mit Ergebnissen die monotnen Folgen entsprechen zu berechnen sind. (weshalb bei Stürmen wo der Atraktor ständig springt die Berechnung erheblich langsamer ist als wenn es nur um "Normalwetter" geht)
                  Bei vielen gleichartigen Neuronen sind das zwar auch je die gleichen Berechnungen, aber die zeitsparende Aufteilung der Teiloperationen ist nicht möglich da jedes Neuron erst vollständig berechnet werden muß um seinen Endzustand zu erhalten bevor das nächste davon abhängige berechnet werden kann.
                  Da diese Werte zeitlich sequenziell vorliegen und nicht parallel müssen sie zwichengespeichert werden und wieder eingelesen, was ebenfalls Zeit beansprucht.
                  Im FPGA werden die Zustände einfach in den Verbindungen gespeichert. Solange sich alles in einem FPGA abspielt, bei Verwendung von Matrixschaltern müssen noch zusätzliche Eingangs und Ausgangspuffer verwendet werden um mit den Durchlaufverzögerungen der Puffer wieder eine Gleichzeitigkeit zu erhalten.
                  In wie weit sich das ganze realisieren lässt wenn es Signalverzögerungen gibt die Laufzeitunterschiede des vielfachen eines Gatterduchlaufs ausmachen, weis ich nicht. Wäre mal eine Frage für die nächste Ce-Bit.
                  Da hüpfen bestimt ein paar rum die sich auch mit so was befassen.

                  Die Schaltmöglichkeiten müssen nicht sooooo groß sein, auch in unserem Gehirn etablieren sich ja Neuronengruppen die sich kaum noch verändern und erfüllen spezifische Aufgaben.
                  Beim gesunden Normalmenschen ist das Sehzentrum auch nicht direkt mit dem Tastsinn und dem Hörzentrum verbunden, sondern höhere ebenen verknüpfen die Sinneseindrücke.

                  Prinzipiell könnte mann Teilnetze in software simulieren und ab einem bestimmten Optimierungsgrad in Hardware implementieren. Allerdings weis ich nicht wie stark sich die Netzwerke doch noch gegenseitig durch feedback aus den höheren ebenen beeinflussen.

                  Bei uns Menschen ist das ja auch so bei meinem letzten Hörtest vor zwei Wochen wurde mir ein für mein Alter überdurchschnittliches Gehör bescheinigt, aber in täglichen Leben höre ich vielfach nicht was man mir sagt, wenn entsprechende Hintergrundgeräusche da sind. Allerdings höre ich Sirenen wenn alle andere nichts warehmen. Wird dann z.B.: der Fernseher ausgemacht hören die anderen das auch. Mein Hörzentrum ist halt eher auf Alarmsignale und Geräusche die nicht da hin gehören Trainiert.
                  Zuletzt geändert von i_make_it; 05.11.2007, 16:50.
                  Wer Rechtschreibfehler findet, darf sie behalten.
                  Ein umtausch eines Fehlers impliziert kein allgemeines Umtauschrecht.
                  Wem auffällt das Posts von mir noch nachträglich editiert werden: Fehler die ich finde, tausche ich unaufgefordert um.

                  Kommentar


                    #84
                    Hab gerade ein interessantes Video gefunden:
                    Festo - Aqua_ray - Aqua_ray

                    Kommentar


                      #85
                      Roboter Sumo zeigt wie weit das aufstehen aus unterschiedlichen Positionen schon ist.
                      YouTube - ROBOT BATTLE
                      Wer Rechtschreibfehler findet, darf sie behalten.
                      Ein umtausch eines Fehlers impliziert kein allgemeines Umtauschrecht.
                      Wem auffällt das Posts von mir noch nachträglich editiert werden: Fehler die ich finde, tausche ich unaufgefordert um.

                      Kommentar


                        #86
                        Juhu, warum habe ich dieses Forum nicht schon viel früher gefunden?

                        Zum Thema KI's kann ich vielleicht was beisteuern. Seit kurzem schreibe ich an einem "Evolutions-Programm". Die Basis dabei ist, etwas mehrfach auszuprobieren und die Ergebnisse zu bewerten. Das Thema an sich interessiert mich allerdings schon seid ca. 13 Jahren.

                        Die Programmierung ist dabei eigentlich minimal, denn das Ding muß sehr abstrakt aufgebaut sein. Außerdem ist eine KI ein "nichtdeterministischer" Algorithmus. Das heißt, er hat eigentlich keine echte Programmierung. Der Kern des Ganzen wäre ein semantisches Netz.

                        Eine Starke KI wird trotzdem nicht dabei herauskommen.

                        Was mich seid langem interessiert ist die Qualität der Zufälle des Zufallsgenerator auf eine KI! Sie sind nämlich das Einzige, das die KI zur KI macht.

                        Kommentar


                          #87
                          Zitat von Warlie Beitrag anzeigen
                          Was mich seid langem interessiert ist die Qualität der Zufälle des Zufallsgenerator auf eine KI! Sie sind nämlich das Einzige, das die KI zur KI macht.
                          Naja, das ist dann doch eher Ansichtssache bzw. nicht erwiesen.
                          "Imagine there's no heaven - It's easy if you try
                          No hell below us - Above us only sky
                          Imagine all the people Living for today...
                          "

                          Kommentar


                            #88
                            Zitat von Warlie Beitrag anzeigen
                            Juhu, warum habe ich dieses Forum nicht schon viel früher gefunden?

                            Zum Thema KI's kann ich vielleicht was beisteuern. Seit kurzem schreibe ich an einem "Evolutions-Programm". Die Basis dabei ist, etwas mehrfach auszuprobieren und die Ergebnisse zu bewerten. Das Thema an sich interessiert mich allerdings schon seid ca. 13 Jahren.

                            Die Programmierung ist dabei eigentlich minimal, denn das Ding muß sehr abstrakt aufgebaut sein. Außerdem ist eine KI ein "nichtdeterministischer" Algorithmus. Das heißt, er hat eigentlich keine echte Programmierung. Der Kern des Ganzen wäre ein semantisches Netz.

                            Eine Starke KI wird trotzdem nicht dabei herauskommen.

                            Was mich seid langem interessiert ist die Qualität der Zufälle des Zufallsgenerator auf eine KI! Sie sind nämlich das Einzige, das die KI zur KI macht.
                            Was zum Geier hat Zufall mit Intelligenz zu tun? Außer vieleicht das es wie ein Zufall anmutet das manche Menschen als intelligent durchgehen.

                            Intelligenz (lat.: intelligentia „Einsicht, Erkenntnisvermögen“, intellegere „verstehen“)
                            Siehe dazu: Intelligenz - Wikipedia

                            War da vieleicht eher Evolution gemeint, dort hat Zufall eine gewisse bedeutung.
                            Wer Rechtschreibfehler findet, darf sie behalten.
                            Ein umtausch eines Fehlers impliziert kein allgemeines Umtauschrecht.
                            Wem auffällt das Posts von mir noch nachträglich editiert werden: Fehler die ich finde, tausche ich unaufgefordert um.

                            Kommentar


                              #89
                              Kreativität kann ich nicht anders schaffen, sorry.

                              Kommentar


                                #90
                                Kreativität hat nichts mit Intelligenz zu tun.

                                Der Zufall kann kreativ sein, das Chaos kann kreativ sein.
                                Ein intelligentes Wesen kann kreativ sein muß es aber nicht sein (Das tägliche leben beweist uns denke ich zur genüge)

                                Intelligenz bedingt aber nicht zwingend kreativität genauso wenig wie umgekehrt.

                                Du müsstest schon detailieren was du bezweckst.
                                Ein System das alles was es sensorisch erfassen kann, analysieren und verstehen soll, benötigt nicht umbedingt Kreativität sondern Regelwerke zum maschinellen lernen. Zufall ergibt sich von alleine wenn duch Versuch und Irtum Varianten die zur Lösung führen können durchprobiert werden.
                                Kreativität ist nur bedingt nötig um Globale Optima zu finden und nicht in lokalen Optima hängen zu bleiben.
                                Dies kann man aber genauso auch analytisch schaffen, also gänzlich ohne Zufall.
                                Wobei dann auch sicher bewiesen wird daß es nicht doch noch ein günstigeres Optimum gibt.
                                Was bei zufälligen prozessen nicht der Fall ist.
                                Wer Rechtschreibfehler findet, darf sie behalten.
                                Ein umtausch eines Fehlers impliziert kein allgemeines Umtauschrecht.
                                Wem auffällt das Posts von mir noch nachträglich editiert werden: Fehler die ich finde, tausche ich unaufgefordert um.

                                Kommentar

                                Lädt...
                                X