Googles KI Gemini musste für einen Bugfix kurz nach dem Livegang wieder deaktiviert werden. Bei der Darstellung von Personen kam es zu einer "Überkompensierung" der Vielfältigkeit. Heißt, weiße Personen wurden konsequent durch andere Ethnien ersetzt, was zu einigen sehr merkwürdigen Bildern geführt hat.
(hier Pilgerväter, Wehrmachtsoldat und Wikinger)
Der Grund dafür soll wohl ein rassistischer Mitarbeiter sein, der eine gut 10 Jahre alte Historie von antiweißen Kommentaren hat.
Die Sache dabei ist ja, dass sowas nicht ausversehen passieren kann, da die KI normalerweise vom Internet lernt. Hier muss also gezielt eine manipulierte Datenmenge zum Lernen genutzt worden sein, was kein gutes Licht auf den Googlesuchalgorithmus wirft.
(hier Pilgerväter, Wehrmachtsoldat und Wikinger)
Der Grund dafür soll wohl ein rassistischer Mitarbeiter sein, der eine gut 10 Jahre alte Historie von antiweißen Kommentaren hat.
Die Sache dabei ist ja, dass sowas nicht ausversehen passieren kann, da die KI normalerweise vom Internet lernt. Hier muss also gezielt eine manipulierte Datenmenge zum Lernen genutzt worden sein, was kein gutes Licht auf den Googlesuchalgorithmus wirft.
Kommentar