Hey zusammen! Ich hab neulich zufällig von dieser Undress AI gehört und frage mich seitdem, wie das technisch eigentlich funktioniert. Also klar, KI ist überall, aber wie schafft es so ein Tool, Kleidung so realistisch „wegzurechnen“ und dabei trotzdem einen menschlich aussehenden Körper zu generieren, den es vorher ja gar nicht sehen konnte? Da muss doch ziemlich viel Bildverarbeitung, Training mit Datensätzen usw. dahinterstecken, oder? Und woher bekommt die KI eigentlich diese Infos, wie ein Körper unter bestimmten Kleidungsstücken aussehen könnte?
Hi, ja, ich hab mich mit dem Thema vor Kurzem mal etwas genauer beschäftigt, weil’s mich ebenfalls ziemlich fasziniert (und ehrlich gesagt auch ein bisschen irritiert) hat. Die Technik basiert meist auf sogenannten Generative Adversarial Networks (GANs), also zwei konkurrierenden neuronalen Netzwerken, die sich gegenseitig verbessern. Das eine erstellt neue Bilder, das andere prüft, ob sie realistisch sind – und gemeinsam werden sie mit Unmengen an Bildern trainiert, bei denen sowohl bekleidete als auch nackte Versionen vorliegen. Es geht also nicht darum, „durch Kleidung zu sehen“, sondern eine plausible Simulation zu erstellen auf Basis dessen, was die KI gelernt hat. Je nach Qualität des Trainingsdatensatzes können die Ergebnisse dann realistischer oder ziemlich daneben sein. Ich hab mir das mal auf der Seite
webpage – da sieht man ziemlich gut, wie hoch der Detailgrad schon ist. Aber man muss auch sagen: ethisch ist das echt ne schwierige Kiste. Viele unterschätzen, wie leicht solche Tools missbraucht werden können, vor allem ohne Einwilligung. Trotzdem, rein technisch gesehen ist das schon beeindruckend.
Spannende Diskussion hier! Ich wusste vorher gar nicht, dass GANs auf diese Weise eingesetzt werden können. Irgendwie verrückt, wie weit die Technik inzwischen ist – gerade bei Bildern merkt man oft nicht mehr, was echt ist und was KI-generiert. Mich würde mal interessieren, wie sich das langfristig auf Fotobearbeitung oder sogar auf digitale Kunst auswirkt.