Als jemand der jetzt vor wenigen Tagen mal hobby-mäßig in SD eingestiegen ist (macht Mörderspaß!) werde ich mir das Video gleich mal anschauen. Die Ausführungen von O-bake kann ich als Laie soweit übrigens bestätigen. Zu diesen Basics hat man sich im Netz und Reddit schnell eingelesen, dann versteht man die Grundzüge der Engines, Modelle, LoRas, Seeds, Sampler, Scaling, usw.
Ich bin zunächst mit Automatic1111 als WebUI via Terminal-Script eingestiegen, weil ich zunächst keine bessere Alternative kannte. War bereits in der Installation kompliziert und dauerte mehrere Minuten. Das GUI selbst ist zwar wirklich gut und hat auch alle bekannten Funktionen, aber die Performance war wirklich solala, weil halt über Python "improvisiert" wurde. Das führte bei mit dazu, dass CPU/GPU nur minimal ausgelastet waren und dafür der Speicherbedarf schnell auf 25GB hochschnellte, selbst ohne Upscaling oder Multi-Batches (immer nur 1 Bild nach dem anderen). Allerdings bin ich auch etwas "mutig" und rendere direkt größere Bilder von z.B. 1280x1600, weil alles was deutlich kleiner ist auf einem 4K-Display einfach keinen Spaß macht und HighRes/Upscaling bei mir komischerweise viel langsamer war, als einfach direkt höher zu rendern. Nachteile: Die Modelle sind nicht perfekt dafür trainiert, man hat mehr Ausschuss wegen defomierten Parts oder Multi-Limbs, als z.B. bei 1024x1024px. Aber etwa 40-50% ist brauchbar oder leicht reparierbar, und das ist schon beeindruckend wenn man bedenkt dass meine SD 1.5 Modelle noch größtenteils auf 512x512 basieren. Ich versuche mich zumindest an die empfohlenen Aspect Ratios von 1:1, 3:2, 5:4 etc. zu halten, das scheint die Ergbenisse etwas konsistenter zu machen.
Gestern habe ich dann auch Draw Things entdeckt, und vom etwas "simplen-blöden" Namen abgesehen ist es eine mega tolle Lösung die ich allen Mac (und iPad!)-Usern sehr ans Herz legen kann! Es nutzt die Ressourcen der ARM-Chips massiv besser aus, im Vergleich zu A1111 hat sich mein Memory-Bedarf gedrittelt, während die GPU endlich voll ausgelastet wird, u.a. CoreML Support sei dank. Damit halbierten sich meine Render-Zeiten auf ein vernünftiges Niveau... knapp 2min für o.g. Auflösung mit dem DPM Karras bei 20 Iterationen. Habe den 24C M1 Max 32GB, also kein Monster, und dafür ist es absolut in Ordnung. Positiver Nebeneffekt: Selbst im Low Power Mode arbeitet das Ding vernünftig, bleibt dabei leise und braucht kaum Strom. Damit kann ich einfach über Nacht mehrere Render erstellen, ohne schlechtes Gewissen.
Auf meinem iPad Pro M1 8GB läuft es auch (was an und für sich schon crazy ist), aber hier gehe ich nicht über 960x1280 und das ist schon etwas langsam. Aber dennoch cool, ein solch mächtiges Werkzeug immer dabeihaben zu können. Es läuft komplett ohne Abo und Internetverbindung, fast schon ein Unding heutzutage! Also ich bin begeistert, hatte schon länger keinen solchen Wow-Effekt, endlich mal ein Anwendungsbereich wo ich wirklich vom "KI-Hype" profitiere und beeindruckt bin.
Ich bin gespannt wie die weiteren Optimierungen und neuen M4X Chips die Performance noch verbessern werden. Vielleicht sind wir in 2-3 Jahren soweit, dass wir in wenigen Sekunden problemlos 2K- oder gar 4K-Files rendern können. Man schaue nur, wie primitiv alles noch vor nicht allzulanger Zeit war...