• Apfeltalk ändert einen Teil seiner Allgemeinen Geschäftsbedingungen (AGB), das Löschen von Useraccounts betreffend.
    Näheres könnt Ihr hier nachlesen: AGB-Änderung
  • Es regnet, ist neblig und kalt, alle sind krank und der Chef wird zunehmend cholerisch. Das Thema des Monats ist also folgerichtig --> Das Grau(en)
    Wir sind gespannt, war Euch dazu einfällt! Zum Wettbewerb --> Klick

Andreas Vogel

Redakteur
AT Redaktion
Registriert
10.12.08
Beiträge
2.379
IMG_0320-700x401.jpg


Andreas Vogel
Apple bewirbt das MacBook Air M3 als ultimative KI-Maschine. In einen neuen YouTube Video schauen wir genauer hin.



Apple verbaut in seine M-Prozessoren seit dem M1 eine Neural Engine. Zumeist mit 16 Cores. Genau diese Neural Engine soll sich um die Berechnungen rund um künstliche Intelligenz kümmern. Bei dem zuletzt vorgestellten MacBook Air M3 fokusiert das Marketing die KI Fähigkeiten des MacBooks.

Ob sich bei dem aktuellsten MacBook Air etwas geändert hat oder am Ende alle M-Prozessoren weitgehend ähnlich als KI-Maschinen performen überprüfen wir mit Tools wie Asitop, MX-Powergadgets, Draw Things und Freechat

Das Video: MacBook Air M3 - Die ultimative KI-Maschine?​


Um diese Inhalte anzuzeigen, benötigen wir die Zustimmung zum Setzen von Drittanbieter-Cookies.
Für weitere Informationen siehe die Seite Verwendung von Cookies.

Wie blickt ihr auf das neuste MacBook Air M3? Ist es ein Fortschritt in Sachen KI Performance? Teilt Eure Meinungen mit uns!

Den Artikel im Magazin lesen.
 
Zuletzt bearbeitet:

O-bake

Welscher Taubenapfel
Registriert
21.01.07
Beiträge
759
Kleine Anmerkung: Draw Things verwendet nicht Midjourney, sondern das freie Stable Diffusion (SD).
Die App selbst schlägt einem eine ganze Anzahl von Modellen vor, die einmalig runtergeladen werden müssen und dann verwendet werden können. Man kann aber auch Modelle aus beliebiger Quelle laden und in Draw Things importieren.
Die Modelle unterscheiden sich dabei in den Grafikstilen, die ausgegeben werden, bzw. die Art, wie die Prompts interpretiert werden. Als Grundlage haben sich sogenannte Finetunes für die SD-Versionen 1.5 und XL (SD15 und SDXL) verbreitet. SDXL gibt eine höhere Auflösung aus, ist dabei aber auch wesentlich langsamer. Für SD15 gibt es sehr gut optimierte Modelle und sogenannte LoRAs (quasi Plug-Ins für die Modelle), die einem viel Freiheit lassen.
Ein LoRA, das Draw Things für SD15 direkt zum download anbietet, ist LCM. Wenn man das auswählt, den 'Text Guidance' = 1 setzt kann man mit nur 8 Steps gute Ergebnisse erzielen.

In deinem Beispiel hast du ein Turbo-Model von SDXL verwendet, das ebenfalls mit sehr wenigen Schritten auskommt, aber immer noch langsamer ist als SD15.
SD15 arbeitet meist mit 512x512 (oder 512x768) während SDXL 1024x1024 oder ähnlich große Bilder ausgibt. Bei SD15 mag das erstmal nicht viel klingen, aber durch später hochskalieren (upscaling) können weitere Detail hinzugefügt werden, sodass man auch damit beeindruckend große Grafiken erhalten kann.

Leider gibt es für Draw Things wenig Anleitungen. Falls jemand welche kennt oder gute Youtube-Videos findet: Gerne posten. Die meisten Tutorials sind sehr einfach und decken kaum alles ab, was die App bietet. der Autor und eine kleine Community haben sich in dem auf der Webseite verlinkten Discord versammelt.
 

SORAR

Weißer Winterglockenapfel
Registriert
16.08.12
Beiträge
885
Als jemand der jetzt vor wenigen Tagen mal hobby-mäßig in SD eingestiegen ist (macht Mörderspaß!) werde ich mir das Video gleich mal anschauen. Die Ausführungen von O-bake kann ich als Laie soweit übrigens bestätigen. Zu diesen Basics hat man sich im Netz und Reddit schnell eingelesen, dann versteht man die Grundzüge der Engines, Modelle, LoRas, Seeds, Sampler, Scaling, usw.

Ich bin zunächst mit Automatic1111 als WebUI via Terminal-Script eingestiegen, weil ich zunächst keine bessere Alternative kannte. War bereits in der Installation kompliziert und dauerte mehrere Minuten. Das GUI selbst ist zwar wirklich gut und hat auch alle bekannten Funktionen, aber die Performance war wirklich solala, weil halt über Python "improvisiert" wurde. Das führte bei mit dazu, dass CPU/GPU nur minimal ausgelastet waren und dafür der Speicherbedarf schnell auf 25GB hochschnellte, selbst ohne Upscaling oder Multi-Batches (immer nur 1 Bild nach dem anderen). Allerdings bin ich auch etwas "mutig" und rendere direkt größere Bilder von z.B. 1280x1600, weil alles was deutlich kleiner ist auf einem 4K-Display einfach keinen Spaß macht und HighRes/Upscaling bei mir komischerweise viel langsamer war, als einfach direkt höher zu rendern. Nachteile: Die Modelle sind nicht perfekt dafür trainiert, man hat mehr Ausschuss wegen defomierten Parts oder Multi-Limbs, als z.B. bei 1024x1024px. Aber etwa 40-50% ist brauchbar oder leicht reparierbar, und das ist schon beeindruckend wenn man bedenkt dass meine SD 1.5 Modelle noch größtenteils auf 512x512 basieren. Ich versuche mich zumindest an die empfohlenen Aspect Ratios von 1:1, 3:2, 5:4 etc. zu halten, das scheint die Ergbenisse etwas konsistenter zu machen.

Gestern habe ich dann auch Draw Things entdeckt, und vom etwas "simplen-blöden" Namen abgesehen ist es eine mega tolle Lösung die ich allen Mac (und iPad!)-Usern sehr ans Herz legen kann! Es nutzt die Ressourcen der ARM-Chips massiv besser aus, im Vergleich zu A1111 hat sich mein Memory-Bedarf gedrittelt, während die GPU endlich voll ausgelastet wird, u.a. CoreML Support sei dank. Damit halbierten sich meine Render-Zeiten auf ein vernünftiges Niveau... knapp 2min für o.g. Auflösung mit dem DPM Karras bei 20 Iterationen. Habe den 24C M1 Max 32GB, also kein Monster, und dafür ist es absolut in Ordnung. Positiver Nebeneffekt: Selbst im Low Power Mode arbeitet das Ding vernünftig, bleibt dabei leise und braucht kaum Strom. Damit kann ich einfach über Nacht mehrere Render erstellen, ohne schlechtes Gewissen.

Auf meinem iPad Pro M1 8GB läuft es auch (was an und für sich schon crazy ist), aber hier gehe ich nicht über 960x1280 und das ist schon etwas langsam. Aber dennoch cool, ein solch mächtiges Werkzeug immer dabeihaben zu können. Es läuft komplett ohne Abo und Internetverbindung, fast schon ein Unding heutzutage! Also ich bin begeistert, hatte schon länger keinen solchen Wow-Effekt, endlich mal ein Anwendungsbereich wo ich wirklich vom "KI-Hype" profitiere und beeindruckt bin.

Ich bin gespannt wie die weiteren Optimierungen und neuen M4X Chips die Performance noch verbessern werden. Vielleicht sind wir in 2-3 Jahren soweit, dass wir in wenigen Sekunden problemlos 2K- oder gar 4K-Files rendern können. Man schaue nur, wie primitiv alles noch vor nicht allzulanger Zeit war...
 
Zuletzt bearbeitet: