Das Lernen, wie man ein VTuber-Modell erstellt, ist eines der am häufigsten gesuchten Themen in der VTuber-Community — und das aus gutem Grund. Dein Avatar ist deine Bildschirmidentität. Zu wissen, wie man einen VTuber-Avatar von Grund auf erstellt, anstatt einen Kunstauftrag für hunderte Dollar zu bezahlen, ist eine Fähigkeit, die sich jedes Mal auszahlt, wenn du dein Aussehen auffrischen möchtest. Diese Anleitung führt dich durch drei realistische DIY-Wege: den anfängerfreundlichen VRoid Studio-Weg, den leistungsfähigeren Live2D Cubism-Weg und die vollständig benutzerdefinierte Blender-Pipeline für Leute, die volle Kontrolle mögen.
Am Ende wirst du wissen, welcher Weg zu deinem Fähigkeitsniveau und deinem Zeitbudget passt, nummerierte Schritte für den schnellsten Weg haben und verstehen, wie du dein fertiges Modell in Live-Tracking-Software integrierst. Wenn du noch in der Phase bist, herauszufinden, ob du überhaupt ein VTuber werden möchtest, schau dir zuerst die Anleitung zum VTuber-Werden an.
TL;DR — Welchen Weg solltest du wählen?
| Deine Situation | Bester Weg |
|---|---|
| Erster Avatar, möchte diese Woche streamen | VRoid Studio (Weg A) |
| Du zeichnest Anime und möchtest 2D-Live-Ausdrücke | Live2D Cubism (Weg B) |
| Game-Dev-Hintergrund oder bereit, Monate zu verbringen | Blender + UniVRM (Weg C) |
| Budget ist null | VRoid Studio oder Blender (beide kostenlos) |
| Möchte das ausdrucksstärkste Facial Tracking | Live2D → VTube Studio |
Weg A — VRoid Studio: Der einfachste Weg zur Erstellung eines VTuber-Avatars
VRoid Studio ist eine kostenlose Desktop-App von Pixiv, speziell als VTuber-Modell-Generator konzipiert. Wenn du wissen möchtest, wie man einen VTuber-Avatar kostenlos am schnellsten erstellt, ist VRoid die Antwort. Du wählst einen Basis-Body, stellst Schieberegler ein, malst Texturen und exportierst eine VRM-Datei. Keine 3D-Erfahrung erforderlich. Zeitschätzung: 3–8 Stunden für einen ersten nutzbaren Avatar.
Download: vroid.com/en/studio
Schritt 1 — VRoid Studio installieren
Lade das Windows-Installationsprogramm von der offiziellen VRoid-Seite herunter. Die App ist etwa 600 MB groß. Es ist keine Registrierung erforderlich, um sie zu verwenden. Erstelle ein kostenloses Pixiv-Konto nur, wenn du in der VRoid Hub veröffentlichen möchtest.
Schritt 2 — Wähle deinen Basis-Body und deine Körperproportionen
Wähle beim Start Create New Model und wähle Geschlecht (das Label wird nur für Basis-Mesh-Proportionen verwendet — du kannst danach alles anpassen). Stelle die Gesamthöhe, das Kopf-zu-Körper-Verhältnis und Brust-/Hüft-Schieberegler ein. VTuber verwenden normalerweise stilisierte Proportionen mit einem leicht größeren Kopf — strebe ein Kopfverhältnis von etwa 1:5 oder 1:6 an, wenn du diesen Anime-Look möchtest.
Schritt 3 — Gestalte das Gesicht
Klicke auf die Face-Registerkarte. Du findest dort Dutzende von Schiebereglern für:
- Augenform, -größe, -abstand und Iris-Textur
- Nasenbeinbrückenhöhe und -breite
- Mundposition und Lippenstärke
- Ohrenform
- Hautfarbe und -unterton
Jedes Merkmal hat eine Voreinstellungs-Auswahl plus manuelle Schieberegler. Verbring die meiste Zeit hier — das Gesicht ist das, was Zuschauer im Stream sehen. Ändere die Iris-Textur aus der integrierten Bibliothek oder importiere ein benutzerdefiniertes PNG (1024×1024 empfohlen).
Schritt 4 — Gestalte das Haar
Die Hairstyle-Registerkarte ist, wo VRoid glänzt. Du fügst Haargruppen hinzu — oben, an den Seiten, hinten, Pony, Accessoires — jeweils als separater Satz von Führungskurven. Ziehe die Kontrollpunkte, um jede Haarsträhnengruppe zu formen. Ordne die Farbe mit dem integrierten Gradient-Editor zu. Mehr Führungspunkte = detaillierteres Haar = höhere Dreieckszahl. Halte die Gesamthaar-Dreiecke unter 20.000, wenn die Leistung wichtig ist.
Für einen ersten Avatar verwende 3–5 Haargruppen. Komplexe Zwillings-Drill-Stile mit Accessoires können dich auf 10+ Gruppen bringen, aber die Ausgabe ist immer noch saubern.
Schritt 5 — Kleide deinen Avatar an
Öffne die Outfit-Registerkarte. Eingebaute Kleidung umfasst Hemden, Jacken, Röcke, Hosen und Accessoires. Jedes Teil hat Texturvariationen, die du umfärben kannst. Du kannst auch eine benutzerdefinierte Textur-PNG importieren, um das Basis-Stoff-Muster zu ersetzen.
Für einen völlig benutzerdefinierten Anzug würdest du das UV-Layout exportieren, in Photoshop oder Krita malen und neu importieren. Das ist eine 1–2-Stunden-Zusatzaufgabe. Für einen ersten Avatar sind die Standard-Garderobe-Optionen ausreichend.
Schritt 6 — Richte Standard- und Blend-Shape-Ausdrücke ein
VRoid generiert automatisch eine Reihe von Gesichtsausdrücken: glücklich, traurig, überrascht, wütend, entspannt und Augenblinzeln. Diese ordnen sich direkt der Tracking-Software zu. Du kannst sie in der Look-Registerkarte in der Vorschau anzeigen, indem du auf Ausdrucks-Miniaturbilder klickst.
Wenn du benutzerdefinierte Ausdrücke möchtest (ein Augenzwinkern, ein breites Grinsen, ein ”>_<“-Gesicht), öffne VRM Output Settings → BlendShape. Füge dort neue Blend Shapes hinzu. Beachte, dass benutzerdefinierte Blend Shapes über den VRM-Standardsatz hinaus eine manuelle Konfiguration in VTube Studio erfordern, um sie Hotkeys zuzuweisen.
Schritt 7 — Exportiere als VRM
Gehe zu Export (Hauptmenü). Wähle Export as VRM. Fülle den Autorennamen, Lizenztyp (wähle sorgfältig, wenn du planen, zu verkaufen) und zulässige Verwendungen aus. VRoid generiert automatisch das Rig — du riggst nicht manuell. Klicke auf Export, wähle einen Ordner, und du hast deine .vrm-Datei.
Typische Dateigröße: 20–80 MB. Dreieckszahl: 30.000–70.000, abhängig von der Haarkompleximtät.
Schritt 8 — Importiere in VTube Studio oder VSeeFace
- VTube Studio (Windows + Handy-Kamera): Öffne die Desktop-App, gehe zu Model → Load Model, wähle deine
.vrm-Datei. Die App ordnet automatisch Standard-Ausdrücke zu. - VSeeFace (Windows-Webcam): Ziehe die
.vrmin den VSeeFace-Modellordner, lade sie aus der App.
Beide sind kostenlos. Du bist jetzt live — deine Webcam oder Handy-Kamera steuert das Gesicht des Avatars in Echtzeit.
Weg B — Live2D Cubism: Mehr Kontrolle, mehr Arbeit
Live2D Cubism ist das Industrie-Tool hinter praktisch jedem professionell aussehenden 2D VTuber-Modell. Der Workflow ist: Zeichne deinen Charakter flach in Ebenen (in Photoshop oder Clip Studio Paint), importiere diese Ebenen in Cubism, dann erstelle ein geripptes Mesh, das sich verformt, wenn der Charakter sich bewegt.
Offizielle Dokumentation: docs.live2d.com
Kosten: Kostenlose Testversion (begrenzte Exportoptionen). Die Pro-Lizenz kostet etwa $200–300 oder ein $2/Monat-Abonnement über die Live2D-Website.
Ausgabeformat: .moc3 + .model3.json-Bundle. Getrackt von VTube Studio.
Zeitschätzung: Mehrere Wochen bis wenige Monate für dein erstes vollständiges Modell.
Allgemeine Schritte für Live2D
- Zeichne Ebenen-Kunst — trenne jeden Teil, der sich bewegen sollte: jedes Auge, jede Augenbraue, den Mund offen/geschlossen, den Kopf, die Ponys, den Körper. Mindestens 30–60 Ebenen für ein einfaches Modell. Speichere als PSD.
- Importiere PSD in Cubism — Ebenen kommen als einzelne Texturen herein.
- Warp-Verformer — Platziere Warp- und Rotations-Verformer über jedem Teil. Dies sind die “Knochen” des 2D-Rigging. Ordne den Kopf einem Rotations-Verformer zu, damit er nach links/rechts kippt.
- Keyform-Animation — Für jeden Parameter (Head X, Head Y, Eye Open L, usw.) setze Keyforms bei -30, 0 und +30 Grad. Cubism interpoliert zwischen ihnen.
- Physik — Füge eine Physik-Gruppe für Haare und Accessoires hinzu, damit sie mit Kopfbewegungen schwingen.
- Exportiere .moc3 — Verpacke es mit dem Textur-Atlas und model3.json.
- Lade in VTube Studio — Die
.model3.json-Datei ist der Einstiegspunkt. VTube Studio ordnet die Standard-Live2D-Parameter deiner Webcam automatisch zu.
Der Vorteil ist ausdrucksstarke, Illustrator-Qualitäts-Animation, die kein 3D-Tool derzeit für reine Anime-Ästhetik erreicht. Der Kostenpunkt ist real: Das Erlernen des Cubism-Parameter-Systems und des Keyform-Workflows hat eine steile erste Kurve.
Weg C — Blender + Unity + UniVRM: Vollständig benutzerdefinierte 3D
Dies ist der Weg von Spieleentwicklern und 3D-Künstlern, die ein vollständig benutzerdefiniertes Mesh ohne stilistische Einschränkungen mögen. Es erzeugt eine VRM-Datei wie VRoid, aber jedes Polygon gehört dir.
Tools:
- Blender — kostenlos, Industrie-Standard-3D-Modellierung
- Unity — kostenlos Personal-Tier (erforderlich für die UniVRM-Pipeline)
- UniVRM — Open-Source Unity-Paket, das VRM aus einer Unity-Szene exportiert
Zeitschätzung: Mindestens 1–3 Monate für jemanden, der neu in 3D ist. Erfahrene 3D-Künstler können eine VRM in 2–4 Wochen produzieren.
Allgemeine Schritte für Blender + UniVRM
- Modelliere den Charakter in Blender — Polygon-Budget-Ziel: 30.000–60.000 Dreiecke für Echtzeitnutzung.
- UV-Unwrap — Lege UVs saubern aus; du wirst Texturen auf diese malen oder backen.
- Textur — Male in Substance Painter, Blenders Texture-Paint-Modus oder Krita. Standard-VRM verwendet einen Toon-Shader, also möchtest du flache Farbe + Cell Shading, nicht PBR.
- Rig in Blender — Erstelle ein Armature (Skelett), das der VRM-Bone-Namenskonvention folgt. UniVRM benötigt Bones mit exakten Namen:
Hips,Spine,Head,LeftUpperArm, usw. - Weight Paint — Weise Mesh-Vertices zu Bones zu, damit der Körper korrekt verformt.
- Exportiere zu FBX → Importiere in Unity.
- Installiere UniVRM in Unity — Importiere via Package Manager mit der GitHub-URL.
- Richte VRM-Meta auf — Autor, Thumbnail, Lizenz.
- Füge BlendShapes hinzu — Erstelle Blend Shapes für jeden Ausdruck (A/I/U/E/O-Mundformen, Blinzeln, Freude, Wut, Trauer, Überraschung) zuerst in Blender, dann ordne sie im UniVRM-Inspector zu.
- Exportiere VRM — erstellt eine
.vrm-Datei, die du in VSeeFace oder VTube Studio laden kannst.
Wie man einen VTuber-Avatar erstellt: DIY-Tool-Vergleichstabelle
| VRoid Studio | Live2D Cubism | Blender + UniVRM | |
|---|---|---|---|
| Kosten | Kostenlos | Kostenlose Testversion / ~$200–300 | Kostenlos |
| Ausgabeformat | VRM (.vrm) | .moc3 | VRM (.vrm) |
| Kunststil | Anime 3D | Anime 2D | Alles |
| Erforderliche Fähigkeit | Keine | Mittelmäßig (Zeichnen + Rigging) | Fortgeschritten (3D-Modellierung) |
| Zeit für ersten Avatar | 3–8 Stunden | Mehrere Wochen | 1–3 Monate |
| Ausdrucksqualität | Gut | Ausgezeichnet | Gut–Ausgezeichnet |
| Tracking-Software | VTube Studio, VSeeFace | VTube Studio | VTube Studio, VSeeFace |
| Polygon-Budget-Kontrolle | Begrenzt (autogeneriert) | N/A (2D) | Vollständig kontrolliert |
| Physik (Haare/Kleidung) | Eingebaut | Eingebaut | Blender → Unity Physik |
| Beste für | Anfänger, schnelle Einrichtung | 2D-Künstler | 3D-Künstler, Game Devs |
Hinzufügen von Gesichtsausdrücken und Physik
Unabhängig davon, welchen Weg du gewählt hast, zwei Funktionen verbessern die Präsenz des Avatars im Stream dramatisch: Zusätzliche Ausdrücke und Physik-Simulation.
Ausdrücke über die Standardwerte hinaus
VRM-Modelle unterstützen acht Standard-Blend-Shapes: Joy, Angry, Sorrow, Fun, A, I, U, E, O, Blink, BlinkLeft, BlinkRight. VTube Studio und VSeeFace ordnen diese automatisch zu. Um Extras hinzuzufügen (ein Augenzwinkern, eine Zunge raus, ein Schweißtropfen), musst du:
- In VRoid: Definiere benutzerdefinierte Blend Shapes im Export Settings Panel, dann konfiguriere sie als Hotkeys in VTube Studio.
- In Cubism: Füge Parameter-Spuren über den Standard-Satz hinzu und beschrifte sie im model3.json.
- In Blender/UniVRM: Füge extra Shape Keys in Blender hinzu und mache sie als BlendShapeClips im UniVRM-Inspector verfügbar.
Ordne deine Ausdrücke Tastaturkürzeln in deiner Tracking-Software zu. Erfahrene VTuber behalten ihr Ausdrucks-Board auf einem Stream Deck oder einem sekundären Keypad.
Physik
Haare, Bänder, lockere Kleidung und Ohr-Accessoires profitieren alle von sekundärer Bewegungs-Physik. Jedes Tool handhhabt dies unterschiedlich:
- VRoid: Physik-Gruppen werden in der Physics/Collider-Registerkarte konfiguriert. Füge Spring-Gruppen für jede Haargruppe hinzu. Passe Steifheit (0–1) und Widerstand an.
- Cubism: Physik ist ein separates Editor-Panel. Definiere Pendel-Ketten vom Wurzel-Bone nach außen.
- UniVRM: Spring Bones werden als
VRMSpringBone-Komponenten in Unity hinzugefügt. Zeige sie auf die Bone-Kette, die du schwingen möchtest.
Das Abstimmen von Physik erfordert Experimentieren. Als Ausgangspunkt: hohe Steifheit (0,8+) für kurze Haare, niedrige Steifheit (0,1–0,3) für lange, fließende Haare oder Bänder.
Testen in Tracking-Software
Sobald deine Modell-Datei bereit ist, ist das Testen der Schritt, den die meisten Anfänger überspringen. Überspringe es nicht.
VTube Studio-Checkliste:
- Lade das Modell. Bestätige, dass es im Frame angezeigt wird, ohne den Boden oder die Decke zu beschneiden.
- Aktiviere Facial Tracking. Öffne den Face-Abschnitt und verifiziere, dass alle Ausdrucks-Parameter Bewegung zeigen, wenn du dein Gesicht bewegst.
- Überprüfe das Blinzeln — die meisten Kamera-Setups benötigen angepasste Blinzel-Empfindlichkeit (Standard ist oft zu hoch oder zu niedrig für Brillenträger).
- Teste Mund-Synchronisierung. Sprich Vokale laut aus und bestätige, dass sich der Mund öffnet/schließt.
- Teste Kopfneigung und -rotation bis zu den Extremen deines natürlichen Bereichs — achte auf Mesh-Verformung oder Beschneidung am Hals.
- Teste jeden benutzerdefinierten Ausdrucks-Hotkey.
- Überprüfe das Performance-Overlay: ziele darauf ab, unter 10ms Render-Zeit im VTube Studio Stats Panel zu liegen.
VSeeFace-Checkliste:
Die gleichen Schritte gelten. VSeeFace hat auch ein Model Info-Fenster mit Live-Blend-Shape-Werten — nützlich, um zu diagnostizieren, welcher Parameter nicht korrekt reagiert.
Häufige Fehler und wie man sie behebt
“Modell wird seitlich oder umgekehrt geladen” Dies ist ein Koordinaten-Achsen-Mismatch zwischen Blender und Unity. Wende in Blender alle Transformationen an (Ctrl+A → All Transforms) vor dem Exportieren von FBX. Bestätige in Unity, dass die FBX-Import-Y-up-Achse korrekt eingestellt ist.
Haare durchschneiden den Körper
Erhöhe den Bone-Collider-Radius am Hals und den Schultern in VRoids Physik-Panel. In UniVRM, füge VRMSpringBoneCollider-Komponenten zu den Schulterknochen hinzu und zeige die Spring-Bone’s colliders-Liste auf sie.
Mund öffnet sich nicht während des Tracking VTube Studios Mouth-Open-Parameter benötigt, dass die Kamera dein Kinn sieht. Stelle den Webcam-Winkel an oder senke die Mouth-Open-Schwelle im Face Tracking Settings Panel.
Modell sieht im Stream ausgewaschen aus VRM verwendet einen Toon-Shader, der sRGB-Farbraum erwartet. Wenn deine Streaming-Software (OBS) in einem anderen Farbprofil erfasst, aktiviere die Farbraum-Korrektur in den OBS Video Source Settings.
Expression Blend Shapes fehlen in VTube Studio
Die Blend-Shape-Namen müssen genau mit VRM-Standard übereinstimmen: Joy, Angry, Blink, A, usw. (Groß-/Kleinschreibung beachtet). Überprüfe deine Export-Einstellungen in VRoid oder deine BlendShapeClip-Namen in UniVRM.
Hohe Latenz beim Facial Tracking VTube Studios iOS Facial Tracking (mit der Handy-Kamera über USB oder Wi-Fi) hat niedrigere Latenz als die meisten USB-Webcams, da iPhones ARKit-Tiefensensoren verwenden. Wenn du bei Webcam eine träge Tracking bekommst, senke die Tracking-Auflösung in VSeeFaces Start-Einstellungen.
Voice-Strategie neben deinem VTuber-Avatar
Dein Avatar handhabt die visuelle Identität. Deine Stimme handhabt alles andere — und für viele Ersteller ist sie genauso wichtig. Viele Creators wollen eine Stimme, die zu ihrer Charakter-Persona passt, anstatt zu ihrer alltäglichen Stimme.
Hier kommt VoxBooster ins Spiel. VoxBooster läuft auf Windows und verarbeitet dein Mikrofon in Echtzeit — du kannst die Tonhöhe verschieben, einen neuronalen Voice Clone anwenden, Effekte hinzufügen und Rauschunterdrückung alles auf einmal laufen lassen. Die Voice Clone-Funktion ermöglicht es dir, ein benutzerdefiniertes Stimmmodell aus ein paar Minuten Trainingsaudio zu erstellen, sodass deine On-Screen-Persona eine konsistente Stimme hat, unabhängig von deiner Off-Camera-Stimme.
VoxBooster funktioniert neben VTube Studio, VSeeFace und OBS — es gibt eine Ausgabe über ein virtuelles Audiogerät, das jedes Streaming-Tool als normales Mikrofon erkennt. Keine Einrichtungskonflikte mit der Avatar-Pipeline. Schau dir die Preisoptionen an, wenn du es ausprobieren möchtest.
Für den Kontext darüber, was einen großartigen Avatar ausmacht, sobald du die technische Seite geklärt hast, behandelt der VTuber-Modell-Leitfaden Design-Prinzipien und worauf man bei der Evaluierung von Modellen achten sollte. Für eine vollständige Zusammenfassung der verfügbaren Voice-Tools in 2026 behandelt der Artikel Best Voice Changer 2026 die Bewertungskriterien, die man kennen sollte.
Häufig gestellte Fragen
Wie lange dauert es, ein VTuber-Modell zu erstellen? Mit VRoid Studio dauert ein einfacher Avatar 3–8 Stunden. Ein perfekt ausgearbeitetes Live2D-Modell benötigt mehrere Wochen. Ein vollständig benutzerdefiniertes Blender+Unity-Avatar kann für Anfänger Monate dauern.
Wie erstelle ich am einfachsten kostenlos einen VTuber-Avatar? VRoid Studio von Pixiv ist die einfachste kostenlose Option. Es ist ein spezialisierter VTuber-Modell-Generator mit visuellem Editor, vordefinierten Teilen und direktem VRM-Export — keine 3D-Erfahrung erforderlich.
Kann ich mein VTuber-Modell ohne einen Rigging-Künstler verwenden? Ja, wenn du VRoid Studio verwendest. Es rigged das Modell automatisch beim Export ins VRM-Format. VTube Studio und VSeeFace akzeptieren beide VRM-Dateien und handhaben Live-Facial-Tracking automatisch.
Wie bringe ich meinen VTuber-Avatar dazu, sich mit meinem Gesicht zu bewegen? Exportiere dein Modell als VRM oder .moc3, importiere es dann in VTube Studio oder VSeeFace. Diese Apps erfassen deine Gesichtsbewegungen von einer Webcam oder Handy-Kamera und ordnen sie in Echtzeit dem Avatar zu.
Welche Software verwenden VTuber zum Tracking ihres Avatars? VTube Studio ist das Beliebteste für 2D Live2D-Modelle. VSeeFace ist verbreitet für VRM 3D-Modelle. Beide sind kostenlos. VTube Studio hat eine kostenpflichtige iOS-App für hochwertige ARKit Facial Tracking.
Hat VRoid Studio eine Polygon-Begrenzung? VRoid exportiert VRM ohne erzwungene Polygon-Obergrenze, aber VTube Studio läuft am besten unter etwa 70.000 Dreiecken. VRoids Standardexport liegt normalerweise bei 30.000–60.000, abhängig von der Haarkompleximtät.
Kann ich einen VTuber-Avatar verkaufen, den ich in VRoid Studio erstellt habe? Ja, unter Pixivs Nutzungsbedingungen kannst du mit VRoid Studio erstellte VRM-Modelle verkaufen. Lies die aktuellen Pixiv-Geschäftsbedingungen, bevor du auflistest, da die Regeln zu vordefinierten Assets, die in der App gebündelt sind, variieren können.
Fazit
Einen VTuber-Avatar zu erstellen, ist zugänglicher, als es von außen aussieht. Der schnellste Weg — VRoid Studio — benötigt einen einzelnen Nachmittag und produziert eine vollständig getrackte, streaming-bereite VRM-Datei ohne vorherige 3D-Erfahrung. Die schwierigeren Wege (Live2D Cubism, Blender + UniVRM) benötigen länger, aber geben dir die Kontrolle über jeden Pixel und jedes Polygon.
Der Kern von wie man als VTuber funktioniert als Inhalts-Identität ist die Kombination: ein erkennbares Visuelles (Avatar) plus eine konsistente Stimme (Audio). Wenn du wissen möchtest, wie man einen VTuber-Avatar macht, der tatsächlich veröffentlicht wird — nicht nur geplant — die Antwort ist, einen Weg zu wählen, ihn zu beenden und zu iterieren. Verwende VRoid, um deinen ersten Avatar diese Woche zu veröffentlichen, und integriere Voice Processing, sobald die Avatar-Seite solide ist.
Wenn du einen Voice Changer wählst, um ihn mit deinem neuen Modell zu koppeln, lade VoxBooster herunter und führe das Setup durch — die Testversion deckt alles ab, das du brauchst, um den Voice Clone und die Effekte zu testen, bevor du dich verpflichtest.