Nauka jak zrobić model VTubera to jeden z najczęściej wyszukiwanych tematów w społeczności VTubera — i z dobrych powodów. Twój awatar to Twoja tożsamość na ekranie. Wiedza jak zrobić awatara VTubera od zera, zamiast płacić artyście komisji setkami dolarów, to umiejętność, która się opłaca za każdym razem, gdy chcesz odświeżyć swój wygląd. Przewodnik ten przechodzi przez trzy realistyczne ścieżki DIY: przyjazną dla początkujących trasę VRoid Studio, bardziej zaawansowaną trasę Live2D Cubism i pełny dostosowany pipeline Blender dla osób, które chcą pełną kontrolę.
Na koniec będziesz wiedzieć, która ścieżka pasuje do Twojego poziomu umiejętności i budżetu czasu, będziesz mieć ponumerowane kroki dla najszybszej trasy i zrozumiesz, jak podłączyć gotowy model do oprogramowania do śledzenia na żywo. Jeśli nadal jesteś na etapie zastanawiania się, czy w ogóle zostać VTuberem, najpierw sprawdź przewodnik jak zostać VTuberem.
TL;DR — Którą ścieżkę wybrać?
| Twoja sytuacja | Najlepsza ścieżka |
|---|---|
| Pierwszy awatar, chcesz transmitować tego tygodnia | VRoid Studio (Ścieżka A) |
| Rysujesz anime i chcesz 2D żywe wyrażenie | Live2D Cubism (Ścieżka B) |
| Doświadczenie w game dev lub chcesz poświęcić miesiące | Blender + UniVRM (Ścieżka C) |
| Budżet to zero | VRoid Studio lub Blender (oba bezpłatne) |
| Chcesz najbardziej ekspresyjne śledzenie twarzy | Live2D → VTube Studio |
Ścieżka A — VRoid Studio: Najłatwiejszy sposób na stworzenie awatara VTubera
VRoid Studio to bezpłatna aplikacja stacjonarna od Pixiv zaprojektowana specjalnie jako twórca modeli VTubera. Jeśli chcesz wiedzieć najszybszą rzeczywistą odpowiedź na pytanie, jak zrobić model VTubera za darmo, VRoid to odpowiedź. Wybierasz bazowe ciało, dostosowujesz suwaki, malujesz tekstury i eksportujesz plik VRM. Nie jest potrzebne doświadczenie w 3D. Szacunek czasu: 3–8 godzin na pierwszy użyteczny awatar.
Pobierz: vroid.com/en/studio
Krok 1 — Zainstaluj VRoid Studio
Pobierz instalator Windows z oficjalnej strony VRoid. Aplikacja ma około 600 MB. Rejestracja nie jest wymagana do używania. Utwórz bezpłatne konto Pixiv tylko wtedy, gdy chcesz opublikować na VRoid Hub.
Krok 2 — Wybierz bazę i proporcje ciała
Podczas uruchamiania wybierz Utwórz nowy model i wybierz płeć (etykieta jest używana tylko do proporcji siatki bazowej — możesz wszystko dostosować później). Ustaw ogólną wysokość, stosunek głowy do ciała i suwaki biustu/bioder. VTuberzy powszechnie używają stylizowanych proporcji z nieco większą głową — dąż do stosunku głowy około 1:5 lub 1:6, jeśli chcesz wyglądu anime.
Krok 3 — Projektuj twarz
Kliknij kartę Twarz. Znajdziesz dziesiątki suwaków obejmujących:
- Kształt, rozmiar, rozstawę oczu i teksturę tęczówki
- Wysokość i szerokość grzbietu nosa
- Pozycję ust i grubość warg
- Kształt uszu
- Kolor skóry i podtony
Każda cecha ma selektor wstępnych ustawień plus ręczne suwaki. Spędź większość czasu tutaj — twarz to to, co widzą widzowie na transmisji. Zmień teksturę tęczówki z wbudowanej biblioteki lub zaimportuj niestandardowy PNG (1024×1024 rekomendowane).
Krok 4 — Stylizuj włosy
Karta Styl fryzury to miejsce, gdzie VRoid się wyróżnia. Dodajesz grupy włosów — góra, boki, tył, grzywka, akcesoria — każda jako oddzielny zestaw linii pomocniczych. Przeciągnij punkty kontrolne, aby ukształtować każdy klaster włosów. Przypisz kolor za pomocą wbudowanego edytora gradientu. Więcej punktów pomocniczych = bardziej szczegółowe włosy = wyższa liczba trójkątów. Utrzymuj całkowite trójkąty włosów poniżej 20 000, jeśli wydajność się liczy.
W przypadku pierwszego awatara użyj 3–5 grup włosów. Złożone style z podwójnymi wiertłami z akcesoriami mogą cię popchnąć do 10+ grup, ale wynik jest nadal czysty.
Krok 5 — Ubierz awatara
Otwórz kartę Strój. Wbudowana odzież obejmuje koszule, kurtki, spódnice, spodnie i akcesoria. Każda część ma warianty tekstury, które możesz zmienić kolor. Możesz także zaimportować niestandardowy plik PNG tekstury, aby zastąpić wzór tkaniny bazowej.
Aby całkowicie niestandardowy strój, wyeksportowałbyś układ UV, malujesz w Photoshopie lub Krita i ponownie importujesz. To zadanie uboczne trwające 1–2 godziny. W przypadku pierwszego awatara domyślne opcje garderoby są wystarczające.
Krok 6 — Skonfiguruj domyślne wyrażenia i kształty mieszane
VRoid automatycznie generuje zestaw wyrażeń twarzy: szczęśliwe, smutne, zaskoczone, wściekłe, zrelaksowane i mruganie oka. Te mapują się bezpośrednio do oprogramowania śledzącego. Możesz je podglądać na karcie Wygląd, klikając miniatury wyrażeń.
Jeśli chcesz niestandardowe wyrażenia (mrugnięcie, szeroki uśmiech, twarz ”>_<”), otwórz Ustawienia wyjścia VRM → BlendShape. Dodaj tam nowe kształty mieszane. Zauważ, że niestandardowe kształty mieszane poza standardowym zestawem VRM wymagają ręcznej konfiguracji w VTube Studio, aby przypisać do skrótów klawiaturowych.
Krok 7 — Eksportuj jako VRM
Przejdź do Eksportuj (menu górne). Wybierz Eksportuj jako VRM. Wypełnij nazwę autora, typ licencji (wybierz ostrożnie, jeśli planujesz sprzedawać) i dozwolone zastosowania. VRoid automatycznie generuje rig — nie riggujesz ręcznie. Kliknij Eksportuj, wybierz folder i masz swój plik .vrm.
Typowy rozmiar pliku: 20–80 MB. Liczba trójkątów: 30 000–70 000 w zależności od złożoności włosów.
Krok 8 — Zaimportuj do VTube Studio lub VSeeFace
- VTube Studio (Windows + kamera telefonu): Otwórz aplikację stacjonarną, przejdź do Model → Załaduj model, wybierz plik
.vrm. Aplikacja automatycznie mapuje standardowe wyrażenia. - VSeeFace (kamera internetowa Windows): Upuść
.vrmdo folderu modeli VSeeFace, załaduj z aplikacji.
Oba są bezpłatne. Teraz transmitujesz — kamera internetowa lub kamera telefonu napędza twarz awatara w czasie rzeczywistym.
Ścieżka B — Live2D Cubism: Więcej kontroli, więcej pracy
Live2D Cubism to narzędzie branżowe stojące za praktycznie każdym profesjonalnie wyglądającym 2D modelem VTubera. Przepływ pracy to: narysuj postać płasko w warstwach (w Photoshopie lub Clip Studio Paint), zaimportuj warstwy do Cubism, a następnie utwórz rigged mesh, który deformuje się, gdy postać się porusza.
Dokumentacja oficjalna: docs.live2d.com
Koszt: Bezpłatna wersja próbna (ograniczone opcje eksportu). Licencja Pro to około 200–300 USD lub subskrypcja 2 USD/miesiąc za pośrednictwem strony Live2D.
Format wyjścia: pakiet .moc3 + .model3.json. Śledzony przez VTube Studio.
Szacunek czasu: Kilka tygodni do kilku miesięcy na pierwszy kompletny model.
Kroki wysokiego poziomu dla Live2D
- Narysuj warstwową sztukę — oddziel każdą część, która powinna się poruszać: każde oko, każdą brew, otwarte/zamknięte usta, głowę, grzywkę, ciało. Minimum 30–60 warstw dla podstawowego modelu. Zapisz jako PSD.
- Importuj PSD do Cubism — warstwy wchodzą jako poszczególne tekstury.
- Deformery warp — umieść deformery warp i rotacji nad każdą częścią. To są “kości” riggingu 2D. Przypisz głowę do deformera rotacji, aby przechyliła się lewo/prawo.
- Animacja Keyform — dla każdego parametru (Head X, Head Y, Eye Open L, itp.) ustaw keyformy na -30, 0 i +30 stopni. Cubism interpoluje między nimi.
- Fizyka — dodaj grupę fizyki dla włosów i akcesoriów, aby huśtały się z ruchem głowy.
- Eksportuj .moc3 — spakuj z atlasem tekstury i model3.json.
- Załaduj w VTube Studio — plik
.model3.jsonto punkt wejścia. VTube Studio mapuje standardowe parametry Live2D do twojej kamery automatycznie.
Korzyść to ekspresyjna, dobrej jakości ilustracja animacji, którą żadne narzędzie 3D nie dorównuje obecnie dla czystej estetyki anime. Koszt jest realny: nauka systemu parametrów Cubism i przepływu pracy keyform ma stromą początkową krzywą.
Ścieżka C — Blender + Unity + UniVRM: Pełny niestandardowy 3D
To ścieżka dla deweloperów gier i artystów 3D, którzy chcą całkowicie niestandardową siatkę bez ograniczeń stylistycznych. Produkuje plik VRM jak VRoid, ale każdy wielokąt jest twój.
Narzędzia:
- Blender — bezpłatny, zaindustrializowany standard modelowania 3D
- Unity — bezpłatna wersja Personal (wymagana dla pipeline UniVRM)
- UniVRM — otwarty pakiet Unity, który eksportuje VRM ze sceny Unity
Szacunek czasu: Minimum 1–3 miesiące dla osób nowych w 3D. Doświadczeni artyści 3D mogą stworzyć VRM w 2–4 tygodnie.
Kroki wysokiego poziomu dla Blender + UniVRM
- Modeluj postać w Blenderze — cel budżetu wielokąta: 30 000–60 000 trójkątów do użytku w czasie rzeczywistym.
- Rozwinięcie UV — czysto rozłóż UV; będziesz malować lub wypalać tekstury na nich.
- Tekstura — maluj w Substance Painter, trybie malowania tekstury Blendera lub Krita. Standardowy VRM używa cieniowania toon, więc chcesz kolor płaski + cel shading, nie PBR.
- Rig w Blenderze — utwórz system kośćca (skeleton), który postępuje zgodnie z konwencją nazewnictwa kości VRM. UniVRM potrzebuje kości nazwanych dokładnie:
Hips,Spine,Head,LeftUpperArm, itp. - Malowanie wagi — przypisz wierzchołki siatki do kości, aby ciało deformowało się poprawnie.
- Eksportuj do FBX → zaimportuj do Unity.
- Zainstaluj UniVRM w Unity — importuj za pośrednictwem menedżera pakietów za pomocą adresu URL GitHub.
- Ustaw metę VRM — autor, miniatura, licencja.
- Dodaj BlendShapes — utwórz kształty mieszane dla każdego wyrażenia (kształty ust A/I/U/E/O, mruganie, radość, gniew, smutek, zaskoczenie) najpierw w Blenderze, a następnie mapuj je w inspektorze UniVRM.
- Eksportuj VRM — buduje plik
.vrm, który możesz załadować do VSeeFace lub VTube Studio.
Jak zrobić model VTubera: tabela porównania narzędzi DIY
| VRoid Studio | Live2D Cubism | Blender + UniVRM | |
|---|---|---|---|
| Koszt | Bezpłatne | Bezpłatna wersja próbna / ~200–300 USD | Bezpłatne |
| Format wyjścia | VRM (.vrm) | .moc3 | VRM (.vrm) |
| Styl sztuki | Anime 3D | Anime 2D | Wszystko |
| Wymagana umiejętność | Brak | Pośrednia (rysowanie + rigging) | Zaawansowana (modelowanie 3D) |
| Czas dla pierwszego awatara | 3–8 godzin | Kilka tygodni | 1–3 miesiące |
| Jakość wyrażenia | Dobra | Doskonała | Dobra–Doskonała |
| Oprogramowanie śledzące | VTube Studio, VSeeFace | VTube Studio | VTube Studio, VSeeFace |
| Kontrola budżetu wielokątów | Ograniczona (auto-generowana) | N/A (2D) | Pełna kontrola |
| Fizyka (włosy/ubranie) | Wbudowana | Wbudowana | Blender → Unity fizyka |
| Najlepsze dla | Początkujący, szybka konfiguracja | Artyści 2D | Artyści 3D, game devy |
Dodawanie wyrażeń twarzy i fizyki
Niezależnie od wybranej ścieżki, dwie funkcje dramatycznie poprawiają obecność awatara na transmisji: dodatkowe wyrażenia i symulacja fizyki.
Wyrażenia poza domyślnymi
Modele VRM obsługują osiem standardowych kształtów mieszanych: Joy, Angry, Sorrow, Fun, A, I, U, E, O, Blink, BlinkLeft, BlinkRight. VTube Studio i VSeeFace mapują je automatycznie. Aby dodać dodatkowe (mruganie, wysuniętym językiem, kroplą potu), musisz:
- W VRoid: zdefiniuj niestandardowe kształty mieszane w panelu Ustawienia eksportu, a następnie skonfiguruj je jako skróty klawiaturowe w VTube Studio.
- W Cubism: dodaj ścieżki parametrów poza zestawem domyślnym i oznacz je w model3.json.
- W Blender/UniVRM: dodaj dodatkowe kształty kluczowe w Blenderze i ujawnij je jako BlendShapeClips w inspektorze UniVRM.
Mapuj wyrażenia na skróty klawiaturowe w oprogramowaniu śledzącym. Doświadczeni VTuberzy trzymają planszę wyrażeń na Stream Deck lub na dodatkowej klawiaturze.
Fizyka
Włosy, wstążki, luźna odzież i akcesoria uuszne — wszystkie korzystają z fizyki ruchu drugorzędnego. Każde narzędzie obsługuje to inaczej:
- VRoid: grupy fizyki są konfigurowane na karcie Fizyka/Collider. Dodaj grupy sprężyn dla każdej grupy włosów. Dostosuj sztywność (0–1) i przeciągnięcie.
- Cubism: fizyka to osobny panel edytora. Zdefiniuj łańcuchy wahadła od kości głównej na zewnątrz.
- UniVRM: sprężyny są dodawane jako komponenty
VRMSpringBonew Unity. Wskaż je na łańcuch kości, który chcesz huśtać.
Dostrojenie fizyki wymaga eksperymentowania. Jako punkt wyjścia: wysoka sztywność (0,8+) na krótkie włosy, niska sztywność (0,1–0,3) na długie płynące włosy lub wstążki.
Testowanie w oprogramowaniu śledzącym
Gdy plik modelu jest gotowy, testowanie to krok, który większość początkujących pomija. Nie pomijaj tego.
Lista kontrolna VTube Studio:
- Załaduj model. Potwierdź, że pojawia się w kadrze bez przycinania podłogi lub sufitu.
- Włącz śledzenie twarzy. Otwórz sekcję Twarz i sprawdź, czy wszystkie parametry wyrażenia pokazują ruch, gdy poruszasz twarzą.
- Sprawdzić mruganie — większość ustawień kamery wymaga dostrojenia czułości mrugania (domyślnie często za wysoko lub za nisko dla osób noszących okulary).
- Testuj synchronizację ust. Powiedz samogłoski na głos i potwierdź, że usta się otwierają/zamykają.
- Testuj przechylanie i rotację głowy do granic naturalnego zakresu — szukaj zniekształcenia siatki lub przycinania w szyi.
- Testuj każdy niestandardowy skrót wyrażenia.
- Sprawdź nakładkę wydajności: dąż do poniżej 10 ms czasu renderowania w panelu statystyk VTube Studio.
Lista kontrolna VSeeFace:
Te same kroki się stosują. VSeeFace ma również okno Model Info pokazujące na żywo wartości kształtów mieszanych — przydatne do diagnozowania, który parametr nie odpowiada poprawnie.
Błędy zwyczajne i sposób ich naprawy
“Model ładuje się boczkowo lub odwrotnie” To niezgodność osi współrzędnych między Blenderem i Unity. W Blenderze zastosuj wszystkie transformacje (Ctrl+A → Wszystkie transformacje) przed eksportowaniem FBX. W Unity potwierdź, że oś importu FBX Y-up jest ustawiona poprawnie.
Włosy przebijają się przez ciało
Zwiększ promień koladera kości w karcie Fizyka VRoid na szyi i ramionach. W UniVRM dodaj komponenty VRMSpringBoneCollider do kości ramion i wskaż listę colliders sprężyn na nich.
Usta się nie otwierają podczas śledzenia Parametr otwartych ust VTube Studio wymaga, aby kamera widziała Twoją brodę. Dostosuj kąt kamery internetowej lub obniż próg otwartych ust w panelu ustawień Face Tracking.
Model wygląda na wymytym na transmisji VRM używa cieniowania toon oczekującego przestrzeni kolorów sRGB. Jeśli oprogramowanie streamingowe (OBS) rejestruje w innym profilu kolorów, włącz korekcję przestrzeni kolorów w ustawieniach źródła wideo OBS.
Kształty mieszane wyrażenia brakują w VTube Studio
Nazwy kształtów mieszanych muszą dokładnie pasować do standardu VRM: Joy, Angry, Blink, A, itp. (z rozróżnianiem wielkości liter). Sprawdź ustawienia eksportu w VRoid lub nazwy BlendShapeClip w UniVRM.
Wysokie opóźnienie w śledzeniu twarzy Śledzenie twarzy iOS VTube Studio (korzystające z kamery telefonu przez USB lub Wi-Fi) ma niższe opóźnienie niż większość kamer USB, ponieważ iPhone’y używają czujników głębi ARKit. Jeśli jesteś na kamerze internetowej i masz powolne śledzenie, obniż rozdzielczość śledzenia w ustawieniach uruchamiania VSeeFace.
Strategia głosu obok awatara VTubera
Twój awatar obsługuje tożsamość wizualną. Twój głos obsługuje wszystko inne — i dla wielu twórców jest równie ważny. Wielu twórców chce głosu, który pasuje do osobowości ich postaci, a nie ich codziennego głosu.
To właśnie VoxBooster wchodzi. VoxBooster działa na Windows i przetwarza Twój mikrofon w czasie rzeczywistym — możesz przesuwać tonację, stosować neuronalny klon głosu, dodawać efekty i jednocześnie uruchamiać tłumienie szumu. Funkcja klonowania głosu pozwala zbudować niestandardowy model głosu z kilku minut materiału treningowego, dzięki czemu twoja persona na ekranie ma spójny głos niezależnie od twojego głosu poza kamerą.
VoxBooster działa obok VTube Studio, VSeeFace i OBS — wyjście przez wirtualne urządzenie audio, które każde narzędzie streamingowe odbiera jako normalny mikrofon. Bez konfliktów konfiguracji z pipelinerem awatara. Sprawdź opcje cenowe, jeśli chcesz ją spróbować.
Aby uzyskać kontekst na temat tego, co sprawia, że awatar jest świetny, gdy masz już stronę techniczną, przewodnik modelu VTubera obejmuje zasady projektowania i na co warto zwrócić uwagę przy ocenie modeli. Aby uzyskać pełny przegląd narzędzi głosu dostępnych w 2026, artykuł najlepszy voice changer 2026 obejmuje kryteria oceny, które warto znać.
Często zadawane pytania
Ile czasu zajmuje stworzenie modelu VTubera? Za pomocą VRoid Studio podstawowy awatar zajmuje 3–8 godzin. Dopracowany model Live2D zajmuje kilka tygodni. Całkowicie niestandardowy awatar Blender+Unity może zająć miesiące dla osoby nowej w 3D.
Jaki jest najłatwiejszy sposób na stworzenie awatara VTubera za darmo? VRoid Studio od Pixiv to najłatwisza bezpłatna opcja. To dedykowany twórca modeli VTubera z edytorem wizualnym, wstępnie ustawionymi częściami i bezpośrednim eksportem VRM — bez doświadczenia w 3D.
Czy mogę użyć mojego modelu VTubera bez artysty do riggingu? Tak, jeśli używasz VRoid Studio. Automatycznie rigguje model przy eksportowaniu do formatu VRM. Zarówno VTube Studio, jak i VSeeFace akceptują pliki VRM i automatycznie obsługują śledzenie twarzy na żywo.
Jak sprawić, aby awatar VTubera poruszał się wraz z moją twarzą? Wyeksportuj model jako VRM lub .moc3, a następnie zaimportuj do VTube Studio lub VSeeFace. Aplikacje te odczytują ruchy twarzy z kamery internetowej lub kamery telefonu i mapują je do awatara w czasie rzeczywistym.
Jakie oprogramowanie VTuberzy używają do śledzenia swojego awatara? VTube Studio jest najpopularniejsze dla 2D modeli Live2D. VSeeFace jest powszechne dla 3D modeli VRM. Oba są bezpłatne. VTube Studio ma płatną aplikację na iOS do śledzenia twarzy ARKit wysokiej jakości.
Czy VRoid Studio ma limit wielokątów? VRoid eksportuje VRM bez wymuszanego limitu poligonów, ale VTube Studio działa najlepiej poniżej około 70 000 trójkątów. Domyślny eksport VRoid wynosi zwykle 30 000–60 000 w zależności od złożoności włosów.
Czy mogę sprzedać awatara VTubera, który zrobiłem w VRoid Studio? Tak, zgodnie z Warunkami korzystania z usługi Pixiv możesz sprzedawać modele VRM stworzone w VRoid Studio. Przeczytaj aktualne Warunki handlowe Pixiv przed umieszczeniem na liście, ponieważ reguły dotyczące wstępnie wykonanych zasobów zawartych w aplikacji mogą się różnić.
Podsumowanie
Stworzenie awatara VTubera jest bardziej osiągalne, niż wygląda z zewnątrz. Najszybsza ścieżka — VRoid Studio — zajmuje jedno popołudnie i produkuje w pełni śledzony, gotowy do streamingu plik VRM bez wcześniejszego doświadczenia w 3D. Trudniejsze ścieżki (Live2D Cubism, Blender + UniVRM) zajmują więcej czasu, ale dają ci kontrolę nad każdym pikselem i wielokątem.
Jądrem jak zrobić pracę VTubera jako tożsamość treści jest kombinacja: rozpoznawalny wizerunek (awatar) plus spójny głos (audio). Gdy chcesz wiedzieć, jak zrobić model VTubera, który faktycznie wysyła — nie tylko się planuje — odpowiedź to wybrać jedną ścieżkę, ją ukończyć i iterować. Użyj VRoid, aby wysłać swój pierwszy model tego tygodnia, i dodaj przetwarzanie głosu, gdy strona awatara jest solidna.
Jeśli wybierasz voice changera, aby sparować z nowym modelem, pobierz VoxBooster i przejdź przez konfigurację — wersja próbna obejmuje wszystko, czego potrzebujesz, aby przetestować klon głosu i efekty przed zatwierdzeniem.