VTuber 아바타 만드는 방법: 무료 도구 + 소프트웨어 비교

VRoid Studio, Live2D Cubism, Blender로 VTuber 아바타를 만드는 단계별 가이드입니다. 무료 도구, 실제 시간 추정, 트래킹 소프트웨어 팁을 포함합니다.

VTuber 모델을 만드는 방법을 배우는 것은 VTuber 커뮤니티에서 가장 많이 검색되는 주제 중 하나이며, 그럴 만한 이유가 있습니다. 아바타는 화면상의 정체성입니다. 커미션 아티스트에게 수백 달러를 지불하는 대신 VTuber 아바타를 처음부터 만드는 방법을 아는 것은 외모를 새로 고칠 때마다 효과를 발휘하는 기술입니다. 이 가이드는 초보자 친화적인 VRoid Studio 경로, 더 강력한 Live2D Cubism 경로, 완전한 제어를 원하는 사람들을 위한 완전 사용자 정의 Blender 파이프라인 등 세 가지 현실적인 DIY 경로를 안내합니다.

이 가이드를 마치면 자신의 기술 수준과 시간 예산에 맞는 경로가 어느 것인지 알 수 있고, 가장 빠른 경로에 대한 번호별 단계를 가지고 있으며, 완성된 모델을 실시간 추적 소프트웨어에 연결하는 방법을 이해할 것입니다. 여전히 VTuber가 될지 말지를 결정하는 단계에 있다면 먼저 VTuber가 되는 방법 가이드를 확인하십시오.


요약 — 어느 경로를 선택해야 합니까?

당신의 상황최적 경로
첫 아바타, 이번 주에 스트리밍하고 싶음VRoid Studio (경로 A)
애니메를 그리고 2D 실시간 표현을 원함Live2D Cubism (경로 B)
게임 개발 경력 또는 몇 개월을 투자할 의향이 있음Blender + UniVRM (경로 C)
예산이 0원VRoid Studio 또는 Blender (둘 다 무료)
가장 표현력 있는 얼굴 추적을 원함Live2D → VTube Studio

경로 A — VRoid Studio: VTuber 아바타를 만드는 가장 쉬운 방법

VRoid Studio는 Pixiv에서 VTuber 모델 제작을 위해 특별히 설계한 무료 데스크톱 앱입니다. 무료로 VTuber 모델을 만드는 가장 빠른 실제 답을 찾고 있다면 VRoid가 정답입니다. 베이스 바디를 선택하고, 슬라이더를 조정하고, 텍스처를 칠하고, VRM 파일을 내보냅니다. 3D 경험이 필요하지 않습니다. 시간 추정: 첫 번째 사용 가능한 아바타의 경우 3~8시간입니다.

다운로드: vroid.com/en/studio

1단계 — VRoid Studio 설치

공식 VRoid 사이트에서 Windows 설치 프로그램을 다운로드합니다. 앱의 크기는 약 600MB입니다. 사용하기 위해 등록할 필요가 없습니다. VRoid Hub에 게시하려는 경우에만 무료 Pixiv 계정을 만듭니다.

2단계 — 베이스 및 신체 비율 선택

시작할 때 새 모델 만들기를 선택하고 성별을 선택합니다(레이블은 베이스 메시 비율에만 사용되며, 이후에는 모든 것을 조정할 수 있습니다). 전체 높이, 머리 대 신체 비율, 가슴/엉덩이 슬라이더를 설정합니다. VTuber들은 일반적으로 머리가 약간 더 큰 스타일이 지은 비율을 사용합니다. 애니메 모양을 원한다면 머리 비율을 약 1:5 또는 1:6 정도로 목표하십시오.

3단계 — 얼굴 디자인

얼굴 탭을 클릭합니다. 다음을 포함하는 수십 개의 슬라이더를 찾을 수 있습니다:

  • 눈 모양, 크기, 간격, 홍채 텍스처
  • 코 브리지 높이 및 폭
  • 입 위치 및 입술 두께
  • 귀 모양
  • 피부색 및 언더톤

각 특징에는 사전 설정 피커와 수동 슬라이더가 있습니다. 대부분의 시간을 여기에 소비합니다. 얼굴이 스트림에서 시청자가 보는 것입니다. 홍채 텍스처를 내장 라이브러리에서 변경하거나 사용자 정의 PNG를 가져옵니다(1024×1024 권장).

4단계 — 머리 스타일 지정

헤어스타일 탭은 VRoid가 빛나는 곳입니다. 머리 그룹(위, 옆, 뒤, 앞머리, 액세서리)을 추가하며, 각각 별도의 가이드 곡선 세트로 표현됩니다. 제어점을 끌어 각 가닥 클러스터를 모양입니다. 내장 그래디언트 편집기로 색상을 할당합니다. 더 많은 가이드 포인트 = 더 상세한 머리 = 더 높은 삼각형 수. 성능이 중요한 경우 총 머리 삼각형을 20,000개 아래로 유지합니다.

첫 번째 아바타의 경우 3~5개의 머리 그룹을 사용합니다. 액세서리가 있는 복잡한 쌍둥이 드릴 스타일은 10개 이상의 그룹으로 밀어낼 수 있지만 출력은 여전히 깔끔합니다.

5단계 — 아바타에 옷 입히기

의상 탭을 엽니다. 내장 의류에는 셔츠, 자켓, 스커트, 바지, 액세서리가 포함됩니다. 각 조각에는 다시 칠할 수 있는 텍스처 변형이 있습니다. 기본 패브릭 패턴을 바꾸기 위해 사용자 정의 텍스처 PNG를 가져올 수도 있습니다.

완전히 사용자 정의 의상의 경우 UV 레이아웃을 내보내고 Photoshop 또는 Krita에서 칠한 다음 다시 가져옵니다. 이는 1~2시간의 부작업입니다. 첫 번째 아바타의 경우 기본 의류 옵션으로 충분합니다.

6단계 — 기본 및 혼합 셰이프 표현 설정

VRoid는 자동으로 일련의 얼굴 표현을 생성합니다: 행복, 슬픔, 놀람, 화남, 편안함, 눈 깜박임. 이들은 추적 소프트웨어에 직접 매핑됩니다. 모양 탭에서 표현 썸네일을 클릭하여 미리 볼 수 있습니다.

사용자 정의 표현(윙크, 넓은 그린, ”>_<” 얼굴)을 원한다면 VRM 출력 설정 → BlendShape를 엽니다. 거기에 새로운 혼합 셰이프를 추가합니다. VRM 표준 세트 이외의 사용자 정의 혼합 셰이프는 VTube Studio에서 핫키에 할당하기 위한 수동 구성이 필요합니다.

7단계 — VRM으로 내보내기

내보내기(상단 메뉴)로 이동합니다. VRM으로 내보내기를 선택합니다. 저자 이름, 라이선스 유형(판매하려면 신중하게 선택), 허용된 사용을 입력합니다. VRoid는 자동으로 리그를 생성합니다. 수동으로 리그할 필요가 없습니다. 내보내기를 클릭하고 폴더를 선택하면 .vrm 파일이 있습니다.

일반적인 파일 크기: 2080MB. 삼각형 수: 머리 복잡도에 따라 30,00070,000입니다.

8단계 — VTube Studio 또는 VSeeFace로 가져오기

  • VTube Studio(Windows + 휴대폰 카메라): 데스크톱 앱을 열고, 모델 → 모델 로드로 이동하여 .vrm 파일을 선택합니다. 앱이 표준 표현을 자동으로 매핑합니다.
  • VSeeFace(Windows 웹캠): .vrm을 VSeeFace 모델 폴더에 드롭하고 앱에서 로드합니다.

둘 다 무료입니다. 이제 당신은 라이브입니다. 웹캠 또는 휴대폰 카메라가 실시간으로 아바타의 얼굴을 구동합니다.


경로 B — Live2D Cubism: 더 많은 제어, 더 많은 작업

Live2D Cubism은 거의 모든 전문적으로 보이는 2D VTuber 모델 뒤에 있는 업계 도구입니다. 워크플로우는: Photoshop 또는 Clip Studio Paint에서 계층으로 문자를 평면으로 그린 다음, 해당 계층을 Cubism으로 가져온 후, 문자가 움직일 때 변형되는 리깅된 메시를 만드는 것입니다.

공식 문서: docs.live2d.com

비용: 무료 체험판(제한된 내보내기 옵션). Pro 라이선스는 약 $200~300 또는 Live2D 사이트를 통한 $2/월 구독입니다.

출력 형식: .moc3 + .model3.json 번들. VTube Studio로 추적됩니다.

시간 추정: 첫 번째 완전한 모델의 경우 몇 주에서 몇 개월입니다.

Live2D의 고급 단계

  1. 계층화된 아트 그리기 — 움직여야 하는 모든 부분을 분리합니다: 각 눈, 각 눈썹, 열림/닫힘 입, 머리, 앞머리, 신체. 기본 모델의 경우 최소 30~60개 계층. PSD로 저장합니다.
  2. PSD를 Cubism으로 가져오기 — 계층이 개별 텍스처로 들어옵니다.
  3. 변형 변형자 — 각 부분 위에 변형 및 회전 변형자를 배치합니다. 이것들은 2D 리깅의 “뼈”입니다. 머리를 회전 변형자에 할당하여 좌우로 기울어지도록 합니다.
  4. 키형 애니메이션 — 각 매개변수(Head X, Head Y, Eye Open L 등)에 대해 -30, 0, +30도에서 키형을 설정합니다. Cubism은 그들 사이에 보간합니다.
  5. 물리 — 머리 움직임에 따라 흔들리도록 머리와 액세서리에 대한 물리 그룹을 추가합니다.
  6. .moc3 내보내기 — 텍스처 아틀라스 및 model3.json으로 패키지합니다.
  7. VTube Studio에서 로드.model3.json 파일이 진입점입니다. VTube Studio는 표준 Live2D 매개변수를 웹캠에 자동으로 매핑합니다.

보상은 순수 애니메 미학을 위해 현재 3D 도구가 일치할 수 없는 표현력 있는 일러스트레이터 품질 애니메이션입니다. 대가는 실제입니다: Cubism 매개변수 시스템 및 키형 워크플로우를 배우는 것은 가파른 초기 곡선이 있습니다.


경로 C — Blender + Unity + UniVRM: 완전 사용자 정의 3D

이것은 완전히 사용자 정의된 메시와 스타일 제약이 없는 게임 개발자 및 3D 아티스트의 경로입니다. VRoid와 같은 VRM 파일을 생성하지만 모든 폴리곤은 당신의 것입니다.

도구:

  • Blender — 무료, 업계 표준 3D 모델링
  • Unity — 무료 Personal 티어(UniVRM 파이프라인에 필요)
  • UniVRM — Unity 장면에서 VRM을 내보내는 오픈 소스 Unity 패키지

시간 추정: 3D가 처음인 사람의 경우 최소 13개월. 경험 많은 3D 아티스트는 24주 내에 VRM을 생성할 수 있습니다.

Blender + UniVRM의 고급 단계

  1. Blender에서 문자 모델링 — 폴리곤 예산 목표: 실시간 사용을 위해 30,000~60,000개의 삼각형.
  2. UV 언래핑 — UV를 깔끔하게 배치합니다. 이들 위에 텍스처를 칠하거나 베이킹할 것입니다.
  3. 텍스처 — Substance Painter, Blender의 텍스처 페인트 모드, 또는 Krita에서 칠합니다. 표준 VRM은 톤 셰이더를 기대하므로 PBR이 아닌 평면 색상 + 셀 셰이딩을 원합니다.
  4. Blender에서 리깅 — VRM 뼈 이름 규칙을 따르는 아마추어(골격)를 만듭니다. UniVRM은 정확한 이름의 뼈가 필요합니다: Hips, Spine, Head, LeftUpperArm 등.
  5. 무게 칠하기 — 신체가 올바르게 변형되도록 메시 꼭짓점을 뼈에 할당합니다.
  6. FBX로 내보내기 → Unity로 가져오기.
  7. Unity에 UniVRM 설치 — Package Manager를 사용하여 GitHub URL을 통해 가져옵니다.
  8. VRM 메타 설정 — 저자, 썸네일, 라이선스.
  9. BlendShapes 추가 — Blender에서 먼저 각 표현(A/I/U/E/O 입 모양, 깜박임, 기쁨, 화남, 슬픔, 놀람)에 대한 혼합 셰이프를 만든 다음 UniVRM 검사기에서 매핑합니다.
  10. VRM 내보내기 — VSeeFace 또는 VTube Studio에 로드할 수 있는 .vrm 파일을 빌드합니다.

VTuber 모델을 만드는 방법: DIY 도구 비교 테이블

VRoid StudioLive2D CubismBlender + UniVRM
비용무료무료 체험판 / 약 $200~300무료
출력 형식VRM (.vrm).moc3VRM (.vrm)
아트 스타일애니메 3D애니메 2D모든 것
필요한 기술없음중급(그리기 + 리깅)고급(3D 모델링)
첫 번째 아바타 시간3~8시간몇 주1~3개월
표현 품질좋음우수좋음~우수
추적 소프트웨어VTube Studio, VSeeFaceVTube StudioVTube Studio, VSeeFace
폴리곤 예산 제어제한됨(자동 생성)N/A (2D)완전 제어
물리(머리/옷)내장내장Blender → Unity 물리
최적용도초보자, 빠른 설정2D 아티스트3D 아티스트, 게임 개발자

얼굴 표현 및 물리 추가

어느 경로를 택했든 두 가지 특징이 아바타의 스트림상 존재감을 극적으로 향상시킵니다: 추가 표현물리 시뮬레이션.

기본값을 초과한 표현

VRM 모델은 8가지 표준 혼합 셰이프를 지원합니다: Joy, Angry, Sorrow, Fun, A, I, U, E, O, Blink, BlinkLeft, BlinkRight. VTube Studio와 VSeeFace는 이들을 자동으로 매핑합니다. 추가(윙크, 혀 내밀기, 땀방울)를 추가하려면 다음을 수행해야 합니다:

  • VRoid에서: Export Settings 패널에서 사용자 정의 혼합 셰이프를 정의한 다음 VTube Studio에서 핫키로 구성합니다.
  • Cubism에서: 기본 세트 이상의 매개변수 트랙을 추가하고 model3.json에 레이블을 지정합니다.
  • Blender/UniVRM에서: Blender에서 추가 셰이프 키를 추가하고 UniVRM 검사기에서 BlendShapeClips로 노출합니다.

추적 소프트웨어에서 표현을 키보드 단축키에 매핑합니다. 경험 많은 VTuber는 Stream Deck 또는 보조 키패드에 표현 보드를 유지합니다.

물리

머리, 리본, 느슨한 의류, 귀 액세서리 모두 보조 모션 물리로부터 이점을 얻습니다. 각 도구가 이를 다르게 처리합니다:

  • VRoid: 물리 그룹은 물리/충돌체 탭에서 구성됩니다. 각 머리 그룹에 대한 스프링 그룹을 추가합니다. 경직도(0~1) 및 드래그를 조정합니다.
  • Cubism: 물리는 별도의 편집자 패널입니다. 루트 뼈에서 바깥쪽으로 진자 체인을 정의합니다.
  • UniVRM: 스프링 뼈는 Unity에서 VRMSpringBone 컴포넌트로 추가됩니다. 흔들기를 원하는 뼈 체인을 가리킵니다.

물리 조정에는 실험이 필요합니다. 시작점으로: 짧은 머리의 경우 높은 경직도(0.8+), 긴 흐르는 머리나 리본의 경우 낮은 경직도(0.1~0.3).


추적 소프트웨어에서 테스트

모델 파일이 준비되면 테스트는 대부분의 초보자가 건너뛰는 단계입니다. 건너뛰지 마십시오.

VTube Studio 체크리스트:

  1. 모델을 로드합니다. 프레임에 나타나고 바닥이나 천장에 걸리지 않는지 확인합니다.
  2. 얼굴 추적을 활성화합니다. 얼굴 섹션을 열고 얼굴을 움직일 때 모든 표현 매개변수가 움직임을 보이는지 확인합니다.
  3. 깜박임 확인 — 대부분의 카메라 설정은 깜박임 감도를 조정해야 합니다(기본값은 안경 착용자의 경우 종종 너무 높거나 너무 낮음).
  4. 입 동기화를 테스트합니다. 모음을 큰 목소리로 말하고 입이 열고 닫히는지 확인합니다.
  5. 머리 기울임 및 회전을 자연스러운 범위의 극단까지 테스트합니다. 목의 메시 왜곡이나 클리핑을 찾습니다.
  6. 각 사용자 정의 표현 핫키를 테스트합니다.
  7. 성능 오버레이를 확인합니다: VTube Studio 통계 패널에서 10ms 아래의 렌더 시간을 목표합니다.

VSeeFace 체크리스트:

동일한 단계가 적용됩니다. VSeeFace에는 실시간 혼합 셰이프 값을 보여주는 모델 정보 창도 있습니다. 이는 어느 매개변수가 올바르게 응답하지 않는지 진단하는 데 유용합니다.


일반적인 오류 및 해결 방법

“모델이 옆으로 또는 거꾸로 로드됩니다” 이것은 Blender와 Unity 사이의 좌표 축 불일치입니다. Blender에서 FBX를 내보내기 전에 모든 변환을 적용합니다(Ctrl+A → 모든 변환). Unity에서 FBX 가져오기 Y-up 축이 올바르게 설정되어 있는지 확인합니다.

머리가 신체를 통과합니다 VRoid의 Physics 패널에서 목과 어깨의 뼈 충돌체 반경을 늘립니다. UniVRM에서 어깨 뼈에 VRMSpringBoneCollider 컴포넌트를 추가하고 스프링 뼈의 colliders 목록을 가리킵니다.

추적 중 입이 열리지 않습니다 VTube Studio의 입 열기 매개변수는 카메라가 턱을 보아야 합니다. 웹캠 각도를 조정하거나 Face Tracking 설정 패널에서 입 열기 임계값을 낮춥니다.

모델이 스트림에서 희미해 보입니다 VRM은 sRGB 색 공간을 기대하는 톤 셰이더를 사용합니다. 스트리밍 소프트웨어(OBS)가 다른 색상 프로필에서 캡처하는 경우 OBS의 비디오 소스 설정에서 색 공간 보정을 활성화합니다.

VTube Studio에서 표현 혼합 셰이프 누락 혼합 셰이프 이름이 VRM 표준과 정확히 일치해야 합니다: Joy, Angry, Blink, A 등(대소문자 구분). VRoid의 내보내기 설정 또는 UniVRM의 BlendShapeClip 이름을 확인합니다.

얼굴 추적에서 높은 지연 VTube Studio의 iOS 얼굴 추적(USB 또는 Wi-Fi를 통한 휴대폰 카메라)은 iPhone이 ARKit 깊이 센서를 사용하므로 대부분의 USB 웹캠보다 지연이 낮습니다. 웹캠에 있고 추적이 느리면 VSeeFace의 시작 설정에서 추적 해상도를 낮춥니다.


VTuber 아바타와 함께 음성 전략

아바타가 시각적 정체성을 처리합니다. 음성이 다른 모든 것을 처리합니다. 많은 VTuber에게는 음성이 아바타와 마찬가지로 중요합니다. 많은 크리에이터가 일상 음성이 아닌 캐릭터 페르소나와 일치하는 음성을 원합니다.

여기가 VoxBooster가 나오는 곳입니다. VoxBooster는 Windows에서 실행되고 마이크를 실시간으로 처리합니다. 피치를 이동하고, 신경 음성 복제를 적용하고, 효과를 추가하고, 모두 한 번에 노이즈 억제를 실행할 수 있습니다. 음성 복제 기능을 사용하면 몇 분의 학습 오디오에서 사용자 정의 음성 모델을 빌드할 수 있으므로 화면상 페르소나가 오프카메라 음성에 관계없이 일관된 음성을 갖습니다.

VoxBooster는 VTube Studio, VSeeFace, OBS와 함께 작동합니다. 가상 오디오 장치를 통해 출력되므로 모든 스트리밍 도구가 일반 마이크로 선택합니다. 아바타 파이프라인과의 설정 충돌이 없습니다. 시도해보고 싶다면 가격 옵션을 확인합니다.

기술적 측면이 완료되면 훌륭한 아바타가 무엇인지에 대한 컨텍스트는 VTuber 모델 가이드에서 디자인 원칙과 모델 평가 시 찾아야 할 사항을 다룹니다. 2026년에 사용 가능한 음성 도구에 대한 전체 분석은 최고의 음성 변경기 2026 기사가 알아야 할 평가 기준을 다룹니다.


자주 묻는 질문

VTuber 모델을 만드는 데 얼마나 걸립니까? VRoid Studio를 사용하면 기본 아바타는 3~8시간이 소요됩니다. 완성도 높은 Live2D 모델은 몇 주가 걸립니다. 완전히 사용자 정의한 Blender+Unity 아바타는 3D가 처음인 사람에게 몇 개월이 소요될 수 있습니다.

무료로 VTuber 아바타를 만드는 가장 쉬운 방법은 무엇입니까? Pixiv의 VRoid Studio가 가장 쉬운 무료 옵션입니다. 시각적 편집기, 사전 설정된 부품, 직접 VRM 내보내기가 있는 전용 VTuber 모델 제작 도구로, 3D 경험이 필요하지 않습니다.

리깅 아티스트 없이 VTuber 모델을 사용할 수 있습니까? VRoid Studio를 사용하면 가능합니다. VRM 형식으로 내보낼 때 모델을 자동으로 리깅합니다. VTube Studio와 VSeeFace 모두 VRM 파일을 허용하고 실시간 얼굴 추적을 자동으로 처리합니다.

VTuber 아바타를 내 얼굴에 맞춰 움직이도록 하려면 어떻게 합니까? 모델을 VRM 또는 .moc3으로 내보낸 다음 VTube Studio 또는 VSeeFace로 가져옵니다. 이 앱들은 웹캠 또는 휴대폰 카메라에서 얼굴 움직임을 읽고 실시간으로 아바타에 매핑합니다.

VTuber들은 아바타를 추적하는 데 어떤 소프트웨어를 사용합니까? VTube Studio는 2D Live2D 모델에 가장 인기 있습니다. VSeeFace는 VRM 3D 모델에 일반적입니다. 둘 다 무료입니다. VTube Studio는 고급 ARKit 얼굴 추적을 위한 유료 iOS 앱이 있습니다.

VRoid Studio에 폴리곤 제한이 있습니까? VRoid는 강제된 폴리 캡이 없는 VRM을 내보내지만, VTube Studio는 대략 70,000개 삼각형 이하에서 가장 잘 작동합니다. VRoid의 기본 내보내기는 일반적으로 머리 복잡도에 따라 30,000~60,000개입니다.

VRoid Studio에서 만든 VTuber 아바타를 판매할 수 있습니까? Pixiv의 서비스 약관에 따르면 VRoid Studio로 만든 VRM 모델을 판매할 수 있습니다. 앱 내 사전 제작된 자산 관련 규칙이 달라질 수 있으므로 등록하기 전에 현재 Pixiv 상용 약관을 읽어보십시오.


결론

VTuber 아바타를 만드는 것은 바깥쪽에서 보는 것보다 더 접근 가능합니다. 가장 빠른 경로 — VRoid Studio — 는 단일 오후를 취하고 사전 3D 경험 없이 완전히 추적되고 스트리밍 준비된 VRM 파일을 생성합니다. 더 어려운 경로(Live2D Cubism, Blender + UniVRM)는 더 오래 걸리지만 모든 픽셀과 폴리곤을 제어할 수 있습니다.

VTuber로 작동하는 핵심은 조합입니다: 인식 가능한 시각적(아바타) + 일관된 음성(오디오). 실제로 배송되는 VTuber 모델을 만드는 방법을 알고 싶을 때 — 계획만 되는 것이 아니라 — 답은 한 경로를 선택하고 마치고 반복하는 것입니다. VRoid를 사용하여 이번 주에 첫 번째 모델을 배송하고 아바타 측면이 견고해지면 음성 처리를 계층화합니다.

새 모델과 쌍을 이루는 음성 변경기를 선택하는 경우 VoxBooster 다운로드하고 설정을 실행하십시오. 체험판은 약정하기 전에 음성 복제 및 효과를 테스트하는 데 필요한 모든 것을 포함합니다.

VoxBooster 체험 — 3일 무료.

실시간 음성 클론, 사운드보드, 이펙트 — 대화하는 모든 곳에서.

  • 카드 불필요
  • ~30ms 지연
  • Discord · Teams · OBS
3일 무료 체험