Cómo Hacer un Avatar de VTuber: Herramientas Gratuitas + Software Comparado

Guía paso a paso para hacer un avatar de VTuber con VRoid Studio, Live2D Cubism o Blender. Herramientas gratuitas, estimaciones de tiempo reales y consejos de software de seguimiento.

Aprender cómo hacer un modelo de VTuber es uno de los temas más buscados en la comunidad de VTubers — y con razón. Tu avatar es tu identidad en pantalla. Saber cómo hacer un avatar de VTuber desde cero, en lugar de pagar a un artista de comisiones cientos de dólares, es una habilidad que te pagará cada vez que quieras refrescar tu look. Esta guía te lleva a través de tres caminos DIY realistas: la ruta de VRoid Studio amigable para principiantes, la ruta más poderosa de Live2D Cubism, y el pipeline completo personalizado de Blender para personas que quieren control total.

Al final sabrás qué camino se ajusta a tu nivel de habilidad y presupuesto de tiempo, tendrás pasos numerados para la ruta más rápida, y entenderás cómo conectar tu modelo terminado a software de seguimiento en vivo. Si todavía estás en la etapa de decidir si convertirse en VTuber en absoluto, primero revisa la guía cómo convertirse en VTuber.


TL;DR — ¿Cuál Camino Debes Tomar?

Tu situaciónMejor camino
Primer avatar, quiero transmitir esta semanaVRoid Studio (Camino A)
Dibujas anime y quieres expresión en vivo 2DLive2D Cubism (Camino B)
Experiencia en desarrollo de juegos o dispuesto a gastar mesesBlender + UniVRM (Camino C)
El presupuesto es ceroVRoid Studio o Blender (ambos gratuitos)
Quiero el seguimiento facial más expresivoLive2D → VTube Studio

Camino A — VRoid Studio: La Forma Más Fácil de Hacer un Avatar de VTuber

VRoid Studio es una aplicación de escritorio gratuita de Pixiv diseñada específicamente como un creador de modelos de VTuber. Si quieres saber la respuesta real más rápida sobre cómo hacer un modelo de VTuber de forma gratuita, es VRoid. Eliges un cuerpo base, ajustas deslizadores, pintas texturas y exportas un archivo VRM. No se requiere experiencia en 3D. Estimación de tiempo: 3–8 horas para un primer avatar usable.

Descargar: vroid.com/en/studio

Paso 1 — Instala VRoid Studio

Descarga el instalador de Windows desde el sitio oficial de VRoid. La aplicación ocupa alrededor de 600 MB. No se requiere registro para usarla. Crea una cuenta gratuita de Pixiv solo si quieres publicar en VRoid Hub.

Paso 2 — Elige Tu Base y Proporciones Corporales

Al iniciar, elige Crear Nuevo Modelo y selecciona género (la etiqueta se usa solo para las proporciones del mesh base — puedes ajustar todo después). Establece la altura general, la relación cabeza-cuerpo, y los deslizadores de busto/cadera. Los VTubers comúnmente usan proporciones estilizadas con una cabeza ligeramente más grande — apunta a una relación de cabeza alrededor de 1:5 o 1:6 si quieres ese look anime.

Paso 3 — Diseña la Cara

Haz clic en la pestaña Cara. Encontrarás docenas de deslizadores que cubren:

  • Forma del ojo, tamaño, espaciado y textura del iris
  • Altura y ancho del puente nasal
  • Posición de la boca y grosor de los labios
  • Forma de la oreja
  • Color de piel y matiz

Cada característica tiene un selector de preajustes más deslizadores manuales. Pasa la mayoría de tu tiempo aquí — la cara es lo que los espectadores ven en la transmisión. Cambia la textura del iris de la biblioteca incorporada o importa un PNG personalizado (1024×1024 recomendado).

Paso 4 — Estiliza el Cabello

La pestaña Peinado es donde VRoid brilla. Añades grupos de cabello — superior, lateral, trasero, flequillo, accesorios — cada uno como un conjunto separado de curvas guía. Arrastra los puntos de control para dar forma a cada grupo de hebras. Asigna color con el editor de gradientes incorporado. Más puntos guía = cabello más detallado = mayor número de triángulos. Mantén el total de triángulos de cabello por debajo de 20,000 si el rendimiento importa.

Para un primer avatar, usa 3–5 grupos de cabello. Los estilos de twin-drill complejos con accesorios pueden empujarte a 10+ grupos pero la salida sigue siendo limpia.

Paso 5 — Viste el Avatar

Abre la pestaña Ropa. La ropa incorporada incluye camisas, chaquetas, faldas, pantalones y accesorios. Cada pieza tiene variaciones de textura que puedes recolorear. También puedes importar un PNG de textura personalizada para reemplazar el patrón de tela base.

Para un atuendo totalmente personalizado, exportarías el diseño UV, pintarías en Photoshop o Krita, y reimportarías. Esa es una tarea secundaria de 1–2 horas. Para un primer avatar, las opciones del guardarropa predeterminado son suficientes.

Paso 6 — Configura Expresiones Predeterminadas y Blend Shape

VRoid genera un conjunto de expresiones faciales automáticamente: feliz, triste, sorprendido, enojado, relajado, y parpadeo de ojo. Estos se mapean directamente al software de seguimiento. Puedes previsualizarlos en la pestaña Aspecto haciendo clic en miniaturas de expresión.

Si quieres expresiones personalizadas (un guiño, una sonrisa amplia, una cara ”>_<”), abre Configuración de Salida VRM → BlendShape. Añade nuevos blend shapes ahí. Ten en cuenta que los blend shapes personalizados más allá del conjunto estándar de VRM requieren configuración manual en VTube Studio para asignar a atajos.

Paso 7 — Exporta como VRM

Ve a Exportar (menú superior). Elige Exportar como VRM. Completa el nombre del autor, tipo de licencia (elige cuidadosamente si planeas vender), y usos permitidos. VRoid auto-genera el rigging — no lo riggeas manualmente. Haz clic en Exportar, elige una carpeta, y tienes tu archivo .vrm.

Tamaño de archivo típico: 20–80 MB. Número de triángulos: 30,000–70,000 dependiendo de la complejidad del cabello.

Paso 8 — Importa a VTube Studio o VSeeFace

  • VTube Studio (Windows + cámara de teléfono): Abre la aplicación de escritorio, ve a Modelo → Cargar Modelo, selecciona tu archivo .vrm. La aplicación auto-mapeará expresiones estándar.
  • VSeeFace (webcam de Windows): Suelta el .vrm en la carpeta de modelos de VSeeFace, cárgalo desde la aplicación.

Ambos son gratuitos. Ahora estás en vivo — tu webcam o cámara de teléfono controla la cara del avatar en tiempo real.


Camino B — Live2D Cubism: Más Control, Más Trabajo

Live2D Cubism es la herramienta de la industria detrás de prácticamente cada modelo profesional de VTuber 2D. El flujo de trabajo es: dibujas tu personaje de forma plana en capas (en Photoshop o Clip Studio Paint), importas esas capas a Cubism, luego creas un mesh riggeado que se deforma cuando el personaje se mueve.

Documentación oficial: docs.live2d.com

Costo: Prueba gratuita (opciones de exportación limitadas). La licencia Pro es alrededor de $200–300 o una suscripción de $2/mes a través del sitio de Live2D.

Formato de salida: .moc3 + bundle .model3.json. Rastreado por VTube Studio.

Estimación de tiempo: Varias semanas a algunos meses para tu primer modelo completo.

Pasos de Alto Nivel para Live2D

  1. Dibuja arte en capas — separa cada parte que debería moverse: cada ojo, cada ceja, la boca abierta/cerrada, la cabeza, el flequillo, el cuerpo. Mínimo 30–60 capas para un modelo básico. Guarda como PSD.
  2. Importa PSD a Cubism — las capas vienen como texturas individuales.
  3. Deformadores Warp — coloca deformadores warp y rotación sobre cada parte. Estos son los “huesos” del rigging 2D. Asigna la cabeza a un deformador de rotación para que se incline izquierda/derecha.
  4. Animación Keyform — para cada parámetro (Cabeza X, Cabeza Y, Ojo Abierto Izq, etc.) establece keyforms en -30, 0, y +30 grados. Cubism interpola entre ellos.
  5. Física — añade un grupo de física para cabello y accesorios para que se balanceen con el movimiento de la cabeza.
  6. Exporta .moc3 — empaqueta con el atlas de textura y model3.json.
  7. Carga en VTube Studio — el archivo .model3.json es el punto de entrada. VTube Studio mapea los parámetros estándar de Live2D a tu webcam automáticamente.

La recompensa es una animación expresiva de calidad ilustrador que ninguna herramienta 3D actualmente coincide para estética anime pura. El costo es real: aprender el sistema de parámetros de Cubism y el flujo de trabajo keyform tiene una curva inicial pronunciada.


Camino C — Blender + Unity + UniVRM: 3D Completamente Personalizado

Este es el camino de desarrolladores de juegos y artistas 3D que quieren un mesh completamente personalizado sin restricciones estilísticas. Produce un archivo VRM como VRoid, pero cada polígono es tuyo.

Herramientas:

  • Blender — gratuito, modelado 3D estándar de la industria
  • Unity — nivel gratuito Personal (requerido para el pipeline UniVRM)
  • UniVRM — paquete Unity de código abierto que exporta VRM desde una escena de Unity

Estimación de tiempo: Mínimo 1–3 meses para alguien nuevo en 3D. Los artistas 3D experimentados pueden producir un VRM en 2–4 semanas.

Pasos de Alto Nivel para Blender + UniVRM

  1. Modela el personaje en Blender — objetivo de presupuesto de polígonos: 30,000–60,000 triángulos para uso en tiempo real.
  2. Unwrap UV — diseña UVs de forma limpia; pintarás o hornearás texturas sobre estos.
  3. Textura — pinta en Substance Painter, modo de pintura de texturas de Blender, o Krita. VRM estándar usa un shader toon, así que quieres color plano + cel shading, no PBR.
  4. Riggea en Blender — crea una armadura (esqueleto) que siga la convención de nomenclatura de huesos de VRM. UniVRM necesita huesos nombrados exactamente: Hips, Spine, Head, LeftUpperArm, etc.
  5. Weight paint — asigna vértices del mesh a huesos para que el cuerpo se deforme correctamente.
  6. Exporta a FBX → importa a Unity.
  7. Instala UniVRM en Unity — importa a través de Package Manager usando la URL de GitHub.
  8. Configura VRM meta — autor, miniatura, licencia.
  9. Añade BlendShapes — crea blend shapes para cada expresión (formas de boca A/I/U/E/O, parpadeo, alegría, enojo, tristeza, sorpresa) en Blender primero, luego mapéalos en el inspector de UniVRM.
  10. Exporta VRM — construye un archivo .vrm que puedas cargar en VSeeFace o VTube Studio.

Cómo Hacer un Modelo de VTuber: Tabla de Comparación de Herramientas DIY

VRoid StudioLive2D CubismBlender + UniVRM
CostoGratuitoPrueba gratuita / ~$200–300Gratuito
Formato de salidaVRM (.vrm).moc3VRM (.vrm)
Estilo de arteAnime 3DAnime 2DCualquiera
Habilidad requeridaNingunaIntermedia (dibujo + rigging)Avanzada (modelado 3D)
Tiempo para primer avatar3–8 horasVarias semanas1–3 meses
Calidad de expresiónBuenaExcelenteBuena–Excelente
Software de seguimientoVTube Studio, VSeeFaceVTube StudioVTube Studio, VSeeFace
Control de presupuesto de polígonosLimitado (auto-generado)N/A (2D)Control total
Física (cabello/ropa)IncorporadaIncorporadaFísica de Blender → Unity
Mejor paraPrincipiantes, configuración rápidaArtistas 2DArtistas 3D, desarrolladores de juegos

Añadiendo Expresiones Faciales y Física

Independientemente de qué camino tomaste, dos características mejoran dramáticamente la presencia del avatar en la transmisión: expresiones adicionales y simulación de física.

Expresiones Más Allá de las Predeterminadas

Los modelos VRM soportan ocho blend shapes estándar: Joy, Angry, Sorrow, Fun, A, I, U, E, O, Blink, BlinkLeft, BlinkRight. VTube Studio y VSeeFace mapean estos automáticamente. Para añadir extras (un guiño, lengua afuera, una gota de sudor), necesitas:

  • En VRoid: define blend shapes personalizados en el panel de Configuración de Exportación, luego configúralos como atajos en VTube Studio.
  • En Cubism: añade pistas de parámetros más allá del conjunto predeterminado y etiquétalas en model3.json.
  • En Blender/UniVRM: añade shape keys adicionales en Blender y expónlas como BlendShapeClips en el inspector de UniVRM.

Mapea tus expresiones a atajos de teclado en tu software de seguimiento. Los VTubers experimentados mantienen su tablero de expresión en un Stream Deck o un teclado secundario.

Física

Cabello, cintas, ropa suelta y accesorios de oreja se benefician de la física de movimiento secundario. Cada herramienta maneja esto de manera diferente:

  • VRoid: los grupos de física se configuran en la pestaña Física/Colisionador. Añade grupos de resorte para cada grupo de cabello. Ajusta la rigidez (0–1) y la resistencia.
  • Cubism: la física es un panel editor separado. Define cadenas de péndulo desde el hueso raíz hacia afuera.
  • UniVRM: los spring bones se añaden como componentes VRMSpringBone en Unity. Apúntalos a la cadena de hueso que quieres que se balancee.

Afinar la física requiere experimentación. Como punto de partida: rigidez alta (0.8+) para cabello corto, rigidez baja (0.1–0.3) para cabello largo que fluye o cintas.


Pruebas en Software de Seguimiento

Una vez que el archivo de tu modelo esté listo, hacer pruebas es el paso que la mayoría de principiantes se saltan. No te lo saltes.

Lista de verificación de VTube Studio:

  1. Carga el modelo. Confirma que aparezca en el marco sin recortar el piso o el techo.
  2. Habilita el seguimiento facial. Abre la sección Cara y verifica que todos los parámetros de expresión muestren movimiento cuando mueves tu cara.
  3. Verifica el parpadeo — la mayoría de configuraciones de cámara necesitan ajustar la sensibilidad del parpadeo (el valor predeterminado es a menudo demasiado alto o demasiado bajo para personas con gafas).
  4. Prueba la sincronización de boca. Di vocales en voz alta y confirma que la boca se abra/cierre.
  5. Prueba la inclinación y rotación de la cabeza hasta los extremos de tu rango natural — busca distorsión de mesh o recorte en el cuello.
  6. Prueba cada atajo de expresión personalizada.
  7. Verifica la superposición de rendimiento: apunta a menos de 10ms de tiempo de renderización en el panel de estadísticas de VTube Studio.

Lista de verificación de VSeeFace:

Se aplican los mismos pasos. VSeeFace también tiene una ventana Información de Modelo mostrando valores de blend shape en vivo — útil para diagnosticar qué parámetro no responde correctamente.


Errores Comunes y Cómo Arreglarlos

“El modelo carga de lado o al revés” Esta es una falta de coincidencia de eje de coordenadas entre Blender y Unity. En Blender, aplica todas las transformaciones (Ctrl+A → Todas las Transformaciones) antes de exportar FBX. En Unity, confirma que el eje Y-up de importación FBX está configurado correctamente.

El cabello pasa a través del cuerpo Aumenta el radio del colisionador de hueso en el cuello y los hombros en el panel Física de VRoid. En UniVRM, añade componentes VRMSpringBoneCollider a los huesos de los hombros y apunta la lista colliders del spring bone a ellos.

La boca no se abre durante el seguimiento El parámetro de boca abierta de VTube Studio necesita que la cámara vea tu barbilla. Ajusta el ángulo de la webcam o baja el umbral de boca abierta en el panel de configuración de Seguimiento Facial.

El modelo se ve lavado en la transmisión VRM usa un shader toon esperando espacio de color sRGB. Si tu software de transmisión (OBS) está capturando en un perfil de color diferente, habilita la corrección de espacio de color en la configuración de fuente de video de OBS.

Los blend shapes de expresión faltan en VTube Studio Los nombres de blend shape deben coincidir exactamente con el estándar de VRM: Joy, Angry, Blink, A, etc. (sensible a mayúsculas/minúsculas). Verifica tu configuración de exportación en VRoid o tus nombres de BlendShapeClip en UniVRM.

Latencia alta en el seguimiento facial El seguimiento facial iOS de VTube Studio (usando la cámara del teléfono sobre USB o Wi-Fi) tiene menor latencia que la mayoría de las webcams USB porque los iPhones usan sensores de profundidad ARKit. Si estás en webcam y obtienes seguimiento lento, baja la resolución de seguimiento en la configuración de inicio de VSeeFace.


Estrategia de Voz Junto a Tu Avatar de VTuber

Tu avatar maneja la identidad visual. Tu voz maneja todo lo demás — y para muchos creadores es tan importante. Muchos creadores quieren una voz que coincida con la personalidad de su personaje en lugar de su voz cotidiana.

Ahí es donde entra VoxBooster . VoxBooster corre en Windows y procesa tu micrófono en tiempo real — puedes cambiar el tono, aplicar un clon de voz neural, añadir efectos, y ejecutar supresión de ruido todo a la vez. La característica de clon de voz te permite construir un modelo de voz personalizado a partir de algunos minutos de audio de entrenamiento, para que tu personaje en pantalla tenga una voz consistente independientemente de tu voz fuera de cámara.

VoxBooster funciona junto a VTube Studio, VSeeFace y OBS — sale a través de un dispositivo de audio virtual que cualquier herramienta de transmisión recoge como un micrófono normal. Sin conflictos de configuración con el pipeline del avatar. Verifica las opciones de precios si quieres probarlo.

Para contexto sobre qué hace un gran avatar una vez que tengas el lado técnico listo, la guía VTuber model guide cubre principios de diseño y qué buscar al evaluar modelos. Para un desglose completo de herramientas de voz disponibles en 2026, el artículo mejor cambiador de voz 2026 cubre los criterios de evaluación que vale la pena saber.


Preguntas Frecuentes

¿Cuánto tiempo tarda hacer un modelo de VTuber? Con VRoid Studio, un avatar básico toma 3–8 horas. Un modelo Live2D pulido toma varias semanas. Un avatar completamente personalizado con Blender+Unity puede tomar meses para alguien nuevo en 3D.

¿Cuál es la forma más fácil de hacer un avatar de VTuber de forma gratuita? VRoid Studio de Pixiv es la opción gratuita más fácil. Es un creador de modelos de VTuber dedicado con un editor visual, partes preestablecidas y exportación directa de VRM — no se requiere experiencia en 3D.

¿Puedo usar mi modelo de VTuber sin un artista de rigging? Sí, si usas VRoid Studio. Auto-riggea el modelo cuando exportas al formato VRM. VTube Studio y VSeeFace aceptan archivos VRM y manejan el seguimiento facial en vivo automáticamente.

¿Cómo hago que un avatar de VTuber se mueva con mi cara? Exporta tu modelo como VRM o .moc3, luego impórtalo a VTube Studio o VSeeFace. Estas aplicaciones leen tus movimientos faciales desde una webcam o cámara de teléfono y los mapean al avatar en tiempo real.

¿Qué software usan los VTubers para rastrear su avatar? VTube Studio es el más popular para modelos 2D Live2D. VSeeFace es común para modelos VRM 3D. Ambos son gratuitos. VTube Studio tiene una aplicación iOS de pago para seguimiento facial de alta calidad con ARKit.

¿VRoid Studio tiene un límite de polígonos? VRoid exporta VRM sin un límite de polígonos impuesto, pero VTube Studio funciona mejor por debajo de aproximadamente 70,000 triángulos. La exportación predeterminada de VRoid es usualmente 30,000–60,000 dependiendo de la complejidad del cabello.

¿Puedo vender un avatar de VTuber que hago en VRoid Studio? Sí, bajo los Términos de Servicio de Pixiv puedes vender modelos VRM hechos con VRoid Studio. Lee los Términos Comerciales actuales de Pixiv antes de listar, ya que las reglas alrededor de activos prehechos empaquetados dentro de la aplicación pueden variar.


Conclusión

Hacer un avatar de VTuber es más accesible de lo que parece desde el exterior. El camino más rápido — VRoid Studio — toma una tarde simple y produce un archivo VRM completamente rastreado y listo para transmitir sin experiencia en 3D previa. Los caminos más difíciles (Live2D Cubism, Blender + UniVRM) toman más tiempo pero te dan control sobre cada píxel y polígono.

El núcleo de cómo hacer que un VTuber funcione como una identidad de contenido es la combinación: un visual reconocible (avatar) más una voz consistente (audio). Cuando quieres saber cómo hacer un modelo de VTuber que realmente se envíe — no solo se planifique — la respuesta es elegir un camino, terminarlo, e iterar. Usa VRoid para enviar tu primer modelo esta semana, y añade procesamiento de voz una vez que el lado del avatar esté sólido.

Si estás eligiendo un cambiador de voz para emparejar con tu nuevo modelo, descarga VoxBooster y ejecuta la configuración — la prueba cubre todo lo que necesitas para probar el clon de voz y los efectos antes de comprometerte.

Prueba VoxBooster — 3 días gratis.

Clonación de voz en tiempo real, soundboard y efectos — donde ya hablas.

  • Sin tarjeta
  • ~30ms de latencia
  • Discord · Teams · OBS
Probar 3 días gratis