Move AI Gen 2 frente a Xsens: ¿el asesino del Mocap tradicional o sólo bombo y platillo? Parte 1
- Sergey Vereschagin
- 20 mar
- 21 Min. de lectura

Move AI Gen 2: características técnicas y principio de funcionamiento
Move AI Gen 2 es un sistema actualizado de captura de movimiento sin marcadores que Move AI presentó en marzo de 2025. Se basa en visión por ordenador, IA y modelos físicos para determinar la pose de una persona a partir de un vídeo. Su principal ventaja es la posibilidad de trabajar con cámaras normales, como las de los smartphones, sin necesidad de trajes ni sensores especiales. Gen 2 cuenta con varios modelos nuevos para el procesamiento del movimiento: s2 y s2-light para la grabación con una sola cámara, m2 y m2-xl para la grabación con varias cámaras, y enhance para la mejora y corrección del movimiento.
La tecnología Move AI se basa en el seguimiento sin marcadores: Los algoritmos de IA analizan el vídeo, determinan la posición de las articulaciones y reconstruyen el movimiento en 3D. Gen 2 ha mejorado la percepción espacial y la estabilidad de la animación. Por ejemplo, el modelo s2 (para una cámara) es mucho más preciso que el s1: ahora estima mejor la profundidad, lo que ayuda a eliminar el «deslizamiento del pie» y mejora el contacto del pie con la superficie. Otra mejora importante es que ahora el sistema puede seguir a varias personas incluso desde una sola cámara.
El modelo m2 (multicámara) está diseñado para captar con precisión los movimientos desde varias cámaras. Según los desarrolladores, ofrece la misma calidad que los sistemas ópticos mocap, pero a un coste mucho menor. La versión m2-xl amplía las capacidades del seguimiento multicámara, permitiendo trabajar en sitios enormes -hasta estadios-. Este modelo es capaz de realizar el seguimiento de más de 20 personas a la vez y puede trabajar eficazmente incluso en situaciones en las que las personas se solapan parcialmente.
Otra innovación importante de Gen 2 es el modelo de realce. Utiliza redes neuronales generativas para restaurar y mejorar los movimientos en los casos en que los datos originales están dañados o se han perdido parcialmente. Por ejemplo, el sistema puede eliminar automáticamente artefactos, refinar movimientos en caso de solapamientos y corregir errores de seguimiento.
Técnicamente, Move AI Gen 2 combina la reconstrucción neuronal multicámara (similar al Neural Rendering) y modelos de estabilidad temporal que suavizan las trayectorias y hacen los movimientos más naturales. Esto resuelve los problemas clásicos de los sistemas sin marcadores: la pérdida de seguimiento durante los solapamientos, las sacudidas y el ruido en la animación. Como resultado, la calidad de Gen 2 es lo más parecida posible a los métodos tradicionales de mocap.
Limitaciones y posibles problemas de Move AI Gen 2
A pesar de sus funciones avanzadas, Move AI Gen 2 sigue manteniendo las limitaciones típicas de los sistemas sin marcadores. La calidad de la captura es clave: un seguimiento fiable requiere buenas cámaras (normalmente de 2 a 6 cámaras o iPhones) y una habitación bien iluminada y espaciosa.Cuando se utiliza una sola cámara, el sistema tiene que reconstruir las coordenadas de profundidad y 3D a partir de una sola proyección, lo que complica la tarea y puede comprometer la precisión. En Gen 2, esto se compensa parcialmente con algoritmos mejorados, pero la falta de datos estereoscópicos es una limitación física que no puede eliminarse por completo.
En las configuraciones multicámara, es importante calibrar correctamente las cámaras, sobre todo en recintos grandes. El sistema debe conocer con precisión su ubicación, de lo contrario la precisión de la captura de movimiento se resentirá.
Las oclusiones (solapamientos) siguen siendo un problema importante. Si una persona se cubre la cara con las manos o cae al suelo, parcialmente fuera del alcance de la cámara, la precisión del seguimiento se reduce. En casos complejos, como las volteretas, en los que las extremidades quedan ocultas a la vista, el sistema puede perder el seguimiento o producir datos erróneos. Gen 2 ha mejorado la gestión de solapamientos, especialmente en el modelo m2-xl, diseñado para escenas complejas con muchos objetos interactuando. También ha añadido algoritmos para el trazado adicional de articulaciones ocultas, pero sigue siendo difícil eliminar por completo los errores.
Los movimientos rápidos son otro problema. Giros bruscos, patadas, saltos... cualquier cosa que cause desenfoque en el vídeo o cambios bruscos de pose entre fotogramas puede provocar fallos en la reconstrucción. Los movimientos de alta frecuencia, como las patadas rápidas o los saltos, son tradicionalmente difíciles para la visión por ordenador y la IA: puede haber pérdida de precisión o retrasos en la detección de la pose. Gen 2 trata de compensar esto con un procesamiento y una física de mayor frecuencia, pero es imposible deshacerse por completo de los artefactos. Los movimientos extremadamente rápidos pueden provocar sacudidas o temblores en las extremidades. En tales casos, hay que limpiar los datos adicionalmente, ya sea utilizando el modelo de mejora incorporado o manualmente en la etapa de post-procesamiento.
Múltiples actores e interacciones. Gen 2 es capaz de seguir a varias personas a la vez, incluso desde una sola cámara, pero en la práctica esto no siempre funciona a la perfección. Cuantas más personas haya en el encuadre, mayor será el riesgo de solapamiento y confusión. Sin marcadores, el sistema puede confundir los esqueletos, sobre todo si las personas están en estrecho contacto, por ejemplo, en escenas de lucha o baile. En estos casos, los algoritmos pueden perder caracteres individuales o «pegar» sus movimientos, creando errores de seguimiento.
La visión por ordenador sigue teniendo dificultades para gestionar interacciones densas, sobre todo cuando los participantes se solapan a menudo. Cuantas más oclusiones, más disminuye la precisión, y la corrección de errores requiere más trabajo manual. En las pruebas de laboratorio, Gen 2 muestra el seguimiento de docenas de personas en un plató grande, pero en un espacio reducido donde los actores interactúan constantemente, el sistema puede seguir fallando, por lo que se necesita validación y corrección de datos adicionales.
Retraso en los resultados y dependencia de los recursos informáticos. A diferencia de los sistemas inerciales que transmiten los movimientos en tiempo real, las tecnologías sin marcadores requieren procesamiento, lo que significa que los retrasos son inevitables. Move AI funciona según el principio de grabar primero el vídeo y luego subirlo a la nube para su procesamiento. Esto significa que pasa tiempo entre la filmación y la recepción de la animación. Los usuarios señalan que un minuto de vídeo puede llevar unos 20 minutos de procesamiento, y sin Internet estable, subir archivos puede ser un problema.
La empresa está desarrollando una solución Move Live para la transmisión de movimientos en tiempo real, pero de momento el sistema está diseñado para el procesamiento offline. Eso significa que no hay información instantánea durante la filmación. Si algo sale mal, el error sólo se hará evidente después del procesamiento, y habrá que volver a rodar la escena a ciegas. A diferencia de Move AI, los sistemas tradicionales como Xsens permiten ver los resultados inmediatamente y corregir el seguimiento sobre la marcha. Por lo tanto, al trabajar con Move AI, es importante dejar tiempo para el postprocesado y, si es posible, rodar tomas adicionales.
Coste y licencias. Con Move AI, no necesitas una inversión millonaria al principio: sólo cámaras (por ejemplo, smartphones) y una suscripción al servicio. Pero si utilizas el sistema con regularidad, los costes pueden acumularse. Move AI tiene diferentes planes de precios: según los usuarios, una licencia Pro para dos actores cuesta unos 7.000 dólares al año, y las primeras versiones del modelo de precios incluían un precio de unos 4.000 dólares por hora de datos procesados.
Es decir, si se rueda con poca frecuencia, Move AI es efectivamente más barato que los sistemas tradicionales de mocap. Pero con un uso constante, el coste de suscripción puede igualar el precio de un buen traje inercial. Además, los paquetes básicos pueden tener una limitación en el metraje de la animación: por ejemplo, se pueden procesar hasta 30 minutos de datos sin cuotas adicionales, y luego hay que comprar ampliaciones.
Además de la suscripción hay costes ocultos: la compra de varias cámaras de alta calidad, trípodes, iluminación, un PC potente para el trabajo local con vídeo. Aunque este equipo no está vinculado a Move AI y se puede utilizar en otras tareas, sus costes son todavía vale la pena considerar. Como resultado, el sistema es conveniente para aquellos que necesitan mocap sin equipos complejos, pero para el trabajo permanente, el modelo financiero debe ser calculado de antemano.
Salida por restricciones
Move AI Gen 2 ha impulsado seriamente la tecnología sin marcadores: temblores, deslizamiento de pies, errores de pose... todo ello ha mejorado notablemente gracias a los nuevos modelos de IA. Pero el enfoque de análisis de vídeo en sí sigue teniendo limitaciones. Es importante tener en cuenta la iluminación, la colocación de la cámara y la planificación de las tomas para obtener resultados de calidad. En escenas complejas con solapamientos totales o movimientos extremos, es posible que se produzcan errores, por lo que el sistema no puede tomarse como una herramienta completamente libre de errores.
Los profesionales que trabajan con Move AI suelen desarrollar sus propios métodos para sortear los problemas: realizar grabaciones de prueba, utilizar más cámaras para cubrir todos los ángulos, colocar marcadores en la sala para calibrar y, a continuación, perfeccionar la animación manualmente: filtrar trayectorias, corregir errores de seguimiento, reponer datos perdidos. Si se aborda el proceso de forma competente, se pueden conseguir animaciones muy precisas y naturales, pero es importante conocer los límites de la tecnología y estar preparado para procesamientos adicionales.
Precisión y calidad de los datos de Move AI Gen 2 en comparación con los sistemas mocap tradicionales
La cuestión principal es la precisión con la que Move AI Gen 2 puede competir con los sistemas clásicos de mocap sin marcadores (ópticos) e inerciales. A juzgar por pruebas y reseñas, en escenarios básicos (caminar, correr, giros, gestos sin superposiciones complejas) el nivel de precisión de la tecnología markerless es comparable al de los trajes profesionales.
Por ejemplo, un informe de Han Yang (Unreal Han) muestra que los movimientos sencillos -caminar, respirar, giros corporales, trabajo con las manos- parecen naturales y suaves cuando se procesan en Move AI. Además, en SIGGRAPH 2022 Electronic Arts realizó un experimento: se grabó al mismo actor de dos formas: mediante Move AI y mediante un sistema de mocap tradicional. La diferencia en el detalle y la precisión de los movimientos resultó ser mínima, lo que indica que los algoritmos están muy desarrollados. El director ejecutivo de Move AI, Tino Millar, afirma que su tecnología permite capturar movimientos de «superalta calidad» utilizando únicamente cámaras de vídeo convencionales. En concreto, el modo multicámara Gen 2 (m2) se posiciona como una alternativa a los sistemas ópticos, pero a un coste menor y sin instalaciones complejas.
Sin embargo, bajo cargas extremas, los sistemas mocap tradicionales siguen ganando. Si hay muchos obstáculos en la escena, los actores interactúan estrechamente o se mueven fuera de los límites del área de filmación, la IA en movimiento pierde precisión. Por ejemplo, en las oclusiones (si el actor da volteretas, se tumba en el suelo, sale del campo de visión de las cámaras) el sistema sin marcadores puede fallar, mientras que los trajes inerciales como Xsens siguen funcionando de forma estable.
El seguimiento de la IA también tiene problemas con los movimientos de alta velocidad: las patadas bruscas, los saltos y los cambios rápidos de pose a veces dan lugar a animaciones salteadas o borrosas. En cambio, los sistemas inerciales capturan los movimientos con alta frecuencia y sin artefactos visuales.
Conclusión: en condiciones estándar, Move AI Gen 2 casi alcanza a los sistemas clásicos de mocap, pero en escenas complejas (fuertes oclusiones, contacto con superficies, dinámica extrema) las tecnologías de marcadores e inerciales siguen siendo más fiables.
Los sistemas de marcadores ópticos (por ejemplo, Vicon) siguen siendo los líderes en términos de precisión absoluta. Registran las posiciones de los marcadores con una precisión milimétrica, mientras que las tecnologías sin marcadores, incluida Move AI, funcionan sobre la base de modelos esqueléticos estadísticos y producen poses aproximadas. En la mayoría de los casos, la diferencia es sutil, pero si la tarea requiere precisión científica (por ejemplo, análisis biomecánicos o investigación médica), los sistemas calibrados con sensores siguen siendo más fiables.
Dicho esto, la animación sin marcadores a veces gana en realismo. Los creadores señalan que los movimientos derivados del vídeo contienen micro matices que los hacen más reales. Por ejemplo, el director Ilya Nodia cree que la principal ventaja de Move AI es la naturalidad de los micromovimientos, que puede perderse al usar disfraces. Un experto que comparó Move AI con Xsens observó que, tras un procesamiento mínimo, las animaciones de la IA parecían aún mejores, incluido el detalle de los dedos.
En la industria del cine y los videojuegos, la calidad de Move AI Gen 2 es ya tan alta que un espectador no podrá distinguir si la captura se ha realizado mediante un sistema sin marcadores o mediante mocap tradicional. La diferencia sólo se nota en condiciones extremas o al analizar técnicamente los datos.
Resulta que Move AI Gen 2 es capaz de proporcionar mocap con calidad de estudio y ya puede competir con los sistemas tradicionales. Sin embargo, para tareas complejas (acrobacias, múltiples objetos, tomas con respuesta instantánea) las tecnologías de marcadores e inerciales siguen siendo más estables. Cada vez son más los estudios que optan por un enfoque combinado: el markerless se utiliza para iteraciones rápidas y creatividad, mientras que los trajes se emplean para rodajes de misión crítica. La brecha se está cerrando, y Move AI ya no es sólo un experimento interesante, sino una herramienta de pleno derecho en la producción profesional.
Применение Move AI Gen 2 в индустрии
Move AI Gen 2 ya se utiliza ampliamente en películas, juegos, publicidad y eventos virtuales. He aquí algunos ejemplos que muestran cómo la tecnología sin marcadores está cambiando el enfoque de la captura de movimientos.
Conciertos y eventos virtuales
Uno de los casos más llamativos fue la colaboración entre Sony Music y Move AI para crear un concierto virtual para Fortnite. El cantante Myles Smith actuó digitalmente y sus movimientos se animaron con Move Pro (captura multicámara). El equipo de Racquet Studios que trabajó en el proyecto consiguió una animación fluida y precisa sin necesidad de utilizar hardware de mocap tradicional.
La ventaja clave es la velocidad y la flexibilidad. Un mocap tradicional habría requerido semanas de preparación: calibración, configuración del vestuario, procesamiento de datos. Move AI permitió grabar, procesar e integrar la animación mucho más rápido, lo que es fundamental para proyectos con plazos ajustados. Este caso demostró que, si se organiza adecuadamente, la captura sin marcadores puede sustituir por completo al mocap sin marcadores incluso en producciones de gran presupuesto.
Contenidos publicitarios y deportivos
Move AI Gen 2 también se utiliza activamente en proyectos publicitarios y deportivos. Nike utilizó mocap sin marcadores en su campaña Dri-FIT ADV. Aunque no se han revelado los detalles, el hecho de que una gran marca haya confiado en la tecnología Move AI para trabajar con atletas confirma su calidad. Lo más probable es que el sistema ayudara a capturar rápidamente los movimientos dinámicos de los atletas para crear efectos visuales impactantes.
Los vídeos musicales también se han convertido en un campo de experimentación con la tecnología sin marcadores. Se sabe que Move AI se ha utilizado en vídeos musicales, incluidos proyectos con Grimes. Electronic Arts ha estado probando el sistema para acelerar la producción de animaciones en juegos. Se trata de una señal importante para toda la industria, ya que EA es uno de los mayores actores del mercado que utiliza sistemas tradicionales de mocap.
En la industria del entretenimiento, Move AI se considera una forma de «democratizar» la captura de movimientos, haciéndola accesible no sólo a los grandes estudios con equipos caros, sino también a los pequeños equipos que antes no podían permitirse un mocap de nivel AAA.
Estudios y cineastas independientes
Move AI Gen 2 se está convirtiendo en una herramienta importante para los cineastas independientes, ya que les permite crear mocap de calidad sin inversiones multimillonarias.Ilya Nodia, el ya mencionado director y animador, es uno de los profesionales que se pasaron a Move AI para disfrutar de libertad creativa. Al principio, utilizaba bibliotecas de animación estándar, pero llegó un momento en que necesitaba movimientos únicos que se ajustaran a su guión. Comprar equipos de mocap tradicionales era demasiado caro, y Move AI se convirtió para él en un verdadero «avance»: ahora puede grabar él mismo acrobacias complejas y aplicarlas inmediatamente a sus personajes.
Ilya compara la aparición de Move AI con Unreal Engine, que puso los gráficos 3D al alcance de equipos pequeños. Ahora el mocap de alta calidad no requiere grandes presupuestos, lo que abre nuevas oportunidades para la animación y el cine. Lo que más se valora es la precisión del micromovimiento. La tecnología Markerless capta los matices más pequeños: cambios de equilibrio, movimientos de las extremidades, fluctuaciones naturales del cuerpo, lo que da más vida a los personajes en la pantalla.
Otra comodidad es la integración directa con el PC. Se puede grabar directamente a través de la aplicación del iPhone y luego sincronizarlo inmediatamente con la escena del PC, lo que acelera el proceso y permite centrarse en la dirección y no en las complejidades técnicas.
Los desarrolladores de juegos también están probando activamente Move AI Gen 2 y compartiendo sus experiencias en los foros de Unreal Engine y Reddit. Uno de los expertos utilizó el sistema para un cortometraje: instaló 6 cámaras GoPro (4K@60fps) alrededor de un actor, procesó los datos durante 20 minutos, y luego importó la animación a Unreal Engine y la aplicó a MetaHuman. Quedó satisfecho con el resultado: edición mínima, sólo un ligero suavizado para eliminar pequeños temblores. El resultado fue mejor que la animación de su traje Xsens con guantes. Después de eso, decidió vender el Xsens y cambiar completamente a Move AI.
Durante sus pruebas, probó escenas complejas: dos actores al mismo tiempo, interacción con objetos (escaleras, taburetes), incluso una pequeña pelea. El sistema lo hizo bien, no a la perfección, pero sí lo suficiente. La animación tenía un poco de ruido durante la pelea, pero se corrigió fácilmente con el antialiasing y, en general, el resultado fue aceptable. Esto es interesante, porque antes no se consideraba que las tecnologías sin marcadores fueran adecuadas para interacciones complejas, y aquí resultó que podían hacerlo bastante bien.
Por supuesto, utilizó un potente rig con 6 cámaras y una licencia Pro de pago (unos 7.000 dólares al año por dos actores), pero para una producción pequeña sigue siendo más barato que unos cuantos trajes de mocap.
Críticas e impresiones
Los profesionales que han probado Move AI señalan que el sistema reduce considerablemente las barreras de la captura de movimiento. Ahora se puede grabar a actores en cualquier lugar, sin necesidad de ponerles trajes o sensores. Esto abre nuevas posibilidades: por ejemplo, se puede filmar a un bailarín en plena calle o en un plató real con sólo disponer los smartphones.
Los expertos también hablan de acelerar las cosas. En Sony Music y Racquet Studios, el abandono del mocap basado en marcadores ha reducido de semanas a unos pocos días el tiempo que transcurre desde la grabación hasta la implementación de la animación en un proyecto. Para los creadores, la flexibilidad es especialmente importante: puedes pasar una tarde grabando y al día siguiente empezar a editar en Unreal o Unity.
Por supuesto, hay matices. Los principiantes pueden necesitar tiempo para acostumbrarse a los ajustes y ángulos de la cámara: las primeras tomas pueden no salir perfectas. Pero tras un poco de práctica, el proceso se estabiliza.
En cuanto al coste, la mayoría de los usuarios lo consideran justificado. La suscripción cuesta bastante, pero sigue siendo más barata que alquilar un estudio de mocap o comprar varios trajes, sobre todo para proyectos pequeños.
Los críticos señalan que Move AI aún tiene que sustituir a los sistemas tradicionales en los escenarios más complejos. Vicon y Xsens siguen siendo el estándar para escenas de riesgo y tareas que requieren la máxima precisión. Sin embargo, la tendencia está cambiando: cada vez más profesionales consideran la captura con IA como una alternativa real o una herramienta adicional.
La conclusión de las críticas es sencilla: si la escena es relativamente sencilla o moderadamente compleja, Move AI puede encargarse de ella y ahorrar tiempo y dinero. Si los movimientos son complejos y la precisión es crítica, conviene combinar métodos o utilizar un mocap tradicional para asegurarse.
Estabilidad de Move AI Gen 2 durante movimientos complejos
Una de las principales mejoras de Move AI Gen 2 es el aumento de la estabilidad en movimientos complejos: rotaciones bruscas, saltos, trabajo con atrezzo e interacción de varios actores. Los desarrolladores han hecho hincapié en estos escenarios perfeccionando los algoritmos del modelo m2: ahora el sistema sigue mejor la cinemática de la columna vertebral y la cintura escapular (6DOF para los hombros) y ofrece una animación más suave y estable incluso en escenas dinámicas.
El rendimiento en condiciones de alta oclusión se ha perfeccionado especialmente. En la versión m2-xl, los algoritmos están adaptados para escenas en las que muchas personas u objetos se superponen. Esto se debe probablemente a la mejora del procesamiento en red neuronal de los datos multicámara: si una cámara «pierde» una articulación, el sistema utiliza información de otros ángulos y predice el movimiento basándose en fotogramas anteriores.
En la práctica, ya se han probado estas posibilidades. Por ejemplo, en un experimento de grappling (un estilo de combate cuerpo a cuerpo en la lucha libre) de dos personas, Move AI fue capaz de captar el movimiento, aunque fue necesario un poco de postprocesado para suavizar las sacudidas. No obstante, la mera capacidad de grabar una escena de lucha sin marcadores es un gran paso adelante, ya que este tipo de movimientos se han considerado tradicionalmente inadecuados para los sistemas sin marcadores.
Es importante darse cuenta de que, por ahora, el sistema funciona mejor en condiciones relativamente controladas. Si la escena incluye movimientos caóticos y ultrarrápidos (por ejemplo, puñetazos fuertes o parterres duros en MMA), es posible que se produzcan fallos. Pero los avances son evidentes: si antes el mocap sin marcadores no se tenía en cuenta en absoluto para las escenas de lucha, ahora puede grabarlas con una calidad aceptable, aunque con algunos ajustes.
Giros bruscos y piruetas. Para una sola cámara, los giros bruscos, sobre todo cuando el personaje está de espaldas, plantean un grave problema. En esos casos, el sistema puede enfrentarse a la ambigüedad: es difícil determinar la posición exacta de las articulaciones si la cara o el pecho desaparecen temporalmente de la vista.
En Gen 2, este reto se ha mejorado con algoritmos más avanzados entrenados en grandes conjuntos de datos. La configuración multicámara también ayuda a resolver el problema: si las cámaras se disponen en círculo, siempre hay al menos una que capta la parte frontal del cuerpo, lo que reduce la probabilidad de errores.
Los usuarios observan que las rotaciones y giros del torso se manejan de forma estable si la cobertura de la cámara y la iluminación son buenas. Sin embargo, para rotaciones muy rápidas (como giros de baile o elementos de breakdance), pueden aparecer pequeñas sacudidas. Esto se debe a que los movimientos bruscos pueden desenfocar los fotogramas y dificultar a los algoritmos la detección precisa de la pose.
Para minimizar estos errores, Gen 2 utiliza interpolación y restricciones físicas. Si una pose se difumina a lo largo de varios fotogramas, el sistema impide que el cuerpo se «teletransporte» y suaviza la trayectoria del movimiento. Como resultado, la animación parece subjetivamente más suave y natural que en Gen 1, donde esos movimientos eran mucho menos estables.
Saltar y volar es otro reto para el agarre sin marcadores. Cuando los pies se despegan del suelo, el sistema pierde la fijación en la superficie y es más probable que se produzcan errores. A diferencia de los trajes inerciales como Xsens, que capturan las aceleraciones mediante acelerómetros, Move AI sólo ve una imagen: una persona en el aire. Si las piernas están borrosas debido a la velocidad o una sombra da una pista falsa, el algoritmo puede equivocarse un poco.
En Gen 2, los saltos se siguen mejor, probablemente debido al uso de un modelo físico en el que el sistema predice la trayectoria del centro de masa. Los saltos normales (arriba, adelante) se manejan decentemente, pero si el movimiento se vuelve más complejo -como un salto muy alto o una voltereta- pueden producirse imprecisiones. A veces el sistema determina incorrectamente qué pierna tocó primero el suelo, o el ángulo de flexión de las rodillas puede ser ligeramente irregular al aterrizar.
En el caso de las animaciones de personajes de juegos, estos errores pueden corregirse fácilmente de forma manual ajustando los fotogramas clave. Y la herramienta Gen 2 Enhance incorporada puede corregir potencialmente esos momentos por sí misma, analizando la física de la caída y compensando pequeños artefactos.
El atrezzo y los objetos son una de las ventajas exclusivas de Move AI. A diferencia de los sistemas de mocap tradicionales, que sólo registran el movimiento del actor, aquí los algoritmos pueden analizar también el entorno. Por ejemplo, si un personaje sujeta una pelota, el sistema es capaz de seguir su posición. Por supuesto, esto funciona mejor con objetos simples: una pelota, una caja, objetos grandes como una silla o un arma.
Pero para los movimientos bruscos con accesorios, como blandir una espada o lanzar un objeto, aún no se puede confiar al 100% en el seguimiento automático. Los pequeños detalles pueden perderse, y es más fácil animar esos objetos por separado. Sin embargo, los movimientos del actor con un objeto grande se graban normalmente, lo que da flexibilidad en el postprocesado.
Otro matiz son las oclusiones debidas a objetos. Si el actor sostiene un escudo delante de él, ocultando su torso y su cara, el sistema puede perder precisión en la detección de poses. En tales casos, ayuda una cámara adicional desde un ángulo diferente o la corrección manual posterior de los datos. Pero el enfoque en sí es conveniente porque no hay limitaciones: Move AI simplemente captura todo lo que ve, y luego los datos pueden utilizarse en función de los objetivos del proyecto.
La estabilidad de las posturas y los contactos es un aspecto importante de la tecnología sin marcadores. Antes, uno de los principales problemas era el «deslizamiento» de los pies sobre el suelo. Como el sistema no percibe la resistencia física de la superficie, los pies podían moverse aunque el personaje permaneciera inmóvil.
En Gen 2, este punto se ha mejorado notablemente. Los algoritmos empezaron a detectar mejor la colocación de los pies (el momento de contacto estable con el suelo), y los usuarios confirman que el problema del deslizamiento se ha reducido notablemente. Sin embargo, en algunos casos pueden seguir apareciendo pequeños artefactos, por ejemplo, si el personaje está muy inclinado o apoya las manos en la pared.
Estos errores se corrigen mediante el postprocesado incorporado Move AI, que aplica correcciones IK, o mediante motores. Por ejemplo, al importar la animación en Unity, se recomienda activar la IK de los pies, para que el sistema fije adicionalmente la posición de los pies. Como resultado, el personaje se para con seguridad en el suelo, y la escena se ve natural.
En general, Gen 2 es mucho más fiable en escenas complejas que las soluciones anteriores sin marcadores. Mantiene mejor el seguimiento durante movimientos rápidos, solapamientos e interacciones de objetos, gracias a los datos multicámara y a los algoritmos de predicción de movimiento.
Pero las limitaciones físicas no faltan: si las cámaras no ven físicamente las articulaciones correctas (por ejemplo, durante una sacudida repentina u oclusión de todo el cuerpo), el sistema se verá obligado a adivinar los datos, y esto puede provocar imprecisiones. Hasta ahora, ningún sistema de IA puede sustituir a los sensores fijados al cuerpo en condiciones de caos total. Por ejemplo, si un actor cae al agua o la escena está envuelta en humo, Move AI puede perder el seguimiento, mientras que un traje inercial seguirá grabando sin problemas.
Pero para los típicos movimientos complejos -saltos, giros rápidos, trabajo con atrezzo- Gen 2 ya proporciona una estabilidad de nivel de producción. Los pequeños errores que se producen no son críticos y se tratan como una parte normal del proceso de animación, de forma similar a como se corrigen los datos de los trajes de mocap.
Integración de Move AI Gen 2 con Unreal Engine, Unity y otros motores
Una de las principales ventajas de Move AI es su cómoda integración con los motores y paquetes DCC más populares. Tras el procesamiento del vídeo, el usuario recibe los datos de animación en formato FBX (con el movimiento del esqueleto grabado) o los datos de transformación del esqueleto en JSON/CSV para el análisis biomecánico. Move AI ofrece varias formas de importación y proporciona instrucciones y plugins para facilitar al máximo el proceso.
En Unreal Engine el flujo de trabajo es muy claro: importar FBX con animación, vincularlo al esqueleto del personaje, retargeting a MetaHuman o cualquier otro rig. Move AI adapta la animación al estándar Humanoid de antemano, lo que simplifica el retargeting. En Unreal, sólo tienes que cargar FBX, crear una secuencia de animación y asignarla a una malla esquelética. Si necesitas personalizar los huesos, se utiliza Retarget Manager o IK Retargeter, especialmente si la animación va a MetaHuman. A juzgar por los comentarios de los usuarios, la importación va sin problemas: descargado, importado, retargeted - el personaje se mueve sin baile de pandereta adicional. Uno de los ejemplos: la animación se colocó en MetaHuman perfectamente, el autor sólo sustituyó las mallas por armaduras, y todo funcionó. Esto demuestra que Move AI es totalmente compatible con el sistema de esqueletos de Epic Games.
En Unity el proceso es similar: importar FBX, configurar Animation Type = Humanoid, aplicarlo al personaje via Animator Controller. La documentación de Move AI tiene algunos consejos útiles sobre los matices de Unity - por ejemplo, si el motor baja los FPS de 60 a 30 durante la importación, usted puede simplemente duplicar la Velocidad en AnimationClip para volver a la normalidad. También se recomienda habilitar Foot IK en Animator para prevenir que los pies se deslicen, y deshabilitar la compresión excesiva de la animación si da artefactos. En general, las animaciones Move AI no son diferentes de las creadas en Xsens o Mixamo, en términos de integración - son transformaciones óseas regulares que pueden ser editadas, combinadas con otras animaciones y usadas en mecánicas de juego.
Otras plataformas. Además de Unreal Engine y Unity, Move AI ha preparado instrucciones para Maya, Blender, Cinema 4D, NVIDIA Omniverse y otros paquetes DCC. Por ejemplo, Blender tiene un plugin especial que permite exportar la animación directamente desde el navegador a un personaje sin pasos adicionales. Maya admite el retargeting HumanIK, que permite adaptar rápidamente los movimientos al rig del personaje animado.
Move AI se integra incluso con plataformas virtuales de producción y visualización. Las animaciones Mocap pueden importarse a NVIDIA Omniverse, lo que permite trabajar con dobles digitales y simulaciones.
En general, la empresa apuesta claramente por la máxima compatibilidad: no importa en qué programa o motor se necesite una animación, se puede importar y adaptar sin problemas.
En tiempo real (Live). Aunque Move AI es principalmente offline, la empresa también está desarrollando Move Live 2.0, que permite capturar movimientos en tiempo real. A juzgar por la documentación, esto requiere altas frecuencias de cuadro: 60 fps para calibración y 110 fps para captura estable. Esto significa que se necesitan cámaras de alta velocidad y, probablemente, un potente servidor local con una GPU para procesar los datos.
Move Live es capaz de transmitir animaciones directamente a Unreal y Unity, de forma similar a como funciona Xsens Live a través de un plugin. Move AI también cuenta con una API Move que permite a los desarrolladores integrar la captura con una sola cámara en sus aplicaciones.
De momento, el modo Live no está tan desarrollado, pero su llegada demuestra que Move AI se está moviendo para competir con Xsens, Vicon y otros sistemas que ya ofrecen captura en directo. Esto es especialmente prometedor para aplicaciones de radiodifusión, RV/AR e interactivas en las que es importante la transferencia instantánea de movimiento a entornos digitales.
Los ejemplos prácticos ya confirman que la integración de la IA de Move con los motores funciona sin problemas. Por ejemplo, en el concierto virtual para Fortnite (descrito anteriormente), las animaciones de los personajes se realizaron en Unreal Engine a partir de los datos de Move AI. Los entusiastas también han probado con éxito las animaciones MetaHuman, y en algunos proyectos Move AI se utiliza para la previsualización: un director puede grabar rápidamente una escena con un actor, procesar los datos y subirlos a Unreal para una edición aproximada, sin perder tiempo contratando un estudio de mocap. Esto aporta flexibilidad y acelera considerablemente la producción.
Desde un punto de vista técnico, Move AI es compatible con los esqueletos estándar (HumanIK, Epic Skeleton, etc.), lo que significa que los problemas de importación a los motores de juego son mínimos. La mayoría de los comentarios de los usuarios se refieren a la corrección de defectos menores -por ejemplo, el ajuste de IK para las piernas o el ajuste de la velocidad de fotogramas-, pero todo esto se corrige fácilmente durante la fase de importación.
El umbral de entrada en el sistema es muy bajo. Incluso los principiantes, una vez descargadas las pruebas de IA de Move, pueden importarlas literalmente a Unity o Unreal en una hora, siguiendo las instrucciones. Esto contrasta fuertemente con los antiguos sistemas de mocap que requerían plugins especiales y una compleja conversión de formatos. Move AI se diseñó originalmente para ser lo más sencillo posible para el usuario final.
En la siguiente entrega, vamos a pasar a una comparación directa entre Move AI Gen 2 y Xsens, uno de los líderes del mercado tradicional de mocap. Analizaremos los puntos fuertes y débiles de cada solución, así como las áreas en las que Xsens sigue estando por encima de la competencia y cómo puede mantener su posición en la era de la IA. Permanezca atento a las actualizaciones.
Comments