Kling AI 3.0 · Omni Control Ruchu

Kontrola ruchu w praktyce

Cztery prawdziwe przykłady. Bez wybiórczego dobierania. Tylko referencje ruchu, obrazy postaci i to, co wychodzi na końcu.

Większość filmów generowanych przez AI nadal wygląda nienaturalnie w ruchu — obiekty „odpływają”, kończyny tracą proporcje, a wszystko szybsze niż powolny spacer zaczyna się rozpadać. Poniższe przypadki wygenerowano na podstawie jednego wideo referencyjnego ruchu i jednego obrazu postaci. Bez ręcznej edycji klatek, bez poprawek. To, co widzisz, to dokładnie to, co produkuje model.

Przypadek 01

Jazda na łyżwach

Szybki ruch całego ciała — postać pozostaje nienaruszona

Referencja ruchu
Obraz postaci
Obraz postaci
Wynik

Jazda na łyżwach to jeden z trudniejszych testów transferu ruchu: jednoczesny zamach ramion, wyprost nóg i utrzymanie równowagi w obrocie muszą trafić w odpowiednią klatkę. Model odczytuje referencję ruchu staw po stawie i ponownie stosuje ją do postaci docelowej — proporcje kończyn zostają zachowane, twarz pozostaje spójna, a nawet przy maksymalnej prędkości nie pojawiają się artefakty ani „przecieki”.

24-punktowe śledzenie szkieletu w całej sekwencjiTożsamość postaci zachowana przy szczytowej intensywności ruchuBez czyszczenia po generacji
Przypadek 02

Dynamiczny taniec

Rytm, ciężar i prezencja — nie tylko ruch

Referencja ruchu
Obraz postaci
Obraz postaci
Wynik

Sekwencje taneczne wymagają zsynchronizowanego skrętu tułowia, ciągłego przenoszenia ciężaru i ekspresyjnej pracy kończyn — a wszystko to utrzymane przez kilka sekund. Model wychwytuje mikro-ruchy w rozdzielczości 24 kl./s, których prostsze podejścia w ogóle nie rejestrują. Efekt nie wygląda tak, jakby postać „tylko się ruszała”; wygląda, jakby naprawdę tańczyła. Ciężar, timing i wykończenie ruchu — wszystko się zgadza.

Rejestracja mikro-ruchów w pełnej rozdzielczości czasowejPełna synchronizacja tułowia i kończyn — bez opóźnień fazowych między segmentami ciałaWynik w standardowej rozdzielczości, bez znaku wodnego
Przypadek 03

Transfer ruchu postaci

Ten sam ruch, inna postać — geometria dopasowuje się naturalnie

Referencja ruchu
Obraz postaci
Obraz postaci
Wynik

Ten przypadek całkowicie oddziela sygnaturę ruchu od pierwotnego wykonawcy. Choreografia jest dekodowana, a następnie przenoszona na postać o innych proporcjach. Silnik retargetingu uwzględniający fizykę dopasowuje trajektorię do geometrii nowego ciała — dzięki czemu rezultat wygląda naturalnie dla tej postaci, a nie jak typ sylwetki na siłę wciśnięty w cudzy sposób poruszania się.

Tożsamość wykonawcy w pełni odseparowana od danych ruchuRetargeting dopasowuje się do wzrostu, budowy i geometrii strojuDziała dla szerokiej gamy stylów postaci
Przypadek 04

Gest dłoni

Dokładność na poziomie palców tam, gdzie większość modeli zawodzi

Referencja ruchu
Obraz postaci
Obraz postaci
Wynik

Sekwencje dłoni obnażają twarde ograniczenia większości modeli ruchu — palce zlewają się, nadgarstki nienaturalnie „przeskakują”, a drobne detale motoryczne znikają po kilku klatkach. W tym przypadku każdy staw palca jest śledzony niezależnie, a gest odtwarzany z dokładnością poniżej jednej klatki. Przydatne w treściach kulturowych, tworzeniu tutoriali lub w każdej scenie, w której dłonie są tematem, a nie tylko detalem pomocniczym.

21 punktów kluczowych dłoni śledzonych w każdej klatceDokładność poniżej jednej klatki utrzymana przez cały gestWierność na poziomie palców bez żadnych ręcznych poprawek

Jak to wypada na tle konkurencji

To, co naprawdę ma znaczenie w generowaniu ruchu

Płynność ruchu i swoboda trajektorii to miejsca, w których widać prawdziwe różnice. Krótkie, kilkusekundowe ujęcia są łatwe — wyzwaniem jest utrzymanie spójności przez ponad 3 sekundy złożonej choreografii, kiedy większość modeli zaczyna „odpływać”. Nasz algorytm spójności międzyklatkowej utrzymuje koherentny ruch w całym klipie, bez artefaktów czasowych. Po stronie sterowania: presety dają szybkość, ale ograniczają rezultat do tego, co model już „zna”. Rysowanie ścieżki na otwartym płótnie oznacza, że możesz zdefiniować dowolną trajektorię, dowolną krzywą prędkości i łączyć wiele form kontroli ruchu w jednym przebiegu. Warstwa symulacji fizyki robi różnicę między wynikiem, który wygląda na zgodny z prawami fizyki, a wynikiem, który po prostu wygląda jak animacja.

FunkcjaAI Motion ControlHiggsfieldWan MCZorq AI
Płynność długich klipów (5 s+)✅ Spójna⚠️ Pogarsza się✅ Dobra⚠️ Zmienna
Wprowadzanie trajektorii✅ Swobodne rysowanie na płótnie❌ Tylko presety✅ Oparte na ścieżce⚠️ Ograniczone
Śledzenie na poziomie palców✅ 21 punktów kluczowych❌ Tylko ciało❌ Tylko ciało❌ Tylko ciało
Symulacja fizyki✅ Pełna warstwa✅ Częściowa❌ Brak❌ Brak
Darmowy plan✅ Tak❌ Tylko płatny⚠️ Ograniczony❌ Tylko płatny

Lepsze rezultaty

Trzy rzeczy, które konsekwentnie poprawiają jakość wyników

01

Najpierw opisz fizyczne „zakotwiczenie” postaci

Zanim zdefiniujesz ścieżki ruchu, daj modelowi jednoznaczną bazę fizyczną — postawę, środek ciężkości, kluczowe proporcje. Coś w stylu „atletyczna sylwetka, ciężar ciała skupiony na wysokości bioder, wyprostowana postawa” daje silnikowi stabilny punkt odniesienia. Ten pojedynczy krok zmniejsza ryzyko artefaktów w sekwencjach o wysokiej intensywności skuteczniej niż jakakolwiek inna technika.

02

Buduj złożoność ruchu warstwami

Przy złożonej choreografii nie proś od razu o wszystko naraz. Zacznij od ogólnego ruchu ciała — trajektorii tułowia i bioder — a potem w kolejnej iteracji dodaj ruchy wtórne (zamach rąk, obrót głowy). To podejście etapowe zapobiega zbyt mocnemu „przywiązaniu” modelu do sprzecznych wektorów ruchu i daje znacznie czystszy wynik w zsynchronizowanych sekwencjach z udziałem wielu kończyn.

03

Używaj wskazówek fizycznych, by dodać ciężar i wiarygodność

Różnica między wynikiem, który wygląda syntetycznie, a takim, który wydaje się prawdziwy, najczęściej sprowadza się do odczuwalnego ciężaru. Wpleć w prompt wskazówki fizyczne wprost: „ciężkie lądowanie”, „płynny wyprost ramienia z naturalnym wyhamowaniem”, „ostre zatrzymanie w najwyższym punkcie”. Model traktuje je jak parametry symulacji — uruchamia pęd, bezwładność i ruch następczy, zamiast uznawać je wyłącznie za opis stylu.

Wypróbuj na swojej postaci

Prześlij referencję ruchu, dodaj obraz postaci i wygeneruj w mniej niż 30 sekund.

O sterowaniu ruchem AI

Co właściwie robi sterowanie ruchem

Sterowanie ruchem wyodrębnia dane o ruchu z wideo referencyjnego — kąty stawów, prędkość, trajektorię — i przenosi je na obraz postaci. Efektem jest film, na którym ta postać wykonuje ten sam ruch, dopasowany do jej konkretnej geometrii.

Dlaczego dłuższe klipy są trudniejsze

Krótkie klipy poniżej 2 sekund są stosunkowo wyrozumiałe. Powyżej 3 sekund staje się widoczny dryf czasowy — w stawach kumulują się drobne błędy, które narastają z klatki na klatkę. Nasza warstwa spójności międzyklatkowej została zaprojektowana specjalnie po to, by sobie z tym radzić.

Śledzenie dłoni i kończyn

Większość modeli ruchu traktuje ciało jako podstawową jednostkę analizy i kończy na nadgarstku. Śledzenie na poziomie palców wymaga osobnych modeli stawów i podklatkowej rozdzielczości czasowej. Dlatego to sekwencje dłoni są zwykle miejscem, w którym różnice jakości modeli stają się najbardziej widoczne.

Symulacja fizyki a transfer stylu

Modele symulacji fizyki odwzorowują siły ze świata rzeczywistego — pęd, bezwładność, grawitację — dzięki czemu wynik spełnia ograniczenia fizyczne. Transfer stylu kopiuje wizualny wygląd ruchu bez symulowania stojących za nim sił. Różnicę widać m.in. w takich elementach jak uderzenia przy lądowaniu i krzywe wytracania prędkości.

Szczegóły planu darmowego

10 generacji po rejestracji, bez konieczności podawania karty. Wyniki w standardowej rozdzielczości nie mają znaku wodnego. Wyższa rozdzielczość i generowanie wsadowe są dostępne w planach płatnych.

Zastosowania

Animacja postaci do gier i rozrywki, modelowanie produktów dla e-commerce, treści edukacyjne i poradnikowe, dokumentacja kulturowa i performatywna, treści na media społecznościowe na dużą skalę.