Consistent 3D Human Shape from Repeatable Action
SCI
인용 0
본 연구는 반복 가능한 동작을 수행하는 사람의 비디오로부터 3D 인체를 재구성하는 방법을 제시합니다. 2D 관절 감지를 통해 비디오를 시공간적으로 보정하고, 뼈-앵커 변환으로 가상 카메라 뷰를 확장하여 프레임 일관성 있는 옷을 입은 인체 표면을 추출합니다. 이를 통해 일상적인 비디오를 보정된 다중 뷰 이미지 세트로 변환하여 3D 옷 입은 인체 표면을 기하학적으로 측정할 수 있습니다.
AI 생성원문 보기