상세검색
최근 검색어 전체 삭제
다국어입력
즐겨찾기0
커버이미지 없음
KCI등재 학술저널

3차원 얼굴 표현을 위한 모델링 데이터 정의 방법

A method of defining modeling data for representing 3D facial expression

  • 17

최근 모션 캡처와 센서 장치의 기술 발전으로 얼굴 표정에 필요한 실시간 좌표 획득이 가능하여 이를 이용한 표정 애니메이션이 각광을 받고 있다. 대부분의 얼굴 애니메이션 연구들은 사실적 표정 애니메이션 생성 연구에 초점을 두고 어플리케이션별로 얼굴 모델이 제작되고 있으며 얼굴 모델간의 호환성이나 재사용은 아직 고려되고 있지 못하다. 본 논문에서는 시스템 간 혹은 응용 간 얼굴 모델의 교환을 가능하게 하고 자연스러운 얼굴 표정 애니메이션을 생성할 수 있도록 하는 얼굴 모델링 데이터의 표준화에 대해 기술한다. 먼저 얼굴 영역 기반의 얼굴 표정 애니메이션 방법에 대해서 기술하고 얼굴 애니메이션 데이터의 호환성을 위하여 3차원 얼굴의 영역을 세분화하고 각 영역을 구분할 수 있도록 해부학적 랜드마크(landmark)를 정의하였다. 또한 얼굴 영역의 레벨을 정의하여 간단한 표정부터 복잡한 표정까지 애니메이션 교환이 가능하도록 하였다. 본 연구는 ISO/IEC JTC 1/SC24와 Web3D Consortium에서 표준 개발이 진행되고 있다.

Recently, realistic facial expression can now be generated with the help of motion capture and sensor devices by obtaining realtime coordinate values for humanoid bodies. Much research has been focused on the generation of realistic facial expression but without considering exchangeability and reusability between facial models. This paper presents a facial modeling method that can provide realistic facial expression as well as the exchange of facial models between systems and between applications. In this research, the surface of a face is divided into various connected regions, each with their own landmarks. The landmarks are used for generating facial expression. In addition, three levels of facial expression are defined to accommodate various levels of detail. This research is being progressed in ISO/IEC JTC 1/SC 24 and the Web3D Consortium in order to develop an international standard.

1. 서론

2. 얼굴 표정 애니메이션

3. 얼굴 영역 분할 방법

4. 얼굴 영역과 랜드마크 정의

5. 결론

로딩중