论文部分内容阅读
长期以来,人脸表情动画生成技术一直是计算机图形学的研究热点之一。由于脸部模型的复杂性、表情的多样性,生成具有实时性和真实感的动画是人们面临的严峻挑战,而如何创建一个既逼真又能交互实现的高效变形模型,使之就像真人产生表情一样能够表演如恐惧、生气、惊讶,厌恶,幸福和悲伤之类逼真的表情,将是一项更复杂的工程。本文旨在深入探讨实时交互式脸部表情动画问题,并加以设计与实现。
论文的主要工作如下:
1、在全面介绍各种人脸表情动画技术的基础上,探讨和总结了肌肉模型的原理,并基于改进的Waters模型和人脸肌肉的解剖学位置,提出了一个基于“典型表情选择”和“肌肉力控制”的参数化肌肉模型,只要通过模型上控制顶点的属性就能控制脸部形成不同的表情。
2、基于改进的肌肉模型,采用分块造型技术,通过MAYA的细分多边形建立了中性脸部模型。通过一个操作界面,用户可以交互创建动画中的关键帧,也可以指定预定义的表情,即通过调节界面上定义好的肌肉向量的参数来指定表情。经测试表明,这使得对脸部表情的研究更加方便、灵活,建模及其动画化也更加逼真、实用。
3、传统上,一般是利用三维动画软件或扫描范围传感器创建人脸模型,但这两种方法都难以生成实时交互式脸部表情动画。本文设计了一个基于MAYA软件平台加上MEL/C++API编程环境,开发了操作界面和变形器插件,从而实现了具有真实感的人脸表情动画实时交互生成。实验证明,这种新颖的方案具有很好的应用价值。