论文部分内容阅读
近年来逼真的三维人脸动画系统的研究已成为计算机领域的热门话题,并在人工智能、影视制作、多媒体教学、远程会议和计算机游戏等方面得到广泛的应用。但是,目前国内对于三维动画系统的研究还处于初级阶段,如何针对特定的人脸建立逼真的三维模型,并运用汉语文本驱动人脸动画模型,三维动画关键帧之间的自然过渡,且与实际生活中人在说话时的嘴型相符都是目前的研究重点与难点。本文在分析研究了三维人脸建模、三维动画和汉语文本分析的关键技术和难点问题的基础上,采用基于形变模型的人脸重建方法,完成了特定三维人脸模型,并对汉语文本进行了系统的分析,归纳了汉语发音口型中的协同发音现象,实现了在连续语流中关键帧模型之间的口型过渡,最后设计实现了本文中汉语文本驱动的人脸动画演示系统。其主要内容如下:(1)在阐述了MPEG-4标准动画原理的基础上,选取特定人脸作为系统的三维人脸模型;设计了汉语文本驱动人脸动画演示系统的总体框架,分析了实现文本驱动三维动画系统的难点以及本文研究实现的重点。(2)讨论了标准人脸和特定人脸的三维人脸建模的优缺点,选用了基于形变模型的三维人脸重建方法,并选择单张正面人脸图片标定特征点,与形变模型的原始二维图像进行匹配,通过求解最小欧氏距离,得到重建模型的二维人脸图像,再将纹理映射到三维网格模型上,得到个性化的三维人脸模型。(3)通过分析汉语输入文本,对应查找汉语拼音对照表,得到输入汉字的拼音表示。并总结了汉语语音的发音规则,将汉语拼音的基本口型依据视位的不同分成了12类,并生成相应的三维口型关键帧。(4)分析讨论了人在说话过程中普遍存在的协同发音问题,通过分析基本元音、辅音发音口型之间的相互影响程度,对前后发音口型关键帧设置权值,在关键帧动画之间插入过渡帧,使得各关键帧口型之间的过渡更加自然。(5)完成了本文汉语驱动的人脸动画演示系统的功能设计,采用基于OpenGL库的VC++6.0编程实现了以汉语文本作为驱动,将输入文本转换成汉语拼音音子的三维人脸动画演示系统。