论文部分内容阅读
本文以百度深度学习研究院研发的智能硬件BaiduEye为媒介,着重研究了头势、手势和语音等通道的交互方式在博物馆场景下的可行性,并利用百度的技术平台搭建了可以操作的实体。目前已经完成了三个产品设计开发阶段。第一阶段:产品调研阶段。通过对博物馆最新讲解设备的调研,笔者发现博物馆讲解设备的设计发展趋向于做自然化体验的自然用户界面设计。自然用户界面设计离不开对用户行为的研究,通过对参观者已有的参观行为和参观者创新的参观行为的深入研究,笔者整理总结了博物馆参观的用户行为库,为之后设计多通道人机交互方案提供指导;第二阶段:产品设计阶段。根据第一阶段输出的用户行为库,在输入端,笔者采用故事版的方法,首先分别从头势、手势和语音三个通道设计人机交互方案,并依照故事版做出体验式原型,进行用户测试与迭代,定性判断各个通道设计方案的体验优劣,然后再进行通道间整合研究,理清产品通道使用逻辑;在输出端,BaiduEye输出听觉信息,与BaiduEye蓝牙连接的手机等设备输出视觉信息。输入端与输出端设计完成,最终得到多通道人机交互方案;第三阶段:技术实现与测试阶段。笔者对前期所设计的多通道交互方案进行技术实现,做出验证式原型并进行用户测试,评估多通道人机交互方案的技术可行性,定量调整功能参数,然后在技术平台上对产品进行迭代优化,最后在博物馆真实场景下随机让参观者试用,收集用户反馈。通过真实场景试用发现,用户对以头势、手势和语音为基础的多通道交互方式较为认可,认为其优势是使用方便、有趣、科技感十足,但也存在一些缺陷,例如语音识别受环境的干扰而准确性降低等。对此,笔者认为随着人机交互技术的不断发展,包括语音交互在内的多通道人机交互系统将会更加成熟、准确。综上所述,笔者采用基于故事版的体验式原型与验证式原型的设计方法,为博物馆智能讲解设备BaiduEye输出了一套包含头势通道、手势通道和语音通道的多通道人机交互方案,并在实验室场景和博物馆真实场景下完成了可用性测试。