论文部分内容阅读
人工智能作为时代变革的驱动力,不仅赋能传统行业加速产业结构转型,而且将人们从高强度工作中解放出来,提供了精准化、人性化、便捷化的服务,为实现人们向往的美好生活增添了强大动力。但与此同时,人工智能带来的隐私泄露、结构化失业、安全风险等伦理问题也给人们造成了巨大困扰。因此,为规范和解决人工智能的发展及悖论问题,人工智能的伦理准则成为了学术界研究的重要课题。人工智能的伦理准则作为规范和引导人工智能发展的伦理基石,其核心是引导人工智能具备目的善、功能善和价值善,即以善御术,由四大伦理准则作为支撑:以人为本的伦理准则是强调人工智能对万物之善的行动中优先考虑对人的善,以人为目的的善是其考虑的首要因素;不伤害的伦理准则提出人工智能需要将不伤害作为保护人类最低的安全底线,将自身危险性降至最低;透明公开的伦理准则强调人工智能算法的透明和数据运行的公开;公平正义的伦理准则要求人工智能的发展秉持公平正义,使人们能够平等地获得人工智能资源,共享人工智能发展红利。将以善御术的伦理准则转化到人工智能系统当中,则是形成人工智能的应用框架,包括底层的道德屏障设计和顶层的价值敏感性设计,对人工智能予以道德上的考量。人工智能伦理准则的研究是为帮助技术专家一同规避人工智能的悖论问题及引导其发展方向,为此提供合道德合规律的伦理意见,使得人工智能发展符合人对善的追求,满足人类美好生活的需要。