一种基于代理重加密的安全重复数据删除机制的研究

来源 :北京邮电大学 | 被引量 : 3次 | 上传用户:longman1026
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
随着社会信息化水平的提高,海量数据的存储与处理需求对大规模存储系统的存储空间利用率和数据安全性方面都提出了较高的要求。越来越多的大规模归档存储系统采用重复数据删除技术来减少系统的总拥有成本、提高网络传输的效率,同时采用加密技术保证存储数据的安全性。其中前者利用了数据的相似性,而加密算法的目的恰好是使得加密后的密文尽可能的接近理论上的随机数值,因此直接对加密数据进行重复数据删除会降低重复数据删除的效率。本文的目标是建立一个安全重复数据删除机制,在尽量不降低重复数据删除效率前提下保证所存储数据的保密性。本文首先从方案要解决的问题、解决方法、解决目的三方面进行模型化的假设与限定。详细介绍文件切分和重复数据删除算法、数据完整性和一致性保证及检验、lockbox机制、聚合加密技术、代理重加密技术等,并对重复数据删除、存储安全性、安全去重这三个领域的已有研究现状作总结分析。在此基础上,本文通过综合使用聚合加密、代理重加密、lockbox机制,设计了基于代理重加密的安全重复数据删除机制。该机制包括三方面的内容:元数据信息的加密和访问机制、系统基础架构和文件存取过程。最后,对该机制的安全性和性能进行分析并提出进一步研究的可能。
其他文献
随着移动互联网时代的到来,一些高速交通工具例如火车、飞机上需要提供网络接入点实现用户的上网需求。在这些高速运行的交通工具上,通信设备组成的网络作为一个整体发生移动
如今社会信息和通信技术的飞速发展,正在快速地改变世界,个全新的时代已经到来。国际互联网作为信息技术的产物,从一诞生至今,改变了我们的生产和生活,它正在深刻地影响着社