论文部分内容阅读
多Agent自动协商技术已经在分布式计算,电子商务等领域中得到了广泛的使用,研究者提出了各种协商方法,这些方法主要分为三个类别:基于对策论的协商方法,启发式的协商方法和基于辩论的方法。这些方法各具特色,但也存在着缺陷。例如,在多Agent系统中,agents有不同的信念,这些信念差异可能会对协商造成不利的影响,基于对策论的方法和启发式方法的共同缺陷在于在协商过程中agents不能交互额外的信息,因此agents很难修改自己的信念来减轻信念差异对协商造成的不利影响。基于辩论的方法分为两种:辩护(justification)和说服(persuasion)。基于辩护的方法的主要缺陷在于agents难以定量的评价offers的好坏。
本文提出了一个基于信念修改的说服协商方法。在这个方法中,agents可以在协商过程中修改信念,减少信念差异,从而在一定程度上帮助agents达成一致。另外,我们还使用奖赏作为说服论据,它可以扩展协商结果空间,并且能够帮助协商者尽快地达成一致。本文的主要工作如下:
1.本文协商方法使用了信念修改的概念。当agents互相协商时,他们能够交互额外的信息(如表达不同的偏好),然后基于信念修改框架AGM,agents重新计算信念度(entrenchment degree)并且更新信念,从而在一定程度上减少信念差异。
2.本文给出了关于offer和奖赏的统一评估函数。agents将offer和奖赏作为一个整体来进行评估,然后进行决策,这种统一的评估函数为agents对当前利益和将来利益偏好的修改带来了方便。
3.协商过程中,agents使用奖赏帮助达成一致。在多agent协商中,大多数agents之间的协商都是重复的,因此agents可以使用奖赏作为说服论据来劝说反对者接受自己的提议。
4.在普适计算环境中,基于本文的协商方法,我们设计了一个分布式的上下文信息选取机制。分布式的上下文信息提供者互相协商,它们对谁提供上下文信息和如何分配收益这两个问题达成一致。最后,我们通过实验初步分析了我们方法的有效性。