欢迎光临KOTOO财情




科学家让机器学习道德特征,结果发现 AI 比人更懂得合作妥协

2025-03-16 245

去年中国乌镇 AlphoGo 与柯洁的围棋世纪大战中,我们都见识到人工智能(AI)这些年来的快速进步,如今几乎可以确定的说,在大多数零和游戏(Zero-Sum Game)中,机器会击败人类。但如果其他情况下呢?

不论国际象棋、围棋或扑克牌,过程经常由两个或以上的玩家互相冲突竞争,并由一方击败对手获胜,对 AI 发展来说,这样的游戏结果能提供明确的里程碑来衡量发展过程。但 AI 最终要应用的现实世界毕竟不是这么简单,机器必须学会与人、机器之间更复杂的长期合作关系。

New Atlas 报导指出,为了解 AI 面对人及其他机器“社交”时的情况,美国杨百翰大学(BYU)电脑科学教授 Jacob Crandall、Michael Goodrich 和麻省理工及其他单位同事合作创造了一种 S# 算法,试图教导机器学习合作及妥协,并在实际游戏中测试性能。

与过往围棋、国际象棋等单人零和游戏不同,研究人员选择玩家需要不同程度合作及妥协的数款游戏,包含囚徒困境(Prisoner’s Dilemma)与牵涉到夏普利值(Shapley value)等内容,接着团队便在机器、人类与人机等不同合作方式情况下进行测试。

结果显示,至少以 S# 编程机器的情况来说,在大多数情况下,机器确实比人类更懂得如何合作与妥协。

Crandall 表示,在这些游戏中,如果参与的两个人都相互诚实、忠诚,那就能完成得像两台机器一样好,但实际的多数情况并非如此,Crandall 将这种情况称为“人为疏失”(human failings)。

“我们实验中的人类参与者有种不忠诚的倾向,他们会在合作关系中叛逃(defect)且不诚实,约有近半参赛者互动时会某种程度不遵照建议进行。”

从另一方面来看,研究人员编程为“重视诚实”的机器,就确实是诚实的。Crandall 认为,这种算法正在体会道德特征是件好事,它被编程为不说谎,并在需要的时候保持合作。

未来像自驾车等多种 AI 应用,机器都必须学会与人类和其他机器分享资讯、合作或妥协,研究人员认为,这些发现将能为未来应用 AI 技术的设备奠定基础。

这项研究已刊登在《自然─通讯》(Nature Communications)期刊。

  • AI Is Better at Compromise Than Humans, Finds New Study
  • Morality algorithm lets machines cooperate and compromise better than humans

(图片来源:shutterstock)

2019-03-15 20:31:00

标签:   资讯头条 kotoo科技资讯 kotoo科技 kotoo科技资讯头条 科技资讯头条 KOTOO商业产经 新闻网 科技新闻网 科技新闻 Kotoo科技新闻网 Kotoo Kotoo科技新闻网 科技新闻 科技新闻网 新闻网 科技资讯头条 kotoo科技资讯头条 kotoo科技 kotoo科技资讯 资讯头条 Kotoo 科技新闻 科技新闻网 新闻网 KOTOO商业产经 科技资讯头条 kotoo科技资讯头条 kotoo科技 kotoo科技资讯 资讯头条
246