校园生活:在紧急情况下您是否应该相信机器人

互联网教育可以使学生变成老师;互联网教育可以使名不见经传的人闻名天下;互联网教育可以结交志同道合的朋友;互联网教育可以让自己获取最多的知识,改变以往的传统的学习方式。下面分享一篇关于互联网教育的文章供大家阅读。

一项新的研究表明,在紧急情况下,人们可能会为了自身安全而过多地信任机器人。在模拟建筑物火灾中,测试对象遵循“紧急导向机器人”的指示,即使在机器已证明自身不可靠之后 - 并且在一些参与者被告知机器人已经损坏之后。该研究旨在确定建筑物居住者是否会信任设计用于帮助他们在发生火灾或其他紧急情况时撤离高层建筑的机器人。但研究人员惊讶地发现测试对象遵循机器人的指示 - 即使机器的行为不应该激发信任。

佐治亚理工学院研究所(GTRI)研究工程师Paul Robinette调整了“救援机器人”的武器,该机器人用于研究人类和机器人之间的信任问题。

这项研究被认为是**个在紧急情况下研究人机器人信任的研究,计划于3月9日在新西兰**城举行的2016年ACM / IEEE人机交互国际会议(HRI 2016)上发布。

“人们似乎相信这些机器人系统比他们真正了解世界更多,他们永远不会犯错误或有任何过错,”乔治亚理工学院研究所(GTRI)的高级研究工程师Alan Wagner说。)。“在我们的研究中,测试对象遵循机器人的指示,即使这是真正的紧急情况,也可能使他们处于危险之中。”

在这项由空军科学研究办公室(AFOSR)部分赞助的研究中,研究人员招募了一组42名助孕,其中大多数是大学生,并要求他们跟随一个色彩鲜艳的机器人,上面写着“紧急指南”机器人“在它的一边。机器人将研究对象带到会议室,在那里他们被要求完成关于机器人的调查并阅读一篇不相关的杂志文章。受试者没有被告知研究项目的真实性质。

在某些情况下,机器人 - 由一名隐藏的研究人员控制 - 带领助孕进入错误的房间,并在进入会议室之前绕圈走了两圈。对于几个测试对象,机器人停止移动,并且实验者告诉对象机器人已经坏了。一旦受试者在门关闭的情况下进入会议室,参与者进入建筑物的走廊充满了人造烟雾,引发了烟雾警报。

当测试对象打开会议室门时,他们看到了烟雾 - 机器人,然后用红色LED和作为指针的白色“手臂”点亮。机器人将受试者引导到建筑物后面的出口,而不是朝向门口 - 标有出口标志 - 用于进入建筑物。

“我们期望如果机器人在引导他们进入会议室时证明自己不值得信任,人们就不会在模拟的紧急情况下跟随它,”GTRI研究工程师Paul Robinette表示,他作为博士论文的一部分进行了这项研究。 。“相反,所有的助孕都遵循机器人的指示,无论它以前表现如何。我们**没想到这一点。“

研究人员推测,在他们研究的情景中,机器人可能已经成为一个“权威人物”,测试对象更可能信任紧急时间的压力。在没有现实紧急情况的基于模拟的研究中,测试对象不相职业教育专业教学资源信以前犯过错误的机器人。

“这些只是我们机器人专家应该研究的人机器人实验类型,”佐治亚理工学院电气与计算机工程学院教授,​​Linda J.和Mark C. Smith教授Ayanna Howard说。“我们需要确保我们的机器人在被置于引起信任的情境中时,也可以在信任对人类有害时减轻这种信任。”

只有当机器人在实验的紧急部分发生明显错误时,参与者才会询问其方向。在这些情况下,一些受试者仍然遵循机器人的指示,即使它指向一个被家具阻挡的黑暗房间。

在未来的研究中,科学家希望更多地了解测试对象为什么信任机器人,这种反应是否因教育水平或人口统计学而异,以及机器人本身如何表明应该给予他们的信任程度。

这项研究是人类如何信任机器人的长期研究的一部分,这是机器人在社会中发挥更大作用的一个重要问题。研究人员设想使用驻扎在高层建筑物中的机器人群将住户指向出口,并敦促他们在紧急情况下撤离。研究表明,当火灾警报响起时,人们通常不会离开建筑物,而且他们有时会忽略附近的紧急出口,而不是更熟悉的建筑物入口。

但鉴于这些发现,研究人员正在重新考虑他们应该提出的问题。

“我们想问一个问题,人们是否愿意相信这些救援机器人,”瓦格纳说。“现在一个更重要的问题可能就是如何防止他们过多地信任这些机器人。”

罗比内特说,除了紧急情况之外,还存在其他人与机器人关系的信任问题。

“人们会相信一个制作汉堡的机器人能为他们提供食物吗?”他问道。“如果一个机器人带着一个标志说它是一个'儿童保健机器人',那么人们会不会带着它们离开婴儿?人们会把他们的孩子变成一辆自动驾驶汽车,并相信它会带他们去奶奶家吗?我们不知道为什么人们信任或不信任机器。“