目前在Carnegie Mellon University从事博士研究的Heather Knight发表了一篇名为“人类如何回应机器人的论文。

骑士的工作专注于社会机器人 - 机器人和人类今天如何互动,以及他们如何在将来互动。她已经已经与Marilyn Monrobot探索了这些科目,该玛利诺恩蒙罗多特(Marilyn Monrobot)是一个营造具有社会敏感性的机器人的实验室,旨在娱乐观众(这里她在这里发表在这里与机器人的TED会议一起讲话)。

她也是机器人电影节的创始人,甚至是匹兹堡的多样性展示突出了一些机器人。

骑士显然关心让人们关心机器人。她的论文以完美的可访问的划分条款编写,我们认为这值得关注。

为了让你看看,这里有一些尤其是与我们共鸣的关键报价。

机器人不需要眼睛,武器或腿让我们像社会代理一样对待他们。事实证明,我们本能地快速评估机器能力和角色,也许是因为机器具有物理实施例和频繁可读的目标。社交性是我们的自然界,彼此以及一般的生物。作为天生行为的一部分,我们迅速寻求识别代理商的物品。事实上,作为社会生物,往往是我们默认行为的人为移动机器人。

骑士表明机器人不需要看起来像硅子,以便它为合法的社会目的服务。它甚至不需要对人体部件具有适当的机器人模拟,例如具有用于眼睛的摄像机。

如果我们将在未来的机器人容易地对社会联系,他们所需的只是移动并能够在某种程度上与我们交往。

人们会舒服地进入一架飞机,没有飞行员,即使国内乘客无人机具有比人类推动的商业航空更好的安全记录?患者是否被一个医疗设备令人不安或令人愉快地惊讶,这使得一点谈话,恐怖或放心,这是一种高度准确的切口?

有些人已经与他们的机器人合作 - 在这种情况下,与炸弹处理机器人合作的士兵到非生活机器人成为“队友”的指出。尽管机器人缺乏任何有机质,但如果发生了一些事情,它可以作为接近死亡的东西登记给人类。

事实证明,欧宝炸弹炸弹处理机器人的制造商实际收到了由机器人的盒子组成的弹片封面,爆炸说明,“你能解决它吗?”在为单位发送新机器人后,士兵说,“不,我们想要那个人。”那个特定的机器人是他们与,与他们不想“死亡”的共享经验的人。

如果我们在其全部潜力上拥抱机器人和机器人技术,这仍然会克服目前的紧张局势。我们已经拥有了自动化这么多的技术 - 想象一下航空旅行,或者所有运输的世界都是全自动的 - 但是在人们感到安全“信任”机器人以做这些类型的事情之前,有一个社会方面克服了社会方面为我们。

正如Carnegie Mellon伦理主义者约翰坎特曾经告诉我们的机器人伦理课一样,而理论上没有道德负面伤害机器人,如果我们认为机器人作为社会实体,导致它造成的损坏反映在我们身上不佳。这与沮丧的幼儿免受伤害蚂蚁的不相似,因为我们不希望这样的游戏行为在学校袭来其他孩子。

机器人不是人。“杀死”一个机器人不会“留下生命”。所以折磨机器人实际上并没有将疼痛(或任何感觉)引入机器。问题在于,酷刑完全正在发生。

考虑人类粘接与机器的翻盖是机器人设计师和最终政策制定者可能需要保护用户免受社会机器人机会的替代或补充健康的人类接触或更黑暗,延迟正常发展。考虑一个更极端的版本,如何被弱势群体使用视频游戏(例如,社会孤立或抑郁)作为逃生的逃生,这可能是也可能不会让它们与其他人类重新登记。

在具有足够社会有能力的机器人的世界中,忘记与人类互动可能存在危险。与人类当量相比,骑士写道“机器人智能和模拟社会行为是简单的。一个人不能取代另一方面,应该采用保护以避免亚社会过度依赖。“

换句话说,假时与你的烤面包机说话太多,无论谈话如何搞。

另一方面,还可以寻求使用这些技术来鼓励人类联系的方法。随着一些自闭症研究人员正在调查,社会机器人可能有助于社会受损的人与他人有关,练习常规人类接触的踏脚石。

机器人的不同社会能力水平已经被用来帮助那些在社交环境中遇到困难的人,无论是由于学习残疾还是其他原因。正如我们已经建立的那样,没有“感情”受伤,所以如果一个人能够用机器人练习社交技巧,那么风险很小(只有改进的机会)。