人工智能:我们应该多么害怕?
人工智能威胁人类吗?这是最近由今天最着名的科学家斯蒂芬·霍克(Stephen Hawking)建议的一个想法,他的言论在世界各地制造了头条新闻。它引起了我的注意,因为人工智能一直是我的生命的工作 - 这是我博士学位的主题,我基于将其权力带到智能手机的业务。事实上,确切的业务是霍金教授在提出他的言论时提到了。
我对霍金教授有很大的尊重;他是世界上最好的物理学,并将其主流成为最佳世界。我的公司Swiftkey,已经花了近三年的历史悠久的景象,霍金教授用来写下和说话。我们与英特尔合作,将下一词预测软件SWIFTKEY的姓名为霍金教授闻名。这项工作一直非常满足 - 我们相信我们的打字速度翻了一番,这是我们工程师的迷人项目。
但今天AI公司的那种工作是否威胁着人类?我相信危险是至少还有很长的路。如果AI的历史表现为任何东西,那就过于乐观。现代计算的父亲认为我们认为我们将拥有20世纪的特大智能计算机,许多人从那时起,也估计了我们复制人类脑的智力的能力。
要查找技术行业内部人员的更多独家见解
,请探索VentureBeat最近的客人帖子。
我们系统地低估了自然界和人类思想的令人难以置信的复杂性,是已知宇宙中最复杂的生物体。当今机器流程并分析巨大的复杂数据,可以通过巧妙的机器学习和统计算法在狭窄区域模仿人类智能。但人类的思想会解决这些复杂性和恒星的问题,整合了一个惊人的普遍存在的数据来源,这些资源仍然混淆了我们最强大的机器。此外,它并不像再现人类脑的决策模式一样简单。人的大脑坐在身体内,它本身居住在自然界中。我相信真正智能的机器也必须居住在一个类似复杂的“身体”,并有能力以有意义的方式与世界互动。这个想法被称为“体现认知”。
猜测“全艾,”这种可以超越和始终止人类发展的那种迫在眉睫,目前正在猜测。
这并不是说AI没有巨大进展;通信系统帮助霍金教授写作和发言只是一个示例。此次进展也有能力使用计算机将文本转换为多种不同语言的能力,使Web的内容更广泛地可在全球范围内获得。它是同样的问题解决方法,这使得自动驾驶汽车的高级试验。这是“狭窄的AI”(如令人幻如量的完整AI“类型)所产生的,并且由于强大的机器学习技术和大数据的不断增加,它代表了解决特定问题的显着进展。
这种问题传统上很难因为固有的复杂性和歧义而解决,但在过去五年左右,我们已经看到了软件增加的可靠性,但显然没有完美的学位。SwiftKey解决问题是在手机上打字的麻烦。我们使用ai从inpidual用户学习;我们的应用了解人们使用语言的方式和不断适应,即使是最独特的单词和短语也是自动纠正的方式,并预测您将打开的内容。我们的算法从并调整到您的写作风格,即使您同时播放三种语言。
AI的未来潜力在于能够从佩戴源收获数据,并建立复杂的概念结构,以解决大自然更通用的问题 - 例如,如何解决气候变化或治愈癌症。虽然我相信AI在解决这种规模的问题方面发挥着核心作用的明显潜力,但我们还没有很长时间才能到来。
这并不是说霍金教授触发的辩论并不是有价值的。这是我们对我们进步的影响有一个开放和诚实的对话。通过任何转型技术,有利于利弊,有益的应用和有害的应用。在过去,我们看到类似的辩论围绕原子技术和纳米技术出现。谈论美国作为公民,商业领袖和学术的影响至关重要,而且AI是一种不同的技术,所以我们需要一个新的辩论。
肯定是真的是,AI不能再只是学术界的主题。它在消费市场存在;你现在可能有了高级“狭窄的ai”的力量。人工智能推动的越来越多的技术渗透了我们的脚化技术体验 - 我们的智能手机,我们的家园,我们的汽车。从谷歌现在告诉你最有效的通勤路线,到每个用户学习的预测应用程序,并预测他们的需求和未来的行为。此外,我们看到IBM的Watson Outsmart在危险之中为100万美元的大奖,计算机通过图灵测试,谷歌宣布收购英国AI公司深度。
AI的新时代正在进行,我们需要讨论可能的道德含义,从数据安全性进一步分析我们的生活时,自驾驶汽车是否应优先考虑驾驶员的安全性,这是一种行人的福祉流入他们的道路。但我们目前是否有风险被我们自己的创作灭亡?在我看来,不是很长一段时间。