微软的智能Chatbot Tay上周表现得很糟糕(本周也是如此),但这不应该震惊我们的任何人。显然,我们很快就会期待太多的Ai。

缺陷是让我们成为人民的原因 - 他们定义了我们。因此,当我们将人类特征设计成机器时,我们似乎没有缺陷的双重标准。

微软的Chatbot Fiasco应该是可预测的。如果你把孩子放进一个种族主义家庭,你就不能对他们的成长方式感到惊讶。同样,如果您希望AI从Twitter上学习与支持的企业PR特技的Twitter上的人们,那么您应该期望它拿起一些激进的观点。有趣的是,微软一直在中国在中国经营着类似设计的服务,称为小奇,这意味着“小兵”,最有可能迈向客户服务要素的一步,并证明它已经成功了。因此,机器人们在美国的黑暗面越过黑暗的一面。可能更多的关于使用Twitter平台的人比这对Tay更有关的人。

像Tay这样的聊天可以代表自己最糟糕的一面给予足够的互动。此外,记住它是一种人类的设计选择,使Tay在那个方向上发展。

机器通过变化和异常值更快地学习,因此在Microsoft示例中,极端评论的高频频率不成比例地加权,非常快速地倾斜Tay的个性。

今天,我们真的只能在一个特定地区教育AI,是它的药物或如何驾驶汽车。这意味着我们可以使用一个ai来解决这些领域的一个。但是,这台机器将无法说,绘制一张图片。这是关键:机器无法概括到他们以前未观察到的域名。

尽管如此,当一切都出错时,似乎我们仍然不愿意原谅ai。人类决策是令人难以可靠和偏见的。

贝叶斯自由

AI的当前限制归结为我们思考和教导数学和技术的方式。自70年代以来,既没有从根本上改变。幸运的是,我们在工作中有一个新的统计学习范式(贝叶斯统计理论),我们在过去几年中我们能够在近几年内实施,因为近期模拟理论进展。基本上,它使我们能够说明我们认为是信仰的统计分布的东西,然后允许数据塑造这些假设,并在某种意义上与机器嫁给人类的思维。基本上,贝叶斯推理引擎能够通过迭代地学习来考虑每个潜在的情景。

它强迫人类假设在数学中明确,减少了今天仍然发生在科学研究的无意人类偏见的可能性(P值是这种疯狂的一个很好的例子)。通过明确地包括我们自己的假设,我们可以大大提升我们与之交互和形状技术产出的方式。

有三项挑战我们仍然需要克服充分实现机器学习的潜力:

1.可扩展性和存储。我们目前的最佳努力几乎可以根据大小的10,000个神经元的阶数构建人工神经网络。这些网络旨在天真地模拟我们的大脑以及我们如何学习和存储信息。将此P与我们的神经通道进行比较,哪个数量超过100,000,000,000神经元,您开始欣赏两者之间的差异。

2.代表知识。在神经元设置中,连接的强度是我们代表知识的方式。问题是真正神经元的连接比仅仅是一个连接力量更复杂。这是我们需要提升科学的地方。我们可以在创造情报时抛出世界上的所有机器力量,但如果所描绘的方式不合适,我们就没有机会,因为问题才会放大。

3.探索后果。一旦我们有一个可以扩展到任何任务的模型,我们需要明确探索它的后果。简而言之,我们需要通过从我们最好的猜测开始探索各种可能性。因此,如果我们正在创建诊断AI,我们需要乘100个最佳医生可以找到他们对症状列表列表的方法(然后将其作为医疗效率的现有概率分布表示。使用他们的答案作为基础,我们可以使用贝叶斯推理来交叉授粉方法,并以最佳的结果出现,并从基本上从最好的DNA取出DNA,经常复制它,并通过添加数据来继续复制它来继续它的改善。

我们需要收集最精美的思维,以教育我们给予特色的机器。潜力是巨大的,但显然我们有很长的路要走在我们破解真正聪明的机器人之前。

博士迈克尔格林是AI媒体平台Blackwood Seven的首席分析官。