尽管人工智能已经带来了企业,但仍然有很多手工造成意外后果的潜力。虽然头条新闻倾向于关注AI运行AMOK并摧毁所有人类,但实际现实是,目前的AI几代人更有可能对业务流程造成严重破坏 - 以及利润 - 如果没有正确管理。

但是如何通过其性质来控制某些东西,应该是自主行动的?通过这样做,企业不会妨碍使AI在工作场所成为一个有价值的资产的东西?

ai出错了

Oncorps首席执行官Bob Suh提供了良好的危害危害危害,即使在充分利用的意图时也会导致。社交媒体平台的经验说明了设计良好的算法如何产生一组积极结果(更多共享),同时颁布负面结果(错误信息和操纵)。它说Facebook和Twitter的高管并不打算促进他们的平台,促进社会的冲突和敌意,但他们确实集中了他们最大化利润的努力,因此这就是他们的加强学习代理(RLA)所做的努力。

RLA基于简单的奖励函数,其中积极结果提示代理扩展和完善其行动。如果没有反补贴奖励机制,即使它不再产生理想的结果,代理人也会继续更好地变得更好。通过这种方式,即使在用户社区中的一些人被操纵,社交媒体机器人在实现他们的编程目标方面非常成功地实现了他们的编程目标,以武器整理众所周知和播种不像。

销售,营销和其他功能中可能出现了相同的问题。不幸的是,很少有组织能够识别和正确算是驾驶不期望的结果,直到损坏完成。这可以采取从收入损失和错过市场机会对安全违规和内部结构和流程的损害的形式。

在其心脏,实施对AI的适当控件是一种风险管理的形式。然而,由于其自​​主性,AI需要比标准的更多关注,麦肯锡合作伙伴Juan Aristi Baquero,Roger Burkhardt,Arvind Govindarajan和Thomas Wallace。一方面,AI在多个学科中引入了许多不熟悉的风险,包括合规性,运营,法律和监管。例如,银行长期以来一直担心人类员工的偏见,但如果这些雇员开始根据偏见的AI告诉他们的建议,现在该机构已经系统化了偏见的决策过程。

另一个问题是AI在整个企业中迅速分散的方式,这使得难以跟踪和监控。作为多个供应商,合作伙伴和其他实体的各种AI实现开始彼此通信,潜在引入新风险的可能性增加。例如,供应商CRM平台内的新工具可以在多个地理区域创建数据隐私和合规性风险。

前线管理

根据托杜德比亚克,数字保证和普华永道的透明度领导者,管理这些风险的最佳方法是实施AI在企业的编织到织物之前进行适当的控制。为此,您需要对AI触摸履行其任务时,对所有内容进行全面审查。这包括管理输入和设置算法的选择,监督和透明度的数据层策略和模型开发,持续审查输出和决策,以及对逻辑安全性,计算操作和程序变更和开发的完全控制。

培训AI以道德方式也是一种新兴,但极为漂亮的领域,这已经吸引了私人和公共部门组织的兴趣。其中一个关键困难是道德是一个非常主观的学科,其中一组情节中的道德行动在另一组中可能是不道德的。但作为詹姆斯科比尔斯,TDWI的数据管理研究高级总监,指出,最终的道德责任必须留在人类,而不是无生命的物体,无论他们看起来多么聪明。为了防止ai从“流氓”中,它应该始终将人类利益作为核心元素纳入,这可以在从它看起来的决定中表现出来的一切。此外,可能需要在AI推理血统中的透明度来确保审计跟踪返回到创建它的人类。

最终,当然,管理AI是一个信任问题。组织可以像其他任何其他员工一样聪明地对待AI:给它一系列有限的责任,看看它是如何表演的,然后在证明自己有能力和值得的情况下,将其推广到更高的权威程度。就像你没有指定最近的毕业生作为新的CIO,你就不会将AI负责C级销售管理或人力资源。

虽然意外后果的风险永远不会减少到零,但在某种程度上,某种方式,某种方式,人类和艾美人将找到一种方式。由于两种形式的情报都提供了弥补对方弱点的优势,因此他们与互利关系的关系不仅仅是他们的关系,而不是敌对。