一级裸片

《自然》杂志专访Bengio:谨防AI被滥用的危险

国产人妖2018年

《自然》杂志采访Bengio:谨防人工智能被滥用的危险

《自然》杂志对Bengio的采访:谨防人工智能被滥用的危险

今日大数据摘要

e7189eda85fd4ed088425af536798eee.png

生成大数据摘要

中等

编辑:刘家钰,倪妮

Yoshua Bengio对人工智能的贡献是毋庸置疑的,他上个月凭借Geoffrey Hinton和Yann LeCun赢得了图灵奖。

在从事研究工作的同时,Bengio还担任蒙特利尔学习算法研究所(MILA)的科学主任,他担心滥用技术的可能性。

12月,在蒙特利尔举行的神经信息处理系统(NeurIPS)会议上,Bengio提出了一套名为“蒙特利尔宣言”的人工智能领域的道德准则。

1月,大自然采访了伦敦的Bengio。在采访中,Bengio提到欧洲在人工智能方面确实落后于中国和美国。此外,他还提到许多最令人担忧的事情并没有在光天化日之下发生。

问:您是否看到许多公司或国家不负责任地使用人工智能?

答:有很多这样的情况,实际上可能还有更多,所以我们必须在坏事发生之前发出警告。许多最令人担忧的事情并非在光天化日之下发生。它发生在为政府或警察服务的军事实验室,安全组织和私营公司。

问:你能举一些例子吗?

答:杀手无人机非常令人担忧。存在道德和安全问题。另一个例子是监视。当然,你也可以说它有潜在的积极效益。但特别是对威权政府来说,滥用的危险是非常真实的。从本质上讲,人工智能是一种可供电力持有者用来维持和加强其力量的工具。另一个问题是人工智能可以放大歧视和偏见,例如性别歧视或种族歧视,因为这些人类行为已经反映在训练数据中。

问:“蒙特利尔宣言”和其他类似声明之间有什么区别?

答:我认为这是第一个不仅涉及人工智能研究人员,还涉及社会学和人类学界众多学者和公众的宣言。这种变化可能是深远的。由于与专家和公众进行磋商,我们将原则从原来的7增加到10.组织可以承诺遵循这些原则。

问:什么平台最适合讨论人工智能?

答:我们正试图在蒙特利尔建立一个这样的组织:人工智能和数字技术的社会影响国际观察站。它应该邀请所有参与者加入:政府,因为他们是行动的人,民间社会专家包括人工智能技术专家,社会学,医疗保健和政治科学专家,以及正在构建这些智能产品的公司。

8d044b9f913546bdb33f777e9b171526.png

问:我们可以打开人工智能的黑匣子吗?

答:是的,但我们必须小心。因为毫无疑问,商业公司可能会推动有利于其底线的方向。

问:你认为此举将导致人工智能政府或国际法规的启动吗?

答:是的。自我监管不起作用。

问:你认为自愿征税有效吗?

答:不会。与不符合道德标准的公司相比,遵守道德标准的公司将处于劣势。就像驾驶汽车一样,无论是左侧还是右侧,每个人都需要以同样的方式驾驶;否则,我们会遇到麻烦。

问:你担心该公司从学术界窃取了人才。这还是个问题吗?

答:这种现象仍然存在,但有一些好消息。由于蒙特利尔的人工智能生态系统在不断发展,我们已经看到一些成功的倒退人才,来自加拿大以外的人来加拿大进行人工智能研究。

蒙特利尔(我认为可在世界各地发生)的另一个现象是,在工业界工作的学术研究人员已经开始担任兼职教师,以培养或共同培养大学的研究生。这发生在MILA。

我们也在努力更好地培养学生。蒙特利尔的机器学习教授人数增加了一倍,这部分归功于加拿大政府对这种泛加拿大人工智能战略的投资。

问:你认为欧洲在人工智能方面落后于中国和美国吗?

答:是的。但我不认为欧洲应该接受这一点。欧洲有很大的潜力成为领导者。欧洲有很好的大学。事实上,我们在MILA的许多学生来自欧洲。最近还有一个充满活力的欧洲创业技术社区,分布在几个地方。政府开始意识到它的重要性。法国政府可能是第一个朝这个方向迈出重要一步的欧洲政府。

问:人工智能的下一个重大事件是什么?

答:今天,深度学习在感知方面取得了很大进展,但在发现高级特征方面尚未取得进展,例如我们在语言中使用的概念类型。人类可以最好地利用这些先进的概念,即使是婴儿也可以做到这一点,但机器学习并不是很好。

我们能够推断出数据中实际上没有发生的事情。例如,我们在生成反网络方面取得了一些进展(该技术建立了一个图像生成网络,以与图像识别网络竞争,以帮助提高两个网络的性能)。

但是人类比这方面的机器要好得多。我认为其中一个重要因素是人类对因果的理解。

相关报道:

,看到更多