投资了50多家AI初创公司,这位专业投资者人呼吁:必须放缓通用人工智能AGI竞赛!
来源:华尔街见闻      时间:2023年04月14日

创造超级人工智能的诱惑是巨大的,这往往会使得人们忘记了其存在的危险。

4月14日,人工智能赛道投资人Ian Hogarth在其专栏中发表了一篇名为《我们必须放慢通往上帝一般的人工智能的速度(We must slow down the race to God-like AI)》的文章,并警告当前人工智能公司的研究可能接近“一些潜在的风险”:


(资料图片仅供参考)

Horgath表示,之所以将AGI称为“上帝般的AI”,是因为在预期的发展路径下,它将成为一台可以自主学习和发展的超级智能计算机,并且可以在不需要监督的情况下理解周围的环境,可以改变周围的世界:

他说,创建AGI是所有领先的人工智能公司的明确目标,但这些公司朝着这个目标前进的速度远远快于所有人的预期:

Ian Hogarth是人工智能赛道的知名天使投资人,自2014年以来,他在欧洲和美国投资了50多家人工智能初创企业,包括全球融资最高的生成式人工智能初创企业之一Anthropic,以及领先的欧洲人工智能防御公司Helsing。

Horgarth坦言,尽管他在过去投资了众多人工智能初创企业,但他始终存在着担忧,而这种担忧在今年OpenAI的成功后固化为了一种恐惧。

他也曾向研究人员发出预警,但与该领域的许多人一样,相比自己应有的责任,这些研究人员“也被迅速的发展所吸引”。

潜在的危险

Horgath指出,当前AGI的游戏和聊天功能使公众忽略了人工智能这项技术更严重的潜在危险。

早在2011年,DeepMind的首席科学家Shane Legg就将人工智能构成的生存威胁描述为“本世纪的头号风险”:

他还提到2021年,加州大学伯克利分校计算机科学教授Stuart Russell在演讲中举了一个联合国要求AGI帮助降低海洋酸化的例子:

人工智能造成的更切实的伤害的例子已经出现了。最近,一名比利时男子在与聊天机器人Chai交谈后自杀身亡。

而另一家提供聊天机器人服务的公司Replika对其程序进行更改时,一些用户感觉像“失去了最好的朋友”,经历了痛苦和失落感。

此外,人工智能现在可以复制一个人的声音甚至脸,这使得其诈骗和提供虚假信息的可能性很大。

为什么要创造?

如果存在潜在的灾难性风险,这些公司为什么要竞相创造“上帝般的人工智能”?

Horgath表示,根据他与许多行业领袖的谈话以及他们的公开声明,似乎有三个主要动机:

成为第一个创造非凡新技术的人的诱惑是巨大的。在成就与潜在危害上,人工智能的开发在某种程度上可以类比原子弹。

1981年,弗里曼·戴森在纪录片中描述了他参与核弹研发时的心理:

而在2019年,OpenAI创始人Sam Altman在接受采访时,也引用了原子弹之父奥本海默的话:

治理

Horgath说,他理解人们为什么愿意相信“上帝般的”人工智能,这意味着它或许能够解决人类目前面临的最大挑战:癌症、气候变化、贫困等。但即便如此,在没有适当治理的情况下继续下去的风险也太高了。

“不幸的是”,他说,“我认为比赛还会继续。这可能需要一个重大的滥用事件——一场灾难——来唤醒公众和政府。

他认为,与人工智能监管相关的一个有意义的类比是工程生物学:

他表示,支持各国政府实施重大监管,并制定切实可行的计划,将那些专注于一致性和安全性的人工智能初创企业转变为类似欧洲粒子物理研究所的组织。

最后,Horgath仍然强调,人类并非无力延缓这场竞赛:

本文来自华尔街见闻,欢迎下载APP查看更多

标签:

上一篇:

下一篇:

深度
国债逆回购在哪买?国债逆回购可以通过在证券公司开立的证券账户进行...
泰安银行属于什么银行?泰安银行是一家股份制城市商业银行。泰安银行...
余额宝双休日有收益吗?余额宝双休日也会获得收益的,前提是周末之前...
1号刷的花呗当月9号还吗?不用。账单日产生的消费,通常记录在下个月...
没有银行流水怎么贷款?没有银行流水可以自存流水、提供夫妻一方的流...
哪些保单可以进行保单质押贷款?可以进行保单质押贷款的保单需要具有...

X 关闭

X 关闭