原创 | 潮外音
图片 | 网络
正如美剧《西部世界》和电影《终结者》里重曾描绘的一样,人工智能(AI)的“觉醒”极大能危及人类。
影视作品里的担忧照进了现实,有不少人工智能业界“大佬”发声呼吁暂停开发更强大的AI系统,提出具有人类水平智能的AI系统可能“对社会和人类构成潜在风险”。
此种担忧有无依据?人工智能开发会危及人类的“文明控制权”吗?AI的发展真的已经到了需要按下“暂停键”的时刻了吗?
潮外音消息,近期,美国亿万富翁Twitter首席执行官埃隆·马斯克、Stability AI的首席执行官莫斯塔克(Emad Mostaque)、谷歌旗下DeepMind的研究人员,以及人工智能领域的重量级人物本希奥(Yoshua Bengio)和罗素(Stuart Russell)等在内的1000多名该领域的专家、科技人员、产业高层等联名签署了一封公开信,呼吁暂停开发比GPT-4更强大的AI系统至少6个月,称其“对社会和人类构成潜在风险”。
这封发布在非营利性组织“未来生命研究所”(Future of Life Institute)网站上的公开信主张,在开发强大的AI系统之前,应先确认其带来影响是积极的、风险是可控的。
信中详述了具有人类水平智能的AI系统可能对社会和人类带来极大的风险,称“这一点已经得到大量研究和顶级AI实验室的认同”,并连续抛出四个疑问:
- 我们是否应该让机器用宣传和谎言充斥我们的信息渠道?
- 我们是否应该自动化所有工作,包括那些令人满意的工作?
- 我们是否应该发展最终可能在数量上超过我们、在智能上超越我们、能够淘汰并取代我们的非人类思维?
- 我们应该冒着失去对我们文明控制的风险吗?
公开信称:只有当我们确信它们的影响是积极的并且它们的风险是可控的时候,才应该开发强大的人工智能系统。
此外,“AI实验室和独立专家应该利用这次暂停,共同开发和实施一套用于高级AI设计和开发的共享安全协议,并由独立的外部专家进行严格审计和监督”。与此同时,公开信指出,如果不能迅速实施此类暂停,政府应当介入并采取措施。
公开信中表示:“这并不意味着总体上暂停 AI 开发,只是从危险的竞赛中倒退到具有紧急功能的更大的不可预测的黑盒模型。”
截至3月29日下午,已有1125人在公开信上签名附议。
麻省理工学院研究科学家Lex Fridman最新的节目中,OpenAI公司CEO奥特曼(Sam Altman)提到,强大的 AI 杀死人类有一定可能性。“很多关于 AI 安全和挑战的预测被证明是错误的,我们必须正视这一点,并尽早尝试找到解决问题的方法。”
高盛在3月27日发布的报告中也曾指出,全球预计将有3亿个工作岗位最终被 AI 取代。假设生成式 AI 实现了各企业承诺的能力,劳动力市场将面临挑战,AI 可以接手美国和欧洲高达四分之一的工作。报告预计,随着劳动生产力提高,AI 应用有望使全球在下一个10年内,推动全球GDP(国内生产总值)年复合增长率将达到7%。
不可否认,随着用户人数快速增长,AI获取数据的速度也是成倍提升,学习速度可想而知,人工智能的潘多拉魔盒早已悄然开启。
其实这一切,从开始把人工智能放在网上,任由大家投喂各种论点开始,就已经迟了;甚至更早,科学家发现两组AI会用自己的语言对话开始,人类似乎已经来不及踩刹车了。