美剧《西部世界》和好莱坞电影《终结者》里曾描绘,人工智能(AI)的“觉醒”可能危及人类。最近,科幻片中的担忧照进现实,有不少人工智能业界“大佬”突然呼吁暂停开发更强大的AI系统,提出具有人类水平智能的AI系统可能“对社会和人类构成潜在风险”。(3月30日中新网)
在美国知名企业家埃隆·马斯克、人工智能专家约书亚·本吉奥等人联名签署一封公开信后,这种担忧达到了一个新的水准。在这封信里,他们呼吁暂停开发比GPT-4更强大的AI系统至少6个月,称其“对社会和人类构成潜在风险”。从他们抛出的四个疑问来看,这些担忧集中在:人工智能可能会传播谎言,可能从事人类已经做得相当令人满意的工作,并直至人类在人机博弈中全面落败。而所有这些疑虑可以归结为一个终极之问,人工智能开发是否会危及人类文明进程?答案恐怕如同著名物理学家霍金所指出的,强大人工智能的崛起可能是人类遇到的最好的事情,也可能是最坏的事情,但我们还不知道答案。
那么,AI的发展真的到了按下“暂停键”的时刻?其实,发展人工智能与防范人工智能作恶如同“矛与盾”,二者是相互促进的关系。如果彻底停止发展人工智能,那么人类恐怕也难以找到引导其向善的办法。所以,这封公开信是在提醒人们,必须从研发人工智能的危险竞赛中“后退一步”,当下迫切需要让研发活动重新聚焦于使该项技术变得“更加准确、安全、可解释、透明、稳健、一致、可信且可靠”。
换言之,人类对人工智能的担心都源于一种执着的追求——期望AI向善发展。为此,埃隆·马斯克等通过公开信建议,共同开发和实施一套用于高级AI设计和开发的共享安全协议,并由独立的外部专家进行严格审计和监督。同时,开发人员和政策制定者应加强合作,大幅加快强大的AI治理系统的开发。笔者认为,其中的关键词是合作和共治。也就是说,为了给全生命周期的人工智能科学地设置技术、伦理和法律的边界,必须促使政府、学界、企业、用户共同参与进来。唯有如此,方能实现AI创新发展与安全治理的深度协同。
未来,人工智能的开发会日益呈现网络化和多中心发展的态势,尤须深化国际合作和全球治理。毫无疑问,这一过程推进的深度和广度,决定着人工智能如何持续地造福人类。 (杨博)