谷歌前CEO警告称人类应该准备好在某些时刻关掉AI(人工智能)的电源。
当地时间12月15日,谷歌前CEO、执行董事长埃里克·施密特(Eric Schmidt)在接受外媒采访时表示,尽管AI的出现是一项值得庆祝的人类成就,当AI系统能够实现“自我提升(self-improve)”时,人类“应该认真考虑切断其电源”。
施密特表示,AI系统发展速度如此之快,有可能会带来“人类生存方面的问题”:“看看社交媒体,它已经为我们的国家和全球带来了多么剧烈的变化。再想象一种更智慧、更强大的技术,可以用于传输信息、研发创新、药物开发,再到各种负面的用途,包括作为武器或用于网络攻击。这一切的速度都非常快。”
施密特指出,在他从业的50多年时间内,他从未见过任何技术展现出和AI一样快的创新增速,也许在未来的1至2年内就会出现能够独立做研究的AI系统,也就是所谓的“AI科学家”。发展到一定阶段后,AI就相当于为每个人都配上一位随叫随到的专业大师,“只是我们不知道每个人都拥有这份力量后会带来什么”。
施密特一直公开呼吁人们重视AI的潜在危险。在本次采访中,施密特再次强调了政府监管AI的重要性,称在当下如此激烈的AI竞赛中,不排除“某一家公司会选择为了速度,跳过所有的安全步骤,放出造成真正伤害的AI模型”。
施密特还谈到,政府和技术人员应该提前预想最坏的情况,准备能够监督AI系统的备用系统,这样在人类无法管控AI的情况下,AI就可以互相管制。
资料显示,施密特于2001年至2011年期间担任谷歌CEO,并在董事会任职至2019年。目前,施密特在彭博亿万富豪榜上以365亿美元的身家排在第46位,他仍然是谷歌母公司Alphabet的股东,持有约1.47亿股Alphabet股票。
值得注意的是,不久前,谷歌现任CEO桑达尔·皮查伊(Sundar Pichai)刚刚发表了和施密特十分不同的观点,认为AI已经得到了足够的监管。
12月初,在纽约举行的DealBook峰会上,皮查伊表示,他对AI的潜在影响“肯定持乐观态度”,并认为现有的监管已经涵盖了许多AI应用:“例如,你无法在没有经过所有监管审批的情况下引入一种疾病治疗方法。仅仅因为在这个过程中使用了AI,并不意味着一切都会发生改变。所以我们必须谨慎地考虑,是否真的需要增加任何额外监管。”
就在一周前,面对竞争对手OpenAI连续12天的更新计划,谷歌宣布正式推出新一代大模型Gemini 2.0,速度比Gemini 1.5 Pro快两倍,拥有多模态输入输出和更多智能体功能,包括编程助手、数据科学代理、游戏伙伴等等。
还没有评论,来说两句吧...