前谷歌CEO警告AI模型可能被黑客入侵
谷歌前CEO埃里克·施密特就AI的危险性及其易受黑客攻击的脆弱性发出了严厉警示。施密特在 Sifted Summit 炉边谈话中被问及AI是否比核武器更具破坏性时,警告了AI可能造成的危害。“AI是否存在扩散风险?绝对存在,” 施密特周三表示。施密特说道:“有证据表明,无论是封闭模型还是开放模型,都能通过黑客手段移除其防护机制。这些模型在训练过程中会学到很多东西,其中一个负面例子就是,它们会学会杀人的方法。所有大型科技公司都采取措施,防止这些模型回答此类危险问题,这是正确的决策,所有公司都在这么做,而且做得很好,且出于正当理由。但有证据显示,这些防护机制可能被逆向破解,类似性质的案例还有很多。”
—— CNBC
谷歌前CEO埃里克·施密特就AI的危险性及其易受黑客攻击的脆弱性发出了严厉警示。施密特在 Sifted Summit 炉边谈话中被问及AI是否比核武器更具破坏性时,警告了AI可能造成的危害。“AI是否存在扩散风险?绝对存在,” 施密特周三表示。施密特说道:“有证据表明,无论是封闭模型还是开放模型,都能通过黑客手段移除其防护机制。这些模型在训练过程中会学到很多东西,其中一个负面例子就是,它们会学会杀人的方法。所有大型科技公司都采取措施,防止这些模型回答此类危险问题,这是正确的决策,所有公司都在这么做,而且做得很好,且出于正当理由。但有证据显示,这些防护机制可能被逆向破解,类似性质的案例还有很多。”
—— CNBC