來源:至頂網
一群著名科技公司的高管將加入人工智能安全保障委員會(Artificial Intelligence Safety and Security Board),該委員會的任務是就人工智能在關鍵基礎設施中的應用向聯(lián)邦政府提供建議。
《華爾街日報》今天報道了這一舉措。據(jù)該報報道,該委員會不僅包括科技行業(yè)的代表,還包括學者、民權領袖和幾家關鍵基礎設施公司的首席執(zhí)行官。人工智能安全保障委員會總共將有近二十多名成員。
微軟首席執(zhí)行官Satya Nadella、英偉達首席執(zhí)行官黃仁勛和OpenAI的San Altman均將參與其中。來自AMD、亞馬遜網絡服務公司、Anthropic PBC、思科、谷歌和IBM的同行也參與其中
美國國土安全部部長Alejandro Mayorkas將領導該小組。據(jù)《華爾街日報》報道,人工智能安全保障委員會將就如何在關鍵基礎設施中安全應用人工智能向國土安全部提供建議。小組成員將從5月開始每三個月召開一次會議。
除了向聯(lián)邦政府提供建議外,該委員會還將為關鍵基礎設施組織提出人工智能建議。這項工作將重點關注電網運營商、制造商和運輸服務提供商等公司。據(jù)報道,該委員會的建議將集中在兩個主要議題上:在關鍵基礎設施中應用人工智能的方法和該技術帶來的潛在風險。
多家網絡安全公司已經觀察到利用生成式人工智能的黑客攻擊活動。在一些活動中,黑客利用大型語言模型生成網絡釣魚電子郵件。在另一些案例中,人工智能被用來支持惡意軟件的開發(fā)。
人工智能安全保障委員會是依據(jù)拜登總統(tǒng)去年簽署的人工智能行政命令成立的。該行政令還呼吁聯(lián)邦政府采取其他一些措施來應對該技術的風險。商務部將制定人工智能生成內容識別指南,而國家標準與技術研究院正在制定人工智能安全標準。
該行政令還對私營公司提出了新要求。特別是要求開發(fā)先進人工智能的科技公司現(xiàn)在必須與政府共享有關新模型安全性的數(shù)據(jù)。這些數(shù)據(jù)包括所謂的紅隊測試結果,即通過模擬惡意提示對神經網絡安全性的評估。
人工智能生態(tài)系統(tǒng)中最大的幾家公司已將算法安全作為其研究工作的重點。例如,OpenAI在12 月透露,它正在開發(fā)一種自動化方法,以應對高級神經網絡帶來的風險。該方法使用第二個能力較弱的神經網絡來監(jiān)督高級人工智能模型的輸出。