以AI對抗AI,大模型安全的“進化論”

文丨劉雨琦,編|王一粟

“互聯網時代,我們是更危險,還是更安全?”

2016年,互聯網正值高速發展之際,電梯廣告經常出現這幾個大字,兩行標語,從病毒木馬到網絡詐騙,對於安全的思考、安全防范技術的建立一直在與科技發展賽跑。同樣,大模型時代發展的早期,也引發瞭許多安全考量。

英特網被發明的十年後,互聯網防護技術和產業鏈才開始補齊,而參考瞭過去幾十年的經驗,在大模型誕生後不到半年的時間裡,圍繞著模型安全、數據安全、內容安全的討論,就已經不絕於耳。

最近一周,在上海外灘大會、浦江創新論壇、國傢網安周等場合,產學研界針對於大模型應用落地所帶來的數據安全問題(包括數據投毒、信息泄露、版權風險等)、模型安全問題(模型本身的安全漏洞、惡意利用等)、內容安全問題(生成內容包含違規、違法、色情等敏感信息等)、AI 倫理問題等進行瞭一系列的討論。

如何為大模型保駕護航?

國內一些安全廠商,如360、螞蟻、深信服、奇安信、山石科技等都在積極研發大模型安全技術。

01 大模型需要“醫生”和“保鏢”

大模型作為新物種的誕生,在訓練過程中要有安全監控,在大模型最後推向市場的時候,也需要一次“質檢”,質檢後流入市場,需要可控的使用方式,這都是解決安全問題的宏觀思路。

無論是通用大模型還是面向垂直領域的行業大模型,目前來看,模型安全的保護主要分為三個部分:

a2f5739791f5b16d84207fbd89d29a36

一是訓練階段的數據問題:如果數據采集不當、存在偏見或標簽錯誤、數據被投毒,都有可能導致大模型產生錯誤輸出、存在歧視或其他負面影響,同時數據在應用的過程中,也要面臨數據泄露、隱私曝光等風險;

二是模型本身的可控問題:模型的可靠性、穩定性、魯棒性等都需要進行檢驗,例如此前有用戶構造針對性語句對模型進行誘導,大模型可能生產帶有欺詐、歧視、政治傾向等風險內容;

三是大模型在實際場景中應用的安全問題:在實際的使用過程中,不同用戶群體的交互和應用都需要謹慎評估,尤其是金融、醫療等領域對模型輸出的正確性要求極高,如果應用不當,一石就容易激起千層浪。

多位業內人士向光錐智能表示:“模型安全需要一體化的技術防護體系,單獨某一環節的把控解決不瞭根本問題。”

參考互聯網安全的發展路徑,誕生瞭諸多“病毒查殺”軟件公司,一般檢測、定位問題往往是第一步。

光錐智能瞭解到,螞蟻的“蟻天鑒”,包含瞭大模型安全檢測平臺“蟻鑒2.0”、大模型風險防禦平臺“天鑒”,覆蓋瞭從檢測到治理到防禦的全鏈條。蟻鑒2.0可對大模型進行多維度的安全掃描,檢查存在的數據安全隱患、內容風險點等問題。相當於站在“黑產”角度,通過智能攻擊對抗技術,自動生成數百萬的誘導性問題,對生成式大模型進行誘導式問答,找出大模型的弱點和漏洞。

從技術的角度來看,蟻鑒采用瞭最新的“對抗智能”技術路線,使用智能對抗技術不斷向大模型“投射問題”,觀察模型生成的回答,判斷是否存在風險。通過持續“拷問”,就像醫生多次詢問病人癥狀,平臺可以盤查解析大模型的健康狀況。

通過生成對抗樣本,開發檢測對抗樣本的算法系統,來提升大模型安全性,已經成為一種主流技術趨勢。在行業中,已有OpenAI、谷歌、微軟、英偉達等一眾巨頭公司將對抗智能技術運用到其產品和服務中。

比如,在這種技術思路下,多倫多大學研發的 CleverHans 系統,就像一個專門設計來考驗防盜系統的“小偷”,它會故意添加一些小幹擾,來試圖欺騙 AI 安防系統。在正常情況下,AI 系統可以準確識別“小貓”的圖片,但 CleverHan 系統偏要在“小貓”圖片上輕微修改幾個像素點,給 AI 營造一種這是一張小狗圖片的假象。假如,AI 系統被愚弄過去,那就代表其存在安全漏洞。

bc27134034a57bbbda50735bfce7d068

相比檢測“診斷”,“防治”也非常重要。螞蟻天鑒就像一個智能盾牌,可以防患於未然。通過智能分析用戶提問意圖來進行防禦,天鑒可以攔截某些試圖誘導模型生成敏感內容的惡意問題,確保外部惡意誘導無法傳入大模型。同時,對模型輸出內容實施二次過濾,自動識別風險信息並進行幹預,確保大模型輸出的內容符合規范。

更重要的是,數據問題是模型安全的源頭,中國信通院雲計算與大數據研究所主任石霖曾在一場學術交流會上分享道:“現在有非常多安全廠商采取瞭安全舉措,包括對訓練數據做一些清洗,對輸入輸出內容做過濾,另外還有監測和鑒別等安全防控措施。”

這需要防禦平臺作用在數據源頭,針對數據源頭有毒、模型深度黑盒不可控等問題。螞蟻集團大安全機器智能部內容算法總監祝慧佳介紹,目前,天鑒正在嘗試通過數據去毒、對齊訓練、可解釋性研究等手段保障模型安全。

02 用魔法打敗魔法,以AI對抗AI

數字世界裡和人眼世界裡的內容特征是不一樣的。

隨著大模型時代的到來,其強大能力也為安全防護技術的變革提供瞭新的思路。“用 AI 的力量來對抗 AI ”已經成為一個熱點方向。

事實上,對抗攻防思路並不是模型安全的專屬。早在上個十年,面對種種安全威脅,人工智能領域就逐步形成瞭“以攻測防——以攻促防——攻防一體化”的安全理念,通過模擬各類攻擊場景,不斷探索模型和系統的弱點,以此推動算法和工程端的防禦能力加強。

隻不過,以往安全防護主要依賴機器學習算法模型,這需要大量專業數據知識積累,且面臨知識盲區和小樣本冷啟動不及時的問題。利用大模型技術,可以實現更智能化的安全防控。

這體現在幾個方面。一是大模型能夠提供智能安全“參謀”。基於海量文本進行預訓練的大模型,可以成為優秀的“參謀”,對癥提出適當的分析和防禦策略。比如,通過簡單的自然語言描述,可以快速分析安全局勢,提出應對措施建議,輔助安全團隊規劃解決方案。這類似於一個智能安全“小助手”。

從產業界的現狀來看,AI 安全與否如何評測,目前尚缺乏一套易用和標準化的評測工具和規則。

這也是大模型防禦中能夠補充的另一方面,通過大模型技術學習風險知識和標準規則來提升 AI 對於風險的認知理解能力,以實現用大模型對抗大模型來進行極速防禦和快速冷啟動的目的。

大模型安全既要“快“也要“慢”,這兩個邏輯並不矛盾。在大模型安全防禦方面要“快”,要能快速檢測、查殺病毒,確保服務無毒害,這其中就包括瞭“數據去毒”、“安全護欄”、“AIGC風險檢測”幾個關鍵防禦部分;而在大模型安全可信方面要“慢”,要能長遠的、體系的保證整個系統環境的可控、可信,這其中就包括瞭“安全測評”、“解構可控”、“人類社會共治”等方面。

以文本安全為例,大模型可以基於安全標準規則、風險領域知識和歷史風險樣本,進行訓練,提升模型對於風險標準和內容的理解力,從而實現對風險檢測能力的提升。也采用大模型生成能力結合安全知識圖譜,來構造攻擊樣本持續迭代優化檢測模型。

一位安全專傢表示:“相比人工收集的有限樣本,大模型生成的海量多樣化樣本,將使安全檢測模型'見多識廣',更快適應新的威脅方式。”

這項技術,也被螞蟻應用在瞭AIGC內容檢測中。祝慧佳提及道:“AIGC深度偽造檢測,也是采用以攻測防,以攻促防的思路,通過不同方式、不同風格、不同生成模型來進行生成,建立近千萬的深度偽造數據,訓練模型快速分辨內容是機器生成還是人工生成,從而實現泛化性和魯棒性更好的檢測模型。”

針對AIGC在運用過程中引發的問題,國際上也已經有頭部公司開始著手佈局。

OpenAI此前表示,考慮在ChatGPT中添加數字水印技術,以降低模型被濫用帶來的負面影響;谷歌在今年的開發者大會中表示,將確保公司的每一張 AI 生成圖片都內嵌水印;今年1月初,英偉達也發佈瞭一款名為FakeCatcher的軟件,以查出視頻中的人臉是否為深度偽造。

回顧互聯網發展史,混亂和高速發展往往是一對“孿生兄弟”,而正是在網絡安全產業化趨於成熟後,互聯網才真正迎來瞭百花齊放的應用落地。

同樣,模型安全並不隻是某一傢安全廠商的任務,而是當安全科技形成瞭可信圍欄後,大模型技術才真的能“飛入尋常百姓傢”。

“大模型是非常復雜的問題,倫理、數據、訓練等領域的復雜度都是前所未有的,是一個新領域,也是擺在所有人面前的一個命題。螞蟻'蟻天鑒'在大模型安全視角上做瞭一些探索,但目前還有很多問題待研究解決,比如回答的內容真實性和準確性等難題,它還需要不斷迭代,不斷完善,需要全社會共同協作努力。”祝慧佳最後說道。

歡迎關註光錐智能,獲取更多科技前沿知識!

发表回复

相关推荐

2023年按摩椅推薦 傢用按摩椅怎麼選?按摩椅品牌 附(西屋/榮泰/松下/迪斯/歐利華/奧佳華)

大傢好,我是 @silence,在19到21年做瞭3年的按摩椅線上銷售,在按摩椅選購方面,不懂的地方可以咨詢我!免費為大傢解答,助...

· 2分钟前

狐妖小红娘-竹业篇

版权归作者所有,任何形式转载请联系作者。

· 2分钟前

3D 格式概述:Parasolid,什么是x_t /x_b 格式?

Parasolid 是一个流行的几何内核,它的开发始于 80 年代,目前由西门子开发。

· 4分钟前

如何完全免費又合法使用0ffice軟件?

如何完全免費又合法使用0ffice軟件,免費激活後,不管是word、excel、PowerPoint等等。你都可以完全免費,合法正常使用。一、...

· 5分钟前

腦血管痙攣?偏頭痛?血管性頭痛?神經性頭痛?我到底該怎麼辦?

我這種情況能不能開顱動個手術,運氣不好死在手術臺上我也認瞭。最新的話:我錯瞭,我還是疼(痛苦面具),並沒有痊愈。八年...

· 6分钟前