Image
全國統一服務(wù)熱線(xiàn)
0351-4073466

“萬(wàn)模裸奔”,DeepSeek正顛覆網(wǎng)絡(luò )安全行業(yè)游戲規則


編輯:2025-02-28 17:15:58

對于企業(yè)而言,AI既是提升生產(chǎn)力的強大工具,同時(shí)也為攻擊者和惡意內部人員提供了“大殺器”。隨著(zhù)生成式AI(例如ChatGPT和DeepSeek)在企業(yè)和政府機構中的廣泛應用和不安全部署,“萬(wàn)模裸奔”產(chǎn)生的數據安全風(fēng)險已經(jīng)到了失控的邊緣。
2025年是AI安全元年,首席信息安全官(CISO)們必須提前做好準備,應對“萬(wàn)模裸奔”引發(fā)的數據安全危機。

警惕數據的“智能化泄漏”

與傳統IT系統不同,生成式AI引入了全新的攻擊媒介,可導致數據泄漏、業(yè)務(wù)中斷甚至法律風(fēng)險例如:
  • 提示注入:惡意行為者操縱AI提示來(lái)改變輸出或暴露敏感數據。

  • 數據中毒:對手破壞訓練數據以影響模型行為。

  • 幻覺(jué):人工智能產(chǎn)生虛假或誤導性的信息,可能會(huì )損害決策過(guò)程。

由于生成式AI的發(fā)展和普及速度很快,CISO和安全團隊往往缺乏足夠經(jīng)驗和技能應對AI安全風(fēng)險,在威脅建模和風(fēng)險評估方面存在較大差距。
面對洶涌的生成式AI浪潮,企業(yè)*擔心的還是數據安全問(wèn)題(例如商業(yè)機密數據被競爭對手獲?。?。以*近的一起案例為例:一名員工利用AI助手訪(fǎng)問(wèn)了企業(yè)內部數據庫,竊取了包含客戶(hù)銷(xiāo)售記錄和產(chǎn)品使用情況的敏感數據,并將其帶到新的雇主處使用。
這正是生成式AI放大數據泄露風(fēng)險的典型例子。據Gartner*新研究,微軟365 Copilot、Salesforce等基于生成式AI的工具正成為企業(yè)提升生產(chǎn)力的利器,但其對數據安全的威脅亦呈指數級攀升。近60%的受訪(fǎng)者認為,過(guò)度共享、數據泄漏和內容蔓延是企業(yè)部署人工智能助手時(shí)面臨的*大風(fēng)險。
Salesforce首席執行官Marc Benioff在2024年10月公開(kāi)批評了Microsoft的Copilot,稱(chēng)其為“令人失望的Clippy 2.0”。他引用了Gartner的報告,強調了Copilot在數據過(guò)度共享和安全方面的問(wèn)題,導致許多組織推遲了實(shí)施計劃。

AI引爆“權限炸彈”

研究顯示,企業(yè)近99%的訪(fǎng)問(wèn)權限處于閑置狀態(tài),其中過(guò)半屬于高風(fēng)險權限。傳統安全管理中,冗余權限本已是重大隱患,而生成式AI的介入使問(wèn)題急劇惡化,甚至會(huì )引爆這些“權限炸彈”,以幾何級數放大數據安全風(fēng)險。例如,Microsoft Copilot可以訪(fǎng)問(wèn)所有用戶(hù)權限范圍內的數據,即使用戶(hù)本人并未意識到自己擁有這些權限。這意味著(zhù),敏感數據可能通過(guò)AI對話(huà)被無(wú)意或惡意泄露。

AI改寫(xiě)網(wǎng)絡(luò )攻擊游戲規則:從技術(shù)滲透到提示注入

除了增加數據泄漏風(fēng)險外,生成式AI還在改寫(xiě)網(wǎng)絡(luò )攻擊的游戲規則。傳統黑客攻擊通常需要攻擊者耐心滲透系統,探索內部環(huán)境,生成式AI徹底顛覆了傳統攻擊模式。攻擊者無(wú)需再耗時(shí)滲透系統,只需向AI助手提問(wèn)(提示注入)即可獲取敏感信息或訪(fǎng)問(wèn)憑證,進(jìn)而實(shí)施橫向移動(dòng)。當前AI對網(wǎng)絡(luò )安全的六大核心挑戰包括:
  • 員工數據訪(fǎng)問(wèn)權限過(guò)度寬松

     

  • 敏感數據標識缺失或錯誤

     

  • 內部人員通過(guò)自然語(yǔ)言快速定位并外泄數據

     

  • 攻擊者利用AI挖掘權限升級路徑

     

  • 人工難以及時(shí)校準動(dòng)態(tài)權限

     

  • AI持續生成新型敏感數據

盡管這些風(fēng)險并非新問(wèn)題,但AI的介入極大地降低了信息泄露的門(mén)檻,使得攻擊者比以往更容易大規模*率利用企業(yè)的安全漏洞。

萬(wàn)模裸奔:部署開(kāi)源模型的風(fēng)險

隨著(zhù)開(kāi)源AI模型的興起,許多企業(yè)選擇部署如DeepSeek等模型,以期在本地環(huán)境中利用AI技術(shù)。然而,這種做法也帶來(lái)了新的安全隱患。
根據奇安信近日發(fā)布的資產(chǎn)測繪監測結果,在8971個(gè)Ollama(一款開(kāi)源大語(yǔ)言模型服務(wù)工具)大模型服務(wù)器中,有6449個(gè)活躍服務(wù)器,其中88.9%都“裸奔”在互聯(lián)網(wǎng)上,面臨數據泄漏、服務(wù)中斷和濫用等嚴重威脅。私有化部署開(kāi)源模型的風(fēng)險主要有以下幾點(diǎn):

1

暴露的服務(wù)器風(fēng)險

近期,有攻擊者通過(guò)自動(dòng)化腳本掃描暴露的DeepSeek服務(wù)器,惡意占用大量計算資源,導致部分用戶(hù)服務(wù)器崩潰。

2

缺乏安全認證

一些工具(例如Ollama)在默認情況下未提供安全認證功能,導致許多部署DeepSeek的用戶(hù)忽略了必要的安全限制,未對服務(wù)設置訪(fǎng)問(wèn)控制。這使得任何人都可以在未經(jīng)授權的情況下訪(fǎng)問(wèn)這些服務(wù),增加了數據泄露和服務(wù)中斷的風(fēng)險。

3

模型固件加密不足

在本地化部署中,模型核心邏輯需要嵌入硬件固件,以防止惡意篡改或逆向工程。如果缺乏適當的加密措施,攻擊者可能會(huì )利用這些漏洞,進(jìn)一步威脅系統的安全性。

4

數據合規性問(wèn)題

開(kāi)源模型的訓練數據來(lái)源復雜,可能涉及版權和隱私問(wèn)題(甚至導致嚴厲監管處罰的內容安全問(wèn)題)。企業(yè)在使用這些模型時(shí),需要確保數據來(lái)源合法,并在部署前進(jìn)行*的安全測試,以避免潛在的法律和安全風(fēng)險。

構筑新型AI防御體系的八大關(guān)鍵措施

要想降低AI帶來(lái)的數據安全風(fēng)險,CISO們必須夯實(shí)數據管理基礎,方可引入AI工具。在部署基于大模型的AI工具(無(wú)論是開(kāi)源還是閉源,云端還是本地私有部署)之前,企業(yè)需要明確所有敏感數據的存儲位置,并具備識別風(fēng)險、修復安全漏洞和優(yōu)化權限配置的能力。
企業(yè)部署DeepSeek等開(kāi)源模型時(shí),需重視和采取以下主動(dòng)防御措施:
  • 定期進(jìn)行安全審計:對模型和相關(guān)系統進(jìn)行定期的安全檢查,及時(shí)發(fā)現并修復潛在的漏洞。嚴格審核第三方AI模型的訓練數據來(lái)源與隱私政策,防范數據主權爭議。

     

  • 彌補AI安全技能鴻溝:鼓勵員工獲取AI安全相關(guān)認證(如CAISP、CISSP-AI),提升專(zhuān)業(yè)技能,同時(shí)通過(guò)模擬攻擊演練(如紅隊/藍隊演習)增強實(shí)戰能力。建立內部培訓計劃,開(kāi)發(fā)針對AI安全的技術(shù)培訓課程,涵蓋模型漏洞分析、數據隱私保護、算法偏見(jiàn)識別等內容,培養既有AI技術(shù)背景又有安全意識的復合型人才。

     

  • 加強員工安全意識培訓:AI大大提升了攻防兩端的能力(例如DeepSeek極大提升了*軟件和網(wǎng)絡(luò )釣魚(yú)的中文水平),這意味著(zhù)企業(yè)需要緊急追加預算提高員工的安全意識水平,確保他們了解并識別那些足可以假亂真的釣魚(yú)信息、AI幻覺(jué)信息,以及學(xué)習安全使用和管理AI工具。

     

  • 遵守數據合規性要求:在使用開(kāi)源模型時(shí),確保遵守相關(guān)的數據保護法律法規,避免侵犯用戶(hù)隱私或知識產(chǎn)權。

在A(yíng)I工具正式投入使用后,安全管理人員需要采取以下持續監控措施:
  • 權限動(dòng)態(tài)治理。實(shí)施*小權限原則,定期審計員工權限范圍,確保AI工具訪(fǎng)問(wèn)權限與用戶(hù)實(shí)際需求嚴格匹配,杜絕“權限閑置即風(fēng)險”的隱患。

     

  • 數據智能分類(lèi)。通過(guò)自動(dòng)化工具全域掃描敏感數據,建立精細化標簽體系,為數據防泄露(DLP)策略提供可執行的分類(lèi)基準。

     

  • 人機行為監控。構建AI操作審計機制,實(shí)時(shí)監測異常提示詞(Prompts)、文件訪(fǎng)問(wèn)模式等行為特征。例如,某員工若頻繁要求AI匯總客戶(hù)清單并關(guān)聯(lián)財務(wù)數據,系統需立即觸發(fā)告警。

     

  • 影子AI可視化。通過(guò)CASB(云訪(fǎng)問(wèn)安全代理)監控數百個(gè)AI應用,識別高風(fēng)險工具并建立禁用清單(如金融行業(yè)100%屏蔽未授權AI)。

生成式AI快速普及帶來(lái)的數據安全威脅正在引發(fā)一場(chǎng)企業(yè)網(wǎng)絡(luò )安全革命,導致企業(yè)安全體系的大規模范式轉移。CISO必須意識到:當AI工具能瞬間調用全網(wǎng)數據時(shí),傳統的靜態(tài)防御體系已形同虛設。唯有將安全文化、數據治理、權限管控與行為分析深度耦合,方能駕馭AI這把“效率與風(fēng)險并存的大殺器”。要想因對包括影子AI在內的生成式AI帶來(lái)的數據安全危機,CISO亟需開(kāi)展一場(chǎng)融合技術(shù)、管理與文化的系統性變革。

 

Image
Image
版權所有:山西科信源科技股份有限公司
咨詢(xún)熱線(xiàn):0351-4073466?
地址:(北區)山西省太原市迎澤區新建南路文源巷24號文源公務(wù)中心5層
? ? ? ? ? ?(南區)太原市小店區南中環(huán)街529 號清控創(chuàng )新基地A座4層
Image
?2021 山西科信源信息科技有限公司 晉ICP備15000945號 技術(shù)支持 - 資??萍技瘓F