面對人工智能這把雙刃劍,我們該如何把好“安全關”?鄔江興首先指出,AI算法模型存在“三不可”的基因缺陷,即不可解釋性、不可判識性以及不可推論性。
他認為,整個AI安全可分為內生安全問題和非內生安全問題,內生又分為個性問題和共性問題,當下,網絡內生安全問題正在全面挑戰(zhàn)當今世界生態(tài)系統底層驅動技術。網絡內生安全范式應當是AI可信應用系統理論發(fā)展方向,智能時代需要正確的理論方向,以確保AI技術的健康發(fā)展。
中國科學院院士馮登國談到,當前,人工智能技術已經從較為單一的算法發(fā)展階段跨越到了軟件、硬件與應用場景相結合的全方位、一體化的發(fā)展階段,AI算法的更新迭代,使得傳統安全分析技術無法適應人工智能領域出現的新算法和新模型。
馮登國表示,應對網絡空間安全形勢變化,需要更堅實、富有彈性的網絡空間安全保障體系。他從數據泄露、關基保護、深度偽造、錯誤信息涌現等角度解讀大模型伴生的安全風險和挑戰(zhàn),并從政策法規(guī)制定、前沿技術探索和創(chuàng)新能力提升三個維度思考應對之策。
綠盟科技集團董事長、總裁胡忠華直言,近年來持續(xù)加大在數據安全、人工智能等領域的創(chuàng)新投入。一方面,圍繞日志降噪、推理研判、自動化滲透攻擊三個安全實戰(zhàn)場景,持續(xù)迭代安全垂域大模型,通過提示詞工程構建安全專家思維鏈,并使用檢索增強、知識圖譜提升可信度和專業(yè)度,為用戶提供具備可落地的安全檢測、研判能力。
另一方面,持續(xù)加強技術研究與創(chuàng)新,從構建可信任的安全智能生態(tài)出發(fā),逐步構建“大模型+小模型”協同安全運營新體系,并在大模型安全性方向進行深入研究,發(fā)布了AI大模型安全威脅矩陣及風險評估工具,幫助用戶在自有模型時管理安全風險。
教育部信息技術新工科聯盟網絡空間安全工委會主任、杭州市人工智能學會副理事長胡瑞敏認為,在數據被列為第五大生產要素的今天,應對數據供不出、流不動、安全保障難等挑戰(zhàn),亟需構建一個面向數據要素化的數據生命周期安全防護體系。
胡瑞敏以數據安全風險事件為切入點,引出當前數據安全面臨的困境,即數據分級分類、可信確權以及數據安全利用,并進一步對其團隊在數據安全防護密碼技術領域的研究工作進行了介紹。
國家工業(yè)信息安全發(fā)展研究中心首席專家、數據安全所所長李俊指出,數據作為數字經濟時代的關鍵新興生產要素,保障數據安全已成為事關國家安全與經濟社會發(fā)展的重大問題。隨著新一代信息技術與制造業(yè)深度融合,工業(yè)企業(yè)數字化、網絡化、智能化加速推進,工業(yè)數據載體漏洞和后門、非受控運維、數據暴露面等數據安全風險日益突出。
違法和不良信息舉報電話: 舉報郵箱:報受理和處置管理辦法總機:86-10-87826688