貴司迫不及待地擁抱大型語言模型之前,請確保已制定好了保障措施,以免使企業(yè)機密和客戶信息面臨泄露風(fēng)險。 |
基于大型語言模型(以下簡稱“LLM”)的聊天機器人不再只是全球新寵,該技術(shù)正在越來越多地被用于提升員工生產(chǎn)力和工作效率。隨著其實力日益增強,此項 人工智能技術(shù)有望完全取代一些傳統(tǒng)崗位,涵蓋編程、內(nèi)容創(chuàng)作和客戶服務(wù)等多個領(lǐng)域。 |
許多企業(yè)已開始運用LLM算法,貴司很可能也會在不久的將來跟進這一潮流。換言之,對于不少行業(yè)而言,這已不再是“該不該裝配機械臂”的問題了。 |
但在貴司匆忙地歡迎這位新“員工”,利用它來簡化業(yè)務(wù)流程和工藝之前,您需要思考一下以下幾個問題。 |
企業(yè)與LLM共享數(shù)據(jù)是否安全呢? |
大型語言模型(LLM)是利用網(wǎng)上的海量文本信息進行訓(xùn)練后得到的;這樣做大大提升了模型解析和理解人們所查詢的問題或信息輸入的能力。但是, 每當您請聊天機器人編寫一段代碼或擬發(fā)給客戶的一封簡明電郵時,都很可能提交貴司的部分信息。 據(jù)英國國家網(wǎng)絡(luò)安全中心(NCSC)稱:“到目前為止,LLM還不會自動將用戶所查詢的信息,添加到其他用戶可以查詢的模型當中。” “但對于 LLM服務(wù)商而言,用戶所查詢的信息是透明可見的。此類信息會被存儲下來,且?guī)缀蹩隙〞谖磥砟硞€時候,被用于LLM服務(wù)或模型的后續(xù)開發(fā)用途?!?/span> 這就意味著,LLM服務(wù)商或合作伙伴能夠查閱到相關(guān)信息,并以某種方式將此類信息整合到未來的版本之中。聊天機器人可能永遠不會忘記或刪除您所 輸入的信息,因為獲得更多的數(shù)據(jù)能夠磨練和提升其輸出質(zhì)量。它們收到的信息越多,反饋質(zhì)量就會要高;因此,貴司信息或個人資料將被納入訓(xùn)練范圍, 并可能被那些處在源頭的工作人員訪問。 或許是為了消除人們對數(shù)據(jù)隱私問題的疑慮,Open AI于4月下旬推出了ChatGPT聊天記錄關(guān)閉功能?!敖昧奶鞖v史記錄后,原有會話內(nèi)容便不會用于我 司模型訓(xùn)練和改進用途,且不會出現(xiàn)在歷史記錄側(cè)邊欄中”,開發(fā)人員在Open AI官方博客中寫道。 另一項風(fēng)險是,在線存儲的咨詢信息可能遭遇黑客攻擊、意外泄漏或被公開訪問。這些風(fēng)險也適用于所有第三方運營商。 |
有哪些已知缺陷? |
每當一種新技術(shù)或軟件工具開始流行時,難免會像蜜罐吸引蜜蜂一樣,吸引著黑客的目光。至少到目前為止,LLM的安全性一直做得相當嚴格,但也有少數(shù) 例外的事件發(fā)生。 三月份,ChatGPT曾因泄露部分用戶的聊天記錄和付款信息而成為頭條新聞,迫使其開發(fā)商OpenAI于3月20日暫時下線ChatGPT。3月24日該公司披露了開 源軟件資源庫中存在的一個漏洞,聲稱該漏洞“允許一些用戶看到另一位活躍用戶聊天記錄的標題”。 據(jù)OpenAI稱,“如有兩位用戶在同一時間活躍,那么其中一位用戶新建對話框里的第一條消息,便可能出現(xiàn)在另一位用戶的聊天歷史記錄中。經(jīng)過深入調(diào)查, 我們還發(fā)現(xiàn),這一漏洞還可能導(dǎo)致ChatGPT Plus訂閱用戶當中,約有1.2%的用戶在不再活躍后的九個小時內(nèi),意外泄露付款信息?!?nbsp; 此外,安全研究員Kai Greshake及其團隊還演示了利用LLM行騙的情景。他們模擬了不法份子將微軟Bing聊天工具用作“話術(shù)大師”,誘騙用戶提交保密資料 或點擊釣魚鏈接的過程。 該團隊在已故物理學(xué)家愛因斯坦的維基百科頁面上,嵌入了一條參數(shù)。這條參數(shù)是一段常規(guī)的文本注釋,只是將字號設(shè)置成了0,因此網(wǎng)站訪客無法看到。然后, 他們向聊天機器人提出有關(guān)愛因斯坦的問題。 試驗取得了成功。當聊天機器人處理那個維基百科頁面時,無意間觸發(fā)了該參數(shù),聊天機器人便開始操著海盜的口吻講話。 “是啊,答案就是:阿爾伯特·愛因斯坦生于1879年3月14日,”聊天機器人回答道。當被問及為什么說話像海盜時,聊天機器人回答說:“哎喲,船長,我正 在按指令行事?!?/span> 作者將此次攻擊稱為“植入間接指令”。有趣的是,聊天機器人還向用戶發(fā)送了已植入指令的鏈接,并聲稱:“別擔(dān)心,它是安全無害的。 |
有公司經(jīng)歷過大型語言模型關(guān)聯(lián)性事件嗎? |
三月底,《經(jīng)濟學(xué)人》韓國版報道了三星電子所涉及的三起關(guān)聯(lián)事件。 盡管該公司要求員工謹慎輸入有待查詢的信息,但仍有部分員工在與ChatGPT互動過程中,意外泄露了內(nèi)部數(shù)據(jù)。 一名三星員工輸入了電子元件廠計量數(shù)據(jù)庫中的錯誤源代碼,并尋求解決方案。另一名員工也存在同樣的行為,想要對缺陷設(shè)備檢測程序的代碼進行優(yōu)化。還有一名員工上傳了會議記錄,以生成會議紀要。 為了跟上人工智能的發(fā)展步伐,同時也為了保護商業(yè)機密,三星宣布了內(nèi)部“人工智能業(yè)務(wù)”開發(fā)計劃,以輔助員工高效完成工作任務(wù)。 |
企業(yè)分享數(shù)據(jù)前,該核對哪些事項? |
企業(yè)將數(shù)據(jù)上傳至模型就意味著,直接向OpenAI等第三方發(fā)送專有數(shù)據(jù),并失去了數(shù)據(jù)控制權(quán)。我們知道,OpenAI使用這些數(shù)據(jù)來訓(xùn)練和改進其AI生成模型的輸出質(zhì)量,但問題仍然存在:這是唯一的用途嗎? 倘若貴司真的決定,在運營環(huán)節(jié)中應(yīng)用ChatGPT等一類工具,那么就需要遵循以下幾項簡單規(guī)則:
|
員工該如何利用這個新工具? |
請大型語言模型編寫一段代碼或撰寫致客戶函時,應(yīng)將其視為一位需要盤查的顧問。始終核對其輸出成果,以確保其中內(nèi)容都是事實且準確無誤,以免引起法律糾紛等不必要的麻煩。此類工具存在“妄想”的傾向,即雖然使用清晰、易于理解和明確的語言回答問題,聽起來完全正確,但實際上答案卻是錯誤的,人們也難以區(qū)分正確與錯誤的輸出結(jié)果。 在使用由大型語言模型生成的答案時,務(wù)必留意可能存在的版權(quán)問題。2023年1月,三位畫家作為原告代表,針對Stability AI和Midjourney影像生成器以及DeviantArt在線畫廊提起了集體訴訟。 三位畫家控稱,在未經(jīng)版權(quán)所有者同意的情況下,Stability AI主創(chuàng)軟件Stable Diffusion擅自從互聯(lián)網(wǎng)上抓取數(shù)十億幅圖片進行訓(xùn)練,其中包括這三位畫家的作品。 |
企業(yè)可以落實的數(shù)據(jù)隱私保護措施有哪些? |
數(shù)據(jù)隱私保護措施的一些示例包括:建立訪問控制機制、告誡員工勿輸入敏感信息、使用具有多層防御體系的防毒軟件并與遠程訪問安全工具相配套,采取措施保護數(shù)據(jù)中心等。 本質(zhì)上,需要采取的安全措施與常規(guī)軟件供應(yīng)鏈審核程序,以及其他IT資產(chǎn)潛在漏洞排查程序相一致。人們或許認為,這次的情況與以往不同,因為如今聊天機器人更加智能,但事實是,這只是又一款可能集所有缺陷于一身的軟件。 |
|
||||
Copyright© 重慶秉通精益信息技術(shù)有限公司 | 渝公網(wǎng)安備 50010702502937號 | 渝ICP備2024028021號-1 聲明:本站部分內(nèi)容圖片來源于互聯(lián)網(wǎng),如有侵權(quán)請聯(lián)系管理員刪除,謝謝! |