50693 微軟們掉進大模型安全漩渦

          服務(wù)熱線:400-858-9000 咨詢/投訴熱線:18658148790
          國內(nèi)專業(yè)的一站式創(chuàng)業(yè)服務(wù)平臺
          微軟們掉進大模型安全漩渦
          06/24
          大模型奔向市場時的安全問題悄然顯現(xiàn)。
          本文來自于微信公眾號“鋅產(chǎn)業(yè)”(ID:xinchanye2021),作者:山竹,投融界經(jīng)授權(quán)發(fā)布。

          大模型的安全問題正在悄悄逼近。

          就在全球都在因大模型而狂歡時,大模型的安全問題也隨之來臨。

          不過,科技發(fā)展向來是一個不可逆的過程。

          即便在GPT-4發(fā)布后不久,就有上千位科學家、科技大佬在去年3月簽署了警惕AI發(fā)展的公開信,之后又有OpenAI、DeepMind、Anthropic三大大模型團隊掌門人聯(lián)合300多位科學家再度署名發(fā)布警惕AI發(fā)展的公開信,但這并沒有改變AI大勢。

          2023年全球科技領(lǐng)域的關(guān)鍵詞是“百模大戰(zhàn)”,2024年這一關(guān)鍵詞已經(jīng)是“大模型降價”。

          前者揭示了關(guān)于大模型的技術(shù)競爭水深火熱,后者則預示著大模型產(chǎn)業(yè)落地已經(jīng)正式啟航。

          然而,就在科技巨頭大模型產(chǎn)品發(fā)布最集中、連在大模型領(lǐng)域研究略顯滯后的蘋果也上車了大模型的這個月里,大模型奔向市場時的安全問題悄然顯現(xiàn)。

          01

          微軟“延畢”AI核心功能

          還記得在前不久的微軟Build大會上,微軟用來硬剛蘋果Mac的“Copilot+PC”嗎?

          當時在發(fā)布會上關(guān)于人工智能最亮眼的一項功能是一個名為“Recall”的,查找你之前在電腦上的任意操作的功能。

          Recall的工作原理是,在用戶授權(quán)后,PC通過本地的端側(cè)大模型以快照形式記憶用戶每天電腦的使用情況,并在你想要回溯的時候,通過滾動時間軸找到當時的操作頁面。

          有點類似辦公軟件中的歷史版本回溯功能,不同之處在于,基于大模型,現(xiàn)在你可以對任意軟件、任意時間點進行快速回溯。

          從后來微軟官方博客中公布和外媒曝出的消息來看,微軟這一功能此前是在內(nèi)部秘密研發(fā),正式發(fā)布時甚至只在微軟內(nèi)部進行了測試,沒有在Windows Insider進行公測。

          Windows Insider計劃是微軟2014年10月為Windows 10推出的一個公測計劃,這一計劃一直被微軟沿用至今,發(fā)展成了微軟Windows系統(tǒng)功能更新的一個公測社區(qū)。

          或許是AI PC勢頭太猛,微軟有些著急,本該先在Windows Insider公測的Recall功能,在今年的Build大會上直接被微軟拿來做壓軸功能,甚至官宣了要在6月18日隨“Copilot+PC”一并上線。

          微軟們掉進大模型安全漩渦

          微軟Build大會舉辦于今年5月,意外發(fā)生在6月13日。

          這一天,美國眾議院國土安全委員會召開了一場關(guān)于網(wǎng)絡(luò)安全的聽證會,微軟是出席單位之一,微軟總裁Brad Smith稱,“微軟安全未來計劃(SFI)是比公司在人工智能布局更重要的工作?!?/span>

          值得注意的是,微軟SFI計劃的提出是在2023年11月,而Recall立項是在微軟安全改革計劃SFI提出之前,這就讓Recall陰差陽錯地跳過了SFI,秘密研發(fā)了下去,直到最終發(fā)布。

          不過,人工智能的安全問題早在2023年年初就已經(jīng)在硅谷得到了重視,甚至已經(jīng)上升為一個重要的社會議題,Recall功能在官宣發(fā)布后,外媒關(guān)于Recall帶來的隱私安全問題進行了頗多質(zhì)疑。

          這就有了微軟6月13日在官方博客上表示,Recall將不會隨“Copilot+PC”在6月18日上線,而是先進入到Windows Insider公測階段。

          微軟推遲Recall正式上線,嚴格意義上來說,算是微軟一次在功能上線前的緊急叫停,而接下的公測,一方面可以讓微軟看到這一功能是否存在安全漏洞,另一方面也可以通過公測看到社會層面對于這一功能的真實反饋。

          要知道,在Recall出現(xiàn)之前,AI PC稱得上“大模型”的功能還是智能語音、協(xié)同辦公,以及系統(tǒng)層面的改善,沒有一個拿得出手、顛覆用戶觀感的新功能。

          美國社會和政府層面給微軟的壓力,讓微軟對這一功能的隱私安全問題再次有了擔憂,“延畢”Recall,成了緩解壓力的一個折中的手段。

          02

          蘋果AI不敢進歐盟

          同樣遭受到質(zhì)疑的,還有美國另一家科技巨頭,蘋果。

          蘋果原本在大模型的領(lǐng)域研發(fā)上并不激進,甚至略顯滯后,在今年WWDC 2024上官宣啟用大模型,搞出一個Apple Intelligence時,還是借了OpenAI的助力。

          與微軟類似的是,蘋果也是在大模型上線之前,官宣拿到緊急撤退自查。

          就在蘋果對外發(fā)布iOS 18及Apple Intelligence后不久,有消息傳出,Apple Intelligence今年或?qū)⒉粫跉W盟地區(qū)上線。

          隨后,蘋果證實了這一消息,并稱,之所以如此,是因為對歐盟DMA要求蘋果允許第三方公司與其服務(wù)可以進行互聯(lián)互通、互操作的擔憂。

          這就意味著,要想進入歐盟,蘋果就無法完全將Apple Intelligence的隱私安全性掌握在自己的手中,這是蘋果所不能容忍的。

          這里值得一提的是歐盟的DMA。

          DMA,即《數(shù)字市場法案》,是歐盟在2024年3月7日正式落地生效的、用于狙擊科技巨頭壟斷問題的一項法案。

          該項法案將蘋果、谷歌、微軟、亞馬遜等一眾科技巨頭定義為“gatekeeper”,要求這些科技巨頭在數(shù)據(jù)訪問、數(shù)據(jù)共享、隱私保護在內(nèi)的22項核心產(chǎn)品與服務(wù)上進行整改。

          蘋果此前曾允許將第三方瀏覽器設(shè)置為默認瀏覽器,正是為了應對這一法案做出的調(diào)整。

          嚴格意義上來說,DMA針對的是科技巨頭的壟斷問題,但蘋果一直賴以維系的是閉環(huán)生態(tài)為硬件產(chǎn)品帶來的干凈體驗,類似默認瀏覽器這類權(quán)限的逐步開放,意味著蘋果閉環(huán)生態(tài)在歐盟將被打開一個缺口。

          尤其是今年蘋果將大模型提上日程,Apple Intelligence進入落地階段,在首限D(zhuǎn)MA的同時,歐盟還有著全球最嚴格的數(shù)據(jù)保護條例GDPR。

          在此之前,包括蘋果、谷歌、微軟等一眾科技巨頭,都曾在歐盟因數(shù)據(jù)安全和隱私問題遭受過數(shù)億,乃至數(shù)十億歐元的巨額罰款。

          就在今年3月,谷歌就曾在法國因違規(guī)使用當?shù)匦侣労统霭鏅C構(gòu)的數(shù)據(jù)訓練大模型,拿到了一張2.5億歐元(約19.7億元)的罰單。

          Apple Intelligence今年不進歐盟,除了受限D(zhuǎn)MA法案,顯然也有著隱私安全因素的考量。

          03

          高效、安全難兼得

          一個全新業(yè)態(tài)到來之時,初期的野蠻生長往往是一種必然,大模型當然也不例外。

          從以深度學習為計算范式的人工智能,到如今以生成式AI、大模型為計算范式的人工智能,我們看到了人工智能已經(jīng)是一個不可逆的趨勢。

          然而,隨著大模型進入產(chǎn)業(yè),尤其是在進入消費市場時,面對數(shù)億十億計、沒有專業(yè)的隱私安全分析能力的普通消費者,如何在標準、規(guī)范,乃至政策監(jiān)管層面為普通消費者擋去這一時代洪流下的安全隱患,就成了一個最具挑戰(zhàn)的任務(wù)。

          從這個角度來看,無論是微軟Recall在美國社會層面遭受到的安全質(zhì)疑,還是蘋果Apple Intelligence進入歐盟受到的阻力,都算是一件好事。

          最近還有另外兩件事兒,鋅產(chǎn)業(yè)從中看到了企業(yè)對于大模型的隱私安全在技術(shù)側(cè)和產(chǎn)品側(cè)的主動防御。

          其一是前OpenAI聯(lián)合創(chuàng)始人、首席科學家Ilya Sutskever最近離職創(chuàng)業(yè)了,做了一家名為Safe Super intelligenceinc(SSI)的公司。

          此前,OpenAI內(nèi)部一直分為激進派和保守派兩大派系,激進派認為應該通過資本手段全力推進大模型產(chǎn)品迭代演進,保守派則認為更應關(guān)注大模型的安全性和可解釋性。

          Ilya是OpenAI保守派的代表人物,在去年那場宮斗大戲后,Ilya最終在今年5月官宣離職,隨后如愿拉團隊單獨成立了一個聚焦大模型安全的公司,Ilya稱,新團隊將只關(guān)注安全的超級智能。

          由這一理念驅(qū)動的大模型技術(shù)研究路徑,以及未來可能由SSI或受SSI影響的其他團隊創(chuàng)造出的、將隱私安全貫徹到超級智能體中的方法論,將會成為大模型未來產(chǎn)業(yè)化過程中的一項配套基礎(chǔ)設(shè)施。

          其二是在今年HDC 2024上,華為官方提到了搭載盤古大模型的純血鴻蒙系統(tǒng)的一個安全理念——從以往的授權(quán)應用權(quán)限,調(diào)整為授權(quán)數(shù)據(jù)權(quán)限。

          以某個APP注冊時需要使用用戶的圖庫權(quán)限,現(xiàn)在在純血鴻蒙上則只需要提供某一張圖片的權(quán)限,提供這張圖片的使用權(quán)。

          另外,在分享某個文件給好友時,通過加密,這一文件將只有被分享好友可以看到,二次轉(zhuǎn)發(fā)后,其他人也無法看到文件內(nèi)容。

          作為新一代生產(chǎn)力工具,大模型帶來的高效性和便利性已經(jīng)不言而喻,對于這一技術(shù)的學習、應用,也成了一種“不得不”。

          微軟和蘋果遇到的困境為所有人提了個醒,如何兼顧大模型的高效性和安全性,將會是這個時代接下來一個永恒的主題。

          微軟 大模型 安全
          評論
          還可輸入300個字
          專欄介紹
          鋅產(chǎn)業(yè)
          20篇文章
          用技術(shù)范式,給未來一個解釋。
          +關(guān)注
          400-858-9000
          免費服務(wù)熱線
          kefu@trjcn.com
          郵箱
          09:00--20:00
          服務(wù)時間
          18658148790
          投訴電話
          投融界App下載
          官方微信公眾號
          官方微信小程序
          Copyright ? 2024 浙江投融界科技有限公司(m.heinleelectric.com) 版權(quán)所有 | ICP經(jīng)營許可證:浙B2-20190547 | 浙ICP備10204252號-1 | 浙公網(wǎng)安備33010602000759號
          地址:浙江省杭州市西湖區(qū)留下街道西溪路740號7號樓301室
          浙江投融界科技有限公司trjcn.com版權(quán)所有 | 用戶協(xié)議 | 隱私條款 | 用戶權(quán)限
          應用版本:V2.7.8 | 更新日期:2022-01-21
           安全聯(lián)盟
          在線客服
          手機APP
          微信訂閱
          青青青青日韩无码一区二区,任我爽橹在线视频精品一,欧美日韩国产在线人成,亚洲AV人无码激艳猛片服务器 人妻丰满熟妇岳AV无码区HD