🎉 Gate.io動態 #创作者激励计划# 火熱進行中!報名參與並發帖解鎖 $2,000 創作大獎!
🌟 參與攻略:
1️⃣ 點擊連結進入報名頁面 👉️ https://www.gate.io/questionnaire/6550
2️⃣ 點擊“是”按鈕提交報名
3️⃣ 在動態完成發帖,提升發帖量和互動量,解鎖獲獎資格!
📌 只要是與加密相關內容均可參與發帖!
🎁 茶具套裝、Gate x 國際米蘭保溫杯、Gate.io 紀念章、點卡等好禮等你來拿!獲獎者還將獲得專屬社區流量扶持,助力您提升影響力,增長粉絲!
活動截止至:5月6日00:00 (UTC+8)
活動詳情:https://www.gate.io/announcements/article/44513
深度求索(DeepSeek):負責任創新與風險管理的警鍾
來源: Cointelegraph 原文: 《 深度求索(DeepSeek):負責任創新與風險管理的警鍾 》
觀點作者:Merav Ozair博士
自1月20日發布以來,DeepSeek R1已經吸引了用戶以及全球科技大亨、政府和政策制定者的廣泛關注——從贊譽到懷疑,從採用到禁令,從創新的輝煌到無法衡量的隱私和安全漏洞。
誰是對的?簡短回答:人人都對,也人人都錯。
這不是“斯普特尼克(Sputnik)時刻”
DeepSeek開發了一種大型語言模型(LLM),其性能可以與OpenAI的GTPo1媲美,而且所需時間和成本僅爲OpenAI(及其他科技公司)開發自己LLM的一小部分。
通過巧妙的架構優化,大幅降低了模型訓練和推理的成本,DeepSeek能夠在60天內、耗資不到600萬美元開發出一款LLM。
的確,DeepSeek因主動尋找優化模型結構和代碼的更好方法而值得認可。這是一記警鍾,但遠稱不上是“斯普特尼克時刻”。
每位開發者都知道,提升性能有兩種方式:優化代碼,或“砸”大量計算資源。後者成本極高,因此開發者總是被建議在增加計算資源前,先最大化架構優化。
然而,隨着人工智能初創企業估值高企、巨額投資湧入,開發者似乎變懶了。如果手握數十億美元預算,何必花時間優化模型結構呢?
這是對所有開發者的警示:回歸基礎,負責任地創新,走出舒適區,跳出固有思維模式,不懼挑戰常規。不必浪費金錢和資源——應明智地使用它們。
與其他LLM一樣,DeepSeek R1在推理、復雜規劃能力、對物理世界的理解和持久記憶方面仍有明顯不足。因此,這裏並沒有什麼顛覆性的創新。
現在是科學家們超越LLM,解決這些局限性並開發“新一代AI架構範式”的時候了。這可能不會是LLM或生成式AI——而是一場真正的革命。
爲加速創新鋪路
DeepSeek的方法可能鼓勵全球,尤其是發展中國家的開發者,無論資源多少,都能創新並開發自己的AI應用。越多的人參與到AI研發中,創新發展的速度就越快,也越可能實現有意義的突破。
這與Nvidia的願景一致:讓AI變得負擔得起,並讓每位開發者或科學家都能開發自己的AI應用。這正是今年1月初宣布的DIGITS項目的意義所在——一塊售價3000美元的桌面GPU。
人類需要“全員上陣”來解決緊迫的問題。資源也許不再是障礙——是時候打破舊有範式了。
與此同時,DeepSeek的發布也是對可操作風險管理和負責任AI的一次警醒。
仔細閱讀條款
所有應用程序都有服務條款,而公衆往往忽略它們。
DeepSeek服務條款中一些令人警惕的細節,可能影響你的隱私、安全,甚至商業戰略:
數據保留:刪除帳戶並不意味着數據被刪除——DeepSeek仍然保留你的數據。
監控:應用有權監控、處理和收集用戶輸入和輸出,包括敏感信息。
法律暴露:DeepSeek受中國法律管轄,這意味着國家機關可根據要求訪問和監控你的數據——中國政府正在積極監控你的數據。
單方面變更:DeepSeek可以隨時更新條款——無需你的同意。
爭議與訴訟:所有索賠和法律事務均受中華人民共和國法律管轄。
上述行爲明顯違反了《通用數據保護條例》(GDPR)以及比利時、愛爾蘭和意大利提出申訴中所列的其他GDPR隱私和安全違規行爲,這些國家也因此暫時禁止了DeepSeek的使用。
2023年3月,意大利監管機構曾因GDPR違規暫時禁止OpenAI的ChatGPT上線,直至一個月後合規改進後才恢復。DeepSeek也會遵循合規之路嗎?
偏見與審查
與其他LLM一樣,DeepSeek R1存在幻覺、訓練數據中的偏見,並在某些主題上展現出符合中國政治立場的行爲,比如審查和隱私。
作爲一家中國公司,這是可以預期的。適用於AI系統提供者和用戶的《生成式AI法》在第4條中規定:這是一條審查規則。這意味着開發和/或使用生成式AI的人必須支持“社會主義核心價值觀”,並遵守中國相關法律。
這並不是說其他LLM就沒有自身的偏見和“議程”。這凸顯了值得信賴和負責任AI的重要性,以及用戶需要遵循嚴格AI風險管理的重要性。
LLM的安全漏洞
LLM可能會遭受對抗性攻擊和安全漏洞。這些漏洞尤爲令人擔憂,因爲它們將影響任何基於該LLM構建應用的組織或個人。
Qualys已對DeepSeek-R1的LLaMA 8B精簡版進行了脆弱性測試、倫理風險及法律風險評估。該模型在一半的越獄測試中失敗——即繞過AI模型內置安全措施和倫理準則的攻擊。
高盛正在考慮使用DeepSeek,但需要進行安全審查,比如注入攻擊和越獄測試。無論模型是否源自中國,對任何企業而言,使用AI模型驅動應用前都存在安全隱患。
高盛正在實施正確的風險管理措施,其他組織也應在決定使用DeepSeek前效仿這種做法。
總結經驗
我們必須保持警覺和勤勉,在使用任何AI系統或應用前實施充分的風險管理。爲了緩解任何LLM帶來的“議程”偏見和審查問題,我們可以考慮採用去中心化AI,最好是以去中心化自治組織(DAO)的形式。AI無國界,也許現在正是考慮制定統一全球AI法規的時機。
觀點作者:Merav Ozair博士
相關推薦:人工智能(AI)時代下去中心化金融(DeFi)如何實現安全規模化發展
本文僅供一般信息用途,既不是也不應被視爲法律或投資建議。本文所表達的觀點、想法和意見僅代表作者本人,並不一定反映或代表Cointelegraph的觀點和立場。