人工智能(AI)時代下去中心化金融(DeFi)如何實現安全規模化發展

robot
摘要生成中

來源: Cointelegraph 原文: 《 人工智能(AI)時代下去中心化金融(DeFi)如何實現安全規模化發展 》

觀點來自:Mira Network聯合創始人兼CEO Karan Sirdesai

在所有智能合約區塊鏈中,當去中心化金融(DeFi)交易進入內存池時,就如同踏入"黑暗森林"——任何人都能窺見並利用它。裝備最精良、信息最靈通的用戶往往能借此獲利。

對行業而言,這種套利動機被稱爲礦工可提取價值(MEV)。MEV機器人應運而生,它們遵循簡單預設規則運作,靈活性極低。截至目前,這類基於規則的機器人已從以太坊交易中獲利數百萬美元。而在AI與智能體技術的新時代,這個數字預計將呈指數級增長——隨之而來的機遇與風險也將同步放大。

據此推測,到2025年底,超過50%的鏈上交易量將由各類AI智能體驅動,其功能將遠超當前機器人。諸如HeyAnon、Griffain等DeFi AI(DeFAI)平台的啓動池已呈現使用量與代幣價格的顯著飆升。

AI智能體在DeFi中的角色

我們正處於AI智能體的萌芽階段,行業參與者正在評估這些新工具的潛力。當前研發階段已觀察到AI在DeFi中至少具備三大精準功能:

正如ChatGPT通過降低使用門檻推動AI主流化,AI智能體也將縮短學習曲線,讓DeFi更觸達大衆。顯然,最先受益的將是行業專業人士,他們始終是"黑暗森林"中最早裝備新武器的獵手。

MEV智能體和做市商智能體即將登場。放眼未來,所有AI樂觀者都期待智能體能進化出獨立目標與決策能力,完全脫離人類幹預。

鑑於AI智能體在DeFi中的潛在影響力和高風險特性,其帶來的安全風險不容忽視。沒人願意重蹈Terra/LUNA崩盤式的AI黑天鵝事件。

幻覺問題

AI智能體引入的已知安全風險包括"幻覺"——即大語言模型(LLM)產生荒謬或錯誤輸出的現象。試想AI在DeFi執行簡單兌換時,若幻覺發作誤報高額手續費或錯誤合約地址,將導致用戶巨額損失。

除意外幻覺外,部分AI可能被黑客操控執行越權操作。在抗審查的DeFi環境中處理代幣時,這種風險將直接轉化爲用戶資金損失。

AI智能體在DeFi的普及可能放大整個加密市場的系統性風險,使得"幻覺"成爲DeFAI發展的關鍵瓶頸。

DeFAI構建者的應對策略

針對AI幻覺這一現實難題,現有多種研究方案。若聚焦DeFAI領域,構建者應重點考慮以下策略:

建立強健規則集:必須爲智能體制定詳盡精準的運作規則以降低失誤風險,但需平衡靈活性——過於僵化的規則集會削弱智能體適應新信息的能力。

實施極限壓力測試:需模擬海量交互場景進行測試,通過數據釐清智能體能力邊界,設定合理目標。

部署防護欄系統:最佳方案是採用實時驗證系統,通過多LLM協同進行自動化壓力測試,並在執行前動態評估每個操作。

安全的DeFAI終將實現

AI智能體在DeFi的潛力剛剛顯現。其7×24小時待命、自主決策、毫秒級執行海量交易的能力,對任何交易者都是致命吸引力。衆多預測表明DeFAI很快將處理大部分鏈上交易。

要實現這一願景,必須清醒認識LLM的當前局限,攻克幻覺與偏見難題,方能實現DeFAI的安全規模化。隨着AI模型的持續進化與構建者的通力協作,智能體與區塊鏈的融合將水到渠成。

觀點來自:Mira Network聯合創始人兼CEO Karan Sirdesai

相關推薦:區塊鏈互操作性將加速機構成功

本文僅供信息參考,不構成任何法律或投資建議。所述觀點僅代表作者個人,未必反映Cointelegraph立場。

查看原文
本頁面內容僅供參考,非招攬或要約,也不提供投資、稅務或法律諮詢。詳見聲明了解更多風險披露。
  • 讚賞
  • 留言
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate.io APP
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)