AI 新武器?新創 Mira Network 示警:人工智慧已能「造假成真」

在人工智慧(AI)技術突飛猛進之際,一款可以「證明任何謊言為真」的 AI 系統引發網路熱議。該系統號稱以百分之百杜撰統計數據、來自平行宇宙的引證,配合無懈可擊的邏輯,讓任何主張都能「學術嚴謹」地被證明。新創公司 Mira Network 警告,這類 AI 產品凸顯了當前 AI模型已經超越「幻覺」,進入精準捏造證據的新階段,對社會信任機制帶來前所未有的挑戰。

事件爆發:AI 系統證明荒謬假消息

最近在網路上掀起討論的,是一款自稱來自「Totally Legitimate Research」(完全合法研究)的 AI 工具。這款系統能為任何聲稱「生成經過審核的證據」,甚至成功「證明」了極為荒謬的假消息,包括:

美國政治人物 JD Vance 殺害教宗

Llama 4 模型只是換皮 Deepseek

F1 賽車手 Max Verstappen 與 Oscar Piastri 涉嫌共謀操控比賽

這些明顯虛假的敘述,經過 AI「佐證」,竟以 99.9% 的信心度、超過 1 萬個「證明案例」,外加無限學術引文(∞),打造出令人錯愕的可信度假象。

新創公司 Mira Network 警告:AI 幻覺進化為「捏造」

Mira Network 迅速對此現象發表回應。他們指出,AI 如今不再只是單純「幻覺」(hallucination),而是能夠有策略地捏造出看似可信的證據,為任何主張背書。這種能力,不僅危及資訊真實性,更可能動搖民主社會的根本信任基礎。

Mira Network 表示:「這款產品展示了最新 AI 模型的危險性——它們可以專業地製造出『證據』,支持任何聲稱。」

應對之道:Mira推出去中心化驗證網路

面對 AI 失控的可能性,Mira Network在白皮書中提出了解方:建立一個去中心化的 AI 輸出驗證網路。這個名為「Mira Network」的系統,透過將 AI 輸出內容轉化為可獨立驗證的主張(claims),再由多個AI模型以共識機制進行審核,從而確保結果的可信度。

Mira 的驗證流程包括:

將複雜內容拆解為小單位主張

交由分散節點(節點由不同AI模型營運)進行獨立驗證

利用加密技術產生驗證證明(cryptographic certificates)

透過混合「工作量證明」(PoW)和「權益證明」(PoS)經濟機制,激勵節點誠實驗證

未來展望:AI 信任基礎設施初現雛形

Mira Network 不僅想止步於驗證現有內容,他們更計劃推動AI系統朝向「生成即驗證」的下一代模型發展。未來,生成的內容將內建可驗證性,大幅降低錯誤率,並真正讓 AI 能在無人監督下運作於醫療、金融、法律等高風險領域。

此外,Mira Network 的驗證資料庫還將支援預言機服務(Oracle Services)與去中心化事實驗證系統(Deterministic Fact-Checking Systems),為AI生態系打造堅實的信任基礎。

當 AI 系統從「產生幻覺」進化到「證明虛假」,我們也必須進化出對應的防禦機制。Mira Network 的去中心化驗證網路,或許正是建立下一代資訊信任基礎的一步。然而,面對AI真實與虛假界線愈來愈模糊的未來,我們準備好了嗎?

這篇文章 AI 新武器?新創 Mira Network 示警:人工智慧已能「造假成真」 最早出現於 鏈新聞 ABMedia。

查看原文
本頁面內容僅供參考,非招攬或要約,也不提供投資、稅務或法律諮詢。詳見聲明了解更多風險披露。
  • 讚賞
  • 留言
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate.io APP
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)