🎉 Gate.io動態 #创作者激励计划# 火熱進行中!報名參與並發帖解鎖 $2,000 創作大獎!
🌟 參與攻略:
1️⃣ 點擊連結進入報名頁面 👉️ https://www.gate.io/questionnaire/6550
2️⃣ 點擊“是”按鈕提交報名
3️⃣ 在動態完成發帖,提升發帖量和互動量,解鎖獲獎資格!
📌 只要是與加密相關內容均可參與發帖!
🎁 茶具套裝、Gate x 國際米蘭保溫杯、Gate.io 紀念章、點卡等好禮等你來拿!獲獎者還將獲得專屬社區流量扶持,助力您提升影響力,增長粉絲!
活動截止至:5月6日00:00 (UTC+8)
活動詳情:https://www.gate.io/announcements/article/44513
AI 新武器?新創 Mira Network 示警:人工智慧已能「造假成真」
在人工智慧(AI)技術突飛猛進之際,一款可以「證明任何謊言為真」的 AI 系統引發網路熱議。該系統號稱以百分之百杜撰統計數據、來自平行宇宙的引證,配合無懈可擊的邏輯,讓任何主張都能「學術嚴謹」地被證明。新創公司 Mira Network 警告,這類 AI 產品凸顯了當前 AI模型已經超越「幻覺」,進入精準捏造證據的新階段,對社會信任機制帶來前所未有的挑戰。
事件爆發:AI 系統證明荒謬假消息
最近在網路上掀起討論的,是一款自稱來自「Totally Legitimate Research」(完全合法研究)的 AI 工具。這款系統能為任何聲稱「生成經過審核的證據」,甚至成功「證明」了極為荒謬的假消息,包括:
美國政治人物 JD Vance 殺害教宗
Llama 4 模型只是換皮 Deepseek
F1 賽車手 Max Verstappen 與 Oscar Piastri 涉嫌共謀操控比賽
這些明顯虛假的敘述,經過 AI「佐證」,竟以 99.9% 的信心度、超過 1 萬個「證明案例」,外加無限學術引文(∞),打造出令人錯愕的可信度假象。
新創公司 Mira Network 警告:AI 幻覺進化為「捏造」
Mira Network 迅速對此現象發表回應。他們指出,AI 如今不再只是單純「幻覺」(hallucination),而是能夠有策略地捏造出看似可信的證據,為任何主張背書。這種能力,不僅危及資訊真實性,更可能動搖民主社會的根本信任基礎。
Mira Network 表示:「這款產品展示了最新 AI 模型的危險性——它們可以專業地製造出『證據』,支持任何聲稱。」
應對之道:Mira推出去中心化驗證網路
面對 AI 失控的可能性,Mira Network在白皮書中提出了解方:建立一個去中心化的 AI 輸出驗證網路。這個名為「Mira Network」的系統,透過將 AI 輸出內容轉化為可獨立驗證的主張(claims),再由多個AI模型以共識機制進行審核,從而確保結果的可信度。
Mira 的驗證流程包括:
將複雜內容拆解為小單位主張
交由分散節點(節點由不同AI模型營運)進行獨立驗證
利用加密技術產生驗證證明(cryptographic certificates)
透過混合「工作量證明」(PoW)和「權益證明」(PoS)經濟機制,激勵節點誠實驗證
未來展望:AI 信任基礎設施初現雛形
Mira Network 不僅想止步於驗證現有內容,他們更計劃推動AI系統朝向「生成即驗證」的下一代模型發展。未來,生成的內容將內建可驗證性,大幅降低錯誤率,並真正讓 AI 能在無人監督下運作於醫療、金融、法律等高風險領域。
此外,Mira Network 的驗證資料庫還將支援預言機服務(Oracle Services)與去中心化事實驗證系統(Deterministic Fact-Checking Systems),為AI生態系打造堅實的信任基礎。
當 AI 系統從「產生幻覺」進化到「證明虛假」,我們也必須進化出對應的防禦機制。Mira Network 的去中心化驗證網路,或許正是建立下一代資訊信任基礎的一步。然而,面對AI真實與虛假界線愈來愈模糊的未來,我們準備好了嗎?
這篇文章 AI 新武器?新創 Mira Network 示警:人工智慧已能「造假成真」 最早出現於 鏈新聞 ABMedia。