🎉 Gate.io动态 #创作者激励计划# 火热进行中!报名参与并发帖解锁 $2,000 创作大奖!
🌟 参与攻略:
1️⃣ 点击链接进入报名页面 👉️ https://www.gate.io/questionnaire/6550
2️⃣ 点击“是”按钮提交报名
3️⃣ 在动态完成发帖,提升发帖量和互动量,解锁获奖资格!
📌 只要是与加密相关内容均可参与发帖!
🎁 茶具套装、Gate x 国际米兰保温杯、Gate.io 纪念章、点卡等好礼等你来拿!获奖者还将获得专属社区流量扶持,助力您提升影响力,增长粉丝!
活动截止至:5月6日00:00 (UTC+8)
活动详情:https://www.gate.io/announcements/article/44513
AI 新武器?新创 Mira Network 示警:人工智慧已能「造假成真」
在人工智慧(AI)技术突飞猛进之际,一款可以「证明任何谎言为真」的 AI 系统引发网路热议。该系统号称以百分之百杜撰统计数据、来自平行宇宙的引证,配合无懈可击的逻辑,让任何主张都能「学术严谨」地被证明。新创公司 Mira Network 警告,这类 AI 产品凸显了当前 AI模型已经超越「幻觉」,进入精准捏造证据的新阶段,对社会信任机制带来前所未有的挑战。
事件爆发:AI 系统证明荒谬假消息
最近在网路上掀起讨论的,是一款自称来自「Totally Legitimate Research」(完全合法研究)的 AI 工具。这款系统能为任何声称「生成经过审核的证据」,甚至成功「证明」了极为荒谬的假消息,包括:
美国政治人物 JD Vance 杀害教宗
Llama 4 模型只是换皮 Deepseek
F1 赛车手 Max Verstappen 与 Oscar Piastri 涉嫌共谋操控比赛
这些明显虚假的叙述,经过 AI「佐证」,竟以 99.9% 的信心度、超过 1 万个「证明案例」,外加无限学术引文(∞),打造出令人错愕的可信度假象。
新创公司 Mira Network 警告:AI 幻觉进化为「捏造」
Mira Network 迅速对此现象发表回应。他们指出,AI 如今不再只是单纯「幻觉」(hallucination),而是能够有策略地捏造出看似可信的证据,为任何主张背书。这种能力,不仅危及资讯真实性,更可能动摇民主社会的根本信任基础。
Mira Network 表示:「这款产品展示了最新 AI 模型的危险性——它们可以专业地制造出『证据』,支持任何声称。」
应对之道:Mira推出去中心化验证网路
面对 AI 失控的可能性,Mira Network在白皮书中提出了解方:建立一个去中心化的 AI 输出验证网路。这个名为「Mira Network」的系统,透过将 AI 输出内容转化为可独立验证的主张(claims),再由多个AI模型以共识机制进行审核,从而确保结果的可信度。
Mira 的验证流程包括:
将复杂内容拆解为小单位主张
交由分散节点(节点由不同AI模型营运)进行独立验证
利用加密技术产生验证证明(cryptographic certificates)
透过混合「工作量证明」(PoW)和「权益证明」(PoS)经济机制,激励节点诚实验证
未来展望:AI 信任基础设施初现雏形
Mira Network 不仅想止步于验证现有内容,他们更计划推动AI系统朝向「生成即验证」的下一代模型发展。未来,生成的内容将内建可验证性,大幅降低错误率,并真正让 AI 能在无人监督下运作于医疗、金融、法律等高风险领域。
此外,Mira Network 的验证资料库还将支援预言机服务(Oracle Services)与去中心化事实验证系统(Deterministic Fact-Checking Systems),为AI生态系打造坚实的信任基础。
当 AI 系统从「产生幻觉」进化到「证明虚假」,我们也必须进化出对应的防御机制。Mira Network 的去中心化验证网路,或许正是建立下一代资讯信任基础的一步。然而,面对AI真实与虚假界线愈来愈模糊的未来,我们准备好了吗?
这篇文章 AI 新武器?新创 Mira Network 示警:人工智慧已能「造假成真」 最早出现于 链新闻 ABMedia。