AI 新武器?新创 Mira Network 示警:人工智慧已能「造假成真」

在人工智慧(AI)技术突飞猛进之际,一款可以「证明任何谎言为真」的 AI 系统引发网路热议。该系统号称以百分之百杜撰统计数据、来自平行宇宙的引证,配合无懈可击的逻辑,让任何主张都能「学术严谨」地被证明。新创公司 Mira Network 警告,这类 AI 产品凸显了当前 AI模型已经超越「幻觉」,进入精准捏造证据的新阶段,对社会信任机制带来前所未有的挑战。

事件爆发:AI 系统证明荒谬假消息

最近在网路上掀起讨论的,是一款自称来自「Totally Legitimate Research」(完全合法研究)的 AI 工具。这款系统能为任何声称「生成经过审核的证据」,甚至成功「证明」了极为荒谬的假消息,包括:

美国政治人物 JD Vance 杀害教宗

Llama 4 模型只是换皮 Deepseek

F1 赛车手 Max Verstappen 与 Oscar Piastri 涉嫌共谋操控比赛

这些明显虚假的叙述,经过 AI「佐证」,竟以 99.9% 的信心度、超过 1 万个「证明案例」,外加无限学术引文(∞),打造出令人错愕的可信度假象。

新创公司 Mira Network 警告:AI 幻觉进化为「捏造」

Mira Network 迅速对此现象发表回应。他们指出,AI 如今不再只是单纯「幻觉」(hallucination),而是能够有策略地捏造出看似可信的证据,为任何主张背书。这种能力,不仅危及资讯真实性,更可能动摇民主社会的根本信任基础。

Mira Network 表示:「这款产品展示了最新 AI 模型的危险性——它们可以专业地制造出『证据』,支持任何声称。」

应对之道:Mira推出去中心化验证网路

面对 AI 失控的可能性,Mira Network在白皮书中提出了解方:建立一个去中心化的 AI 输出验证网路。这个名为「Mira Network」的系统,透过将 AI 输出内容转化为可独立验证的主张(claims),再由多个AI模型以共识机制进行审核,从而确保结果的可信度。

Mira 的验证流程包括:

将复杂内容拆解为小单位主张

交由分散节点(节点由不同AI模型营运)进行独立验证

利用加密技术产生验证证明(cryptographic certificates)

透过混合「工作量证明」(PoW)和「权益证明」(PoS)经济机制,激励节点诚实验证

未来展望:AI 信任基础设施初现雏形

Mira Network 不仅想止步于验证现有内容,他们更计划推动AI系统朝向「生成即验证」的下一代模型发展。未来,生成的内容将内建可验证性,大幅降低错误率,并真正让 AI 能在无人监督下运作于医疗、金融、法律等高风险领域。

此外,Mira Network 的验证资料库还将支援预言机服务(Oracle Services)与去中心化事实验证系统(Deterministic Fact-Checking Systems),为AI生态系打造坚实的信任基础。

当 AI 系统从「产生幻觉」进化到「证明虚假」,我们也必须进化出对应的防御机制。Mira Network 的去中心化验证网路,或许正是建立下一代资讯信任基础的一步。然而,面对AI真实与虚假界线愈来愈模糊的未来,我们准备好了吗?

这篇文章 AI 新武器?新创 Mira Network 示警:人工智慧已能「造假成真」 最早出现于 链新闻 ABMedia。

查看原文
本页面内容仅供参考,非招揽或要约,也不提供投资、税务或法律咨询。详见声明了解更多风险披露。
  • 赞赏
  • 评论
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate.io APP
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)