Meta
Meta|2025年07月22日 08:32
前两天看见 @Mira_Network 发布了推文内容是📷soon,很多人可能以为都已经快照了。但是从字面意思上面来看,SOON是即将/不久之后的意思。那么也就明牌了一个信息就是马上就要快照了,最近也是一直在卷Camp,没有来研究Mira。今天也是抱着临时抱佛脚的心态来卷一下Mira,有就有没有就没有吧🤣万一赶上了末班车呢? 在我们知道AI并熟练使用AI的这段时间中,AI带来的最大的麻烦就是真假难辨。刚开始可以让GPT执行程序去写代码,简单代码逻辑运行在框架上没有任何问题。那我自己举例子,在深度体验AI带来的便利时,想做一个离线翻译版本的翻译机,但是他给我的翻译机的词库对应的URL确实是开源的,但是因为时间比较久,开源词库已经无法继续使用了,当时公开的API接口信息已失效。导致整个代码运行不起来,本身想着用python简单搭建一下可能20分钟就能搞定调用,结果搞了半天才弄好,越到后面AI通过公开数据搜寻到的信息越来越多,但实际使用上却越来越显得麻烦。 而研究 @Mira_Network 过后,发现他们现在要做的事情,正是从根上解决这个问题。他们推出了 Mira Verify,一个用“多模型共识”来识别 AI 幻觉与虚假信息的系统。说得直白点:Mira 想做 AI 时代的“事实多签”。 当我们遇到的信息源真假难辨,通常靠人工验证的方式来进行验证。这种方式说实话效率太低了。而现在 AI 又成了制造幻觉和错误的加速器。大模型张嘴就来,内容真实度极低,但是给你回复的又是一本正经。使用的途中又发现错误频出,然后把报错又反馈给AI,他给你输出的结果又是如何解决这个报错,发现从上一步开始就是错的,整个过程是相当的折磨。 Mira 的解法很有意思。不是让一个模型说了算,而是让“一群模型”对每个信息点进行独立验证。它怎么做的呢? 它的逻辑是先从一段内容中提取所有“事实性陈述”——无论这个内容是人类写的,还是 AI 生成的,然后把这些陈述广播给全网的节点。每个节点都运行一个不同的模型,对这些陈述进行判断,自己输出是“真”还是“假”。 Mira 通过共识算法会聚合这些判断: 如果所有模型都说“真”,那就标记为 ✅ 如果所有模型都说“假”,那就标记为 ❌ 如果意见不一致,那就显示为“无共识” 最终用户看到的内容,是被标注过的版本——哪些内容是可信的,哪些是假的,哪些是还有争议的。这就像给内容打上一个“真相的版本控制标签”。 整个系统运行过程中,最核心的逻辑是构建了“真相计算层” 1️⃣这种机制是去平台化的。不是谁说了算,而是系统性的模型共识决定真伪。 2️⃣它是可编程的。可以基于这个机制,构建“只显示被验证为真实内容”的前端。 3️⃣它具有经济激励的潜力。未来有可能出现“参与验证、提供计算资源”的节点获得 token 激励。 其实如果按照时间就是金钱的这个大逻辑,我们使用AI的目的其实是为了“降本增效”。毕竟大家都挺忙的,真的没有时间去做人工验证,而Mira的共识审查方案可以解决以上的问题。 目前项目还在早期阶段,但已经开放了等候名单。感兴趣的可以去官网填写邮箱申请早期使用。(Meta)
+4
曾提及
分享至:

脉络

热门快讯

APP下载

X

Telegram

Facebook

Reddit

复制链接

热门阅读