Mira網(wǎng)絡(luò)致力于構(gòu)建AI的信任層,那么為何AI需要被信任?Mira又是如何解決這一問題的?隨著Mira網(wǎng)絡(luò)的公共測試網(wǎng)正式上線,這一話題引發(fā)了廣泛關(guān)注。AI的強(qiáng)大能力固然令人矚目,但其潛在的”幻覺”與偏見卻往往被忽視。AI的”幻覺”簡單來說,就是其有時會編造看似合理的虛假信息。例如,當(dāng)你詢問AI月亮為何是粉色的,它可能會給出一系列看似有理的解釋,卻毫無事實(shí)依據(jù)。AI產(chǎn)生”幻覺”或偏見的原因,與其當(dāng)前的技術(shù)路徑密切相關(guān)。生成式AI通過預(yù)測”最可能”的內(nèi)容進(jìn)行輸出,追求連貫性和合理性,但有時卻無法驗證真?zhèn)?;此外,?xùn)練數(shù)據(jù)中存在的錯誤、偏見甚至虛構(gòu)內(nèi)容,也會直接影響AI的輸出。換言之,AI是在學(xué)習(xí)人類語言模式而非事實(shí)本身。因此,在概率生成機(jī)制與數(shù)據(jù)驅(qū)動模式下,AI產(chǎn)生幻覺幾乎不可避免。這種帶有偏見或幻覺的輸出,若發(fā)生在普通知識或娛樂領(lǐng)域尚無大礙,但在醫(yī)療、法律、航空、金融等高度嚴(yán)謹(jǐn)?shù)念I(lǐng)域,則可能造成嚴(yán)重后果。如何解決AI的幻覺與偏見,已成為AI發(fā)展過程中的核心挑戰(zhàn)之一。一些解決方案包括采用檢索增強(qiáng)生成技術(shù),結(jié)合實(shí)時數(shù)據(jù)庫驗證事實(shí);或引入人類反饋,通過人工標(biāo)注和監(jiān)督糾正模型錯誤。Mira項目也正致力于解決AI偏見和幻覺問題,旨在構(gòu)建AI的信任層,減少偏見與幻覺,提升AI的可靠性。那么,Mira的整體框架是如何運(yùn)作的?其核心是通過多個AI模型的共識來驗證AI輸出。Mira本身是一個驗證網(wǎng)絡(luò),它借助多個AI模型的共識來確保輸出的可靠性。此外,去中心化共識驗證也是其關(guān)鍵所在。去中心化共識驗證是加密領(lǐng)域的強(qiáng)項,同時結(jié)合多模型協(xié)同,通過集體驗證模式有效減少偏見和幻覺。在驗證架構(gòu)方面,Mira協(xié)議支持將復(fù)雜內(nèi)容轉(zhuǎn)換為獨(dú)立驗證聲明。這些聲明需要節(jié)點(diǎn)運(yùn)營商參與驗證,為確保節(jié)點(diǎn)運(yùn)營商的誠實(shí),將采用加密經(jīng)濟(jì)激勵/懲罰機(jī)制。不同AI模型與分散的節(jié)點(diǎn)運(yùn)營商共同參與,以保證驗證結(jié)果的可靠性。Mira的網(wǎng)絡(luò)架構(gòu)包括內(nèi)容轉(zhuǎn)換、分布式驗證以及共識機(jī)制,以此實(shí)現(xiàn)驗證的可靠性。其中,內(nèi)容轉(zhuǎn)換是重要環(huán)節(jié)。Mira網(wǎng)絡(luò)首先將候選內(nèi)容分解為可驗證聲明,確保模型在相同背景下理解內(nèi)容,然后將這些聲明分發(fā)給節(jié)點(diǎn)進(jìn)行驗證,以確定其有效性,并匯總結(jié)果達(dá)成共識。這些結(jié)果和共識將返回給客戶。為保護(hù)客戶隱私,候選內(nèi)容分解為聲明對,并以隨機(jī)分片方式分發(fā)給不同節(jié)點(diǎn),防止驗證過程中信息泄漏。節(jié)點(diǎn)運(yùn)營商負(fù)責(zé)運(yùn)行驗證器模型,處理聲明并提交驗證結(jié)果。為何節(jié)點(diǎn)運(yùn)營商愿意參與驗證?因為可以獲得收益。這些收益來源于為客戶創(chuàng)造的價值。Mira網(wǎng)絡(luò)的目的是降低AI的錯誤率(幻覺和偏見),一旦達(dá)成目標(biāo),就能產(chǎn)生巨大價值,例如在醫(yī)療、法律、航空、金融等領(lǐng)域降低錯誤率。因此,客戶有意愿付費(fèi)。當(dāng)然,付費(fèi)的可持續(xù)性和規(guī)模取決于Mira網(wǎng)絡(luò)能否持續(xù)為客戶帶來價值。此外,為防止節(jié)點(diǎn)隨機(jī)響應(yīng)的投機(jī)行為,持續(xù)偏離共識的節(jié)點(diǎn)將被消減質(zhì)押代幣??傊ㄟ^經(jīng)濟(jì)機(jī)制的博弈確保節(jié)點(diǎn)運(yùn)營商誠實(shí)地參與驗證??傮w而言,Mira為實(shí)現(xiàn)AI的可靠性提供了一種創(chuàng)新思路:在多AI模型基礎(chǔ)上構(gòu)建去中心化共識驗證網(wǎng)絡(luò),為客戶的AI服務(wù)帶來更高的可靠性,降低偏見和幻覺,滿足客戶對更高準(zhǔn)確度和精確率的需求。同時,在為客戶創(chuàng)造價值的基礎(chǔ)上,為網(wǎng)絡(luò)參與者帶來收益。簡而言之,Mira致力于構(gòu)建AI的信任層,這對推動AI應(yīng)用的深入發(fā)展具有重要意義。目前,Mira已與ai16z、ARC等AI agent框架合作。Mira網(wǎng)絡(luò)的公共測試網(wǎng)于昨日上線,用戶可通過使用基于Mira的LLM聊天應(yīng)用Klok參與測試。使用Klok應(yīng)用可以體驗經(jīng)過驗證的AI輸出,并比較其與未經(jīng)驗證的AI輸出的差異,同時還能賺取Mira積分。至于積分的未來用途,目前尚未透露。
本文網(wǎng)址:http://iy168.cn/news/2095.html