2月23日,清華大學(xué)與瑞萊智慧聯(lián)合團(tuán)隊(duì)推出大語言模型RealSafe-R1。該模型基于DeepSeek R1進(jìn)行深度優(yōu)化與后訓(xùn)練,在確保性能穩(wěn)定的基礎(chǔ)上,實(shí)現(xiàn)了安全性的顯著提升,表現(xiàn)優(yōu)于被認(rèn)為安全性較好的閉源大模型Claude3.5、GPT-4o等,為開源大模型安全發(fā)展與風(fēng)險(xiǎn)治理提供了創(chuàng)新性解決方案。
連日來,國產(chǎn)開源大模型DeepSeek的優(yōu)異表現(xiàn)令人驚艷,其在自然語言處理和多任務(wù)推理方面的能力展現(xiàn)了強(qiáng)大的技術(shù)實(shí)力,尤其是在復(fù)雜問題解決和創(chuàng)造性任務(wù)中表現(xiàn)出色。然而,DeepSeek R1和V3在面對越獄攻擊等安全性挑戰(zhàn)時(shí)仍存在一定的局限性。例如,模型可能會(huì)被惡意設(shè)計(jì)的輸入誤導(dǎo),生成不符合預(yù)期或不安全的響應(yīng)。這一安全短板并非DeepSeek所獨(dú)有的難題,而是當(dāng)前開源大模型的通病,其根本缺陷源于安全對齊機(jī)制的深度不足。
為此,清華瑞萊聯(lián)合團(tuán)隊(duì)提出了基于模型自我提升的安全對齊方式,將安全對齊與內(nèi)省推理相結(jié)合,使大語言模型能夠通過具有安全意識(shí)的思維鏈分析來檢查潛在風(fēng)險(xiǎn),實(shí)現(xiàn)基礎(chǔ)模型自身能力的自主進(jìn)化,可以應(yīng)用于多種開源、閉源模型。
基于該方法,團(tuán)隊(duì)對DeepSeek-R1系列模型進(jìn)行后訓(xùn)練,正式推出RealSafe-R1系列大模型。實(shí)驗(yàn)數(shù)據(jù)表明,RealSafe-R1安全性提升顯著,在多個(gè)基準(zhǔn)測試中有效增強(qiáng)了對各種越獄攻擊的抵抗力,并減輕了安全與性能之間“蹺蹺板”現(xiàn)象,表現(xiàn)優(yōu)于被認(rèn)為安全性較好的閉源大模型Claude3.5、GPT-4o等,不僅為DeepSeek生態(tài)添磚加瓦,也為大語言模型樹立了新的安全標(biāo)桿。
據(jù)悉,RealSafe-R1各尺寸模型及數(shù)據(jù)集,將于近期向全球開發(fā)者開源。“大模型的安全性瓶頸是本質(zhì)的,只有通過持續(xù)投入和攻堅(jiān)補(bǔ)齊短板弱項(xiàng),人工智能產(chǎn)業(yè)才能真正實(shí)現(xiàn)高質(zhì)量發(fā)展?!比鹑R智慧首席執(zhí)行官田天表示,這一創(chuàng)新成果將為開源大模型的安全性加固提供有力支持,也為政務(wù)、金融、醫(yī)療等嚴(yán)肅場景的應(yīng)用提供更為可靠的堅(jiān)實(shí)基座。
免責(zé)聲明:以上內(nèi)容為本網(wǎng)站轉(zhuǎn)自其它媒體,相關(guān)信息僅為傳遞更多信息之目的,不代表本網(wǎng)觀點(diǎn),亦不代表本網(wǎng)站贊同其觀點(diǎn)或證實(shí)其內(nèi)容的真實(shí)性。如稿件版權(quán)單位或個(gè)人不想在本網(wǎng)發(fā)布,可與本網(wǎng)聯(lián)系,本網(wǎng)視情況可立即將其撤除。