《鐵路通信信號工程技術(shù)》新文速遞|鐵路信號故障分析領(lǐng)域大語言模型微調(diào)方法
【ZiDongHua 之“自動化學(xué)院派”收錄關(guān)鍵詞:鐵路通信信號工程技術(shù) 人工智能 大語言模型微調(diào) 思維鏈 鐵路信號】
【新文速遞】鐵路信號故障分析領(lǐng)域大語言模型微調(diào)方法
《鐵路通信信號工程技術(shù)》公眾號“新文速遞”欄目,讓您第一時間,快速獲取鐵路通信信號領(lǐng)域的前沿技術(shù),迅速掌握鐵路行業(yè)最新動態(tài)。
請您與《鐵路通信信號工程技術(shù)》期刊并肩同行,共同見證鐵路通信信號技術(shù)的每一步堅實進(jìn)展。
鐵路信號故障分析領(lǐng)域大語言模型微調(diào)方法
孫 超1,2,李涵蕊1,2,丁子煥1,2
(1.北京全路通信信號研究設(shè)計院集團(tuán)有限公司,北京 100070;
2.列車自主運行智能控制鐵路行業(yè)工程研究中心,北京 100070)
摘要:為提升鐵路信號設(shè)備故障分析的智能化水平,提出一種針對鐵路信號設(shè)備故障分析任務(wù)構(gòu)建的領(lǐng)域大語言模型微調(diào)方法。采用低秩微調(diào)(Low-Rank Adaptation,LoRA)實現(xiàn)參數(shù)高效微調(diào),降低訓(xùn)練成本;融入拓?fù)渌季S鏈(CoT)構(gòu)建故障因果推理框架,增強模型思維邏輯可解釋性;外掛故障知識庫并通過檢索增強機制,提升術(shù)語識別與知識適配性。實驗表明,該方法使故障板卡信息提取準(zhǔn)確率較基線模型提升11.2%,推理時間減少52%;在推理時間相當(dāng)?shù)那闆r下,該方法準(zhǔn)確率較傳統(tǒng)微調(diào)方法提升2.5%;跨域遷移場景下模型準(zhǔn)確率提升42.6%,展現(xiàn)強泛化能力。通過技術(shù)融合與知識增強,該方法有效解決傳統(tǒng)方法的效率與泛化瓶頸,顯著提升故障分析的準(zhǔn)確率、效率及領(lǐng)域適應(yīng)性,為鐵路信號智能運維提供技術(shù)支撐,推動人工智能技術(shù)在軌道交通場景的工程化落地,具有突出的應(yīng)用價值與創(chuàng)新突破。
關(guān)鍵詞:人工智能;大語言模型微調(diào);思維鏈;知識檢索增強;鐵路信號
中圖分類號:U284; TP18
第一作者:孫超(1982—),男,高級工程師,碩士,主要研究方向:軌道交通裝備RAMS設(shè)計、列車運行控制及系統(tǒng)健康管理(PHM),郵箱:sunchao@crscd.com.cn。
1 概述
鐵路信號系統(tǒng)故障記錄表涵蓋故障發(fā)生位置、故障現(xiàn)象描述及故障處理措施等核心要素,既是開展設(shè)備狀態(tài)評估與可靠性分析的重要基礎(chǔ),也是科學(xué)制定維修計劃的關(guān)鍵依據(jù)。目前大部分故障記錄數(shù)據(jù)分析多依賴于人工逐條標(biāo)注分析。然而,隨著設(shè)備運維數(shù)據(jù)規(guī)模的持續(xù)擴(kuò)張,海量故障記錄數(shù)據(jù)資源利用率長期處于較低水平。自然語言處理方法憑借其強大的語義理解與分析能力,逐漸成為故障數(shù)據(jù)分析領(lǐng)域的研究熱點與重要技術(shù)方向。
現(xiàn)階段,主流自然語言處理方式仍以半自動化為主,如胡小溪等人將模糊標(biāo)注的新詞融合既有詞庫形成特定線路信號專用詞庫;Lei等人提出結(jié)合主題模型與支持向量機(SVM)方法,實現(xiàn)了鐵路信號故障記錄數(shù)據(jù)分類;Kang等人提出了一種基于數(shù)據(jù)驅(qū)動的產(chǎn)品故障抽取方法,將故障實體識別視為多元分類問題以不平衡的故障數(shù)據(jù)。上述文獻(xiàn)中人工操作的路徑依賴,不僅可能導(dǎo)致模型泛化性能不足,還會造成模型智能性與自主性的缺失。目前,主動學(xué)習(xí)作為一種能夠有效減少人工干預(yù)、提升模型自主學(xué)習(xí)能力的方法,正在受到廣泛關(guān)注。Xiao等人研究了在多個尺度上自動提取各種特征,通過使用故障數(shù)據(jù)在智能體和環(huán)境之間進(jìn)行廣泛的交互,提高了故障分類過程的智能性。張奕林等人提出了一種基于BERT的短文本分類模型和知識圖譜結(jié)合的故障定位方法,以充分挖掘鐵路CIR設(shè)備文本數(shù)據(jù)。在BERT方法基礎(chǔ)上,Lin等人提出了一種基于RoBERTa-wwm的鐵路信號設(shè)備故障信息實體識別方法,有效提高了識別準(zhǔn)確率。
隨著大語言模型(Large Language Model,LLM)的發(fā)展,無監(jiān)督自主學(xué)習(xí)方法逐步邁向新的高度。以DeepSeek、GPT-4、LlaMA等為代表的通用領(lǐng)域LLM,已展現(xiàn)出突破自然語言處理傳統(tǒng)方法局限性的強大潛力。因此,上述研究方向也開始利用LLM技術(shù)方法輔助文本分析,應(yīng)用于文本分類、實體識別和對話問答等任務(wù),實現(xiàn)對目標(biāo)的語義快速解析和高效處理。但預(yù)訓(xùn)練模型面臨對象特化度高、數(shù)據(jù)適應(yīng)性不足、場景泛化能力薄弱等問題,使其難以直接應(yīng)用于鐵路行業(yè)實際情景。目前,針對軌道交通領(lǐng)域的專用大模型和人工智能領(lǐng)域已取得一定研究成果,例如TransGPT交通大模型、UrbanGPT智慧城市大模型,UniST城市時空預(yù)測大模型和智能化區(qū)域協(xié)同等。但是面向故障文本數(shù)據(jù)分析這一特定任務(wù)的研究仍處于探索階段,相關(guān)成果尚不夠系統(tǒng)和深入。
為解決上述問題,本文提出了一種針對鐵路信號設(shè)備故障分析任務(wù)構(gòu)建的領(lǐng)域大語言模型微調(diào)方法,采用LoRA技術(shù)實現(xiàn)模型參數(shù)微調(diào),并在微調(diào)過程中添加基于“故障現(xiàn)象-故障影響-處理措施”拓?fù)渌季S鏈,將設(shè)備故障的因果邏輯推理過程融入模型訓(xùn)練,構(gòu)建多維度語義關(guān)聯(lián)的深度表征空間。此外,通過外掛信號設(shè)備故障知識庫的技術(shù)路徑,建立領(lǐng)域?qū)I(yè)知識與模型輸出的動態(tài)映射機制,從而提升故障分析結(jié)果的準(zhǔn)確性與可靠性,為后續(xù)數(shù)據(jù)記錄表的智能總結(jié)、統(tǒng)計分析及決策支持提供技術(shù)支撐。
2 領(lǐng)域大語言模型微調(diào)方法
針對鐵路信號設(shè)備故障分析任務(wù),提出領(lǐng)域大語言模型微調(diào)方法,增強模型語義學(xué)習(xí)、邏輯推理能力與分析結(jié)果的準(zhǔn)確性。主要流程包括基于因果推理思維鏈的分析任務(wù)訓(xùn)練集構(gòu)建、LoRA模型微調(diào)訓(xùn)練和融合外掛知識庫的故障分析任務(wù)處理3個步驟,如圖1所示。

1)數(shù)據(jù)輸入預(yù)處理與訓(xùn)練集構(gòu)建
將鐵路信號設(shè)備故障歷史數(shù)據(jù)通過數(shù)據(jù)預(yù)處理操作整理成結(jié)構(gòu)化故障數(shù)據(jù),形成樣本庫。結(jié)合具體故障分析任務(wù)要求,構(gòu)建針對特定任務(wù)的基于因果邏輯思維鏈的微調(diào)訓(xùn)練集。
2)LoRA微調(diào)訓(xùn)練
針對預(yù)訓(xùn)練大模型底座,以融合思維鏈的訓(xùn)練集為數(shù)據(jù)輸入,采用基于規(guī)則的低秩適應(yīng)(LoRA)微調(diào)技術(shù),通過調(diào)整學(xué)習(xí)率、正則化系數(shù)等超參數(shù)完成大模型在特定任務(wù)上的微調(diào)訓(xùn)練,并以準(zhǔn)確率、召回率、F0.5分?jǐn)?shù)等指標(biāo)評估大模型性能。
3)任務(wù)推理檢索增強
基于微調(diào)訓(xùn)練后的鐵路信號設(shè)備故障數(shù)據(jù)分析大模型,以故障分析相關(guān)任務(wù)為輸入,通過外掛故障知識庫實現(xiàn)任務(wù)推理的檢索增強,最終輸出任務(wù)推理結(jié)果。
2.1 基于故障因果邏輯的思維鏈生成
在構(gòu)建鐵路信號設(shè)備故障數(shù)據(jù)分析領(lǐng)域大模型微調(diào)訓(xùn)練集的過程中,需要編寫合適的提示詞作為訓(xùn)練集的輸入數(shù)據(jù),稱之為提示學(xué)習(xí)。本文在大模型的提示學(xué)習(xí)中采用了基于因果邏輯的思維鏈方法,通過語義連貫性優(yōu)化與邏輯結(jié)構(gòu)增強策略,提升輸入提示的自然語言表達(dá)質(zhì)量,有效引導(dǎo)模型構(gòu)建更清晰的上下文線索與推理路徑,從而在后續(xù)推理任務(wù)適配中實現(xiàn)更精準(zhǔn)的語義理解與知識整合。
在鐵路信號設(shè)備故障數(shù)據(jù)分析領(lǐng)域大模型特定任務(wù)微調(diào)的過程中,基于因果邏輯的思維鏈方法通過構(gòu)建分層推理框架,將復(fù)雜的領(lǐng)域內(nèi)故障分析等自然語言處理任務(wù)解耦為可解釋的邏輯鏈條,然后,在訓(xùn)練集的輸入序列中植入包含多步推理路徑的標(biāo)注示例,引導(dǎo)預(yù)訓(xùn)練模型建立從故障現(xiàn)象到根因分析的可追溯思維過程。以故障板卡實體識別任務(wù)的思維鏈微調(diào)訓(xùn)練過程為例,如圖2所示。

可以看出,基于因果邏輯的思維鏈提示學(xué)習(xí)訓(xùn)練集與傳統(tǒng)大模型訓(xùn)練集的本質(zhì)區(qū)別在于領(lǐng)域知識表征的顆粒度和邏輯推理過程的透明度。在上下文學(xué)習(xí)過程中,CoT范式不僅提供輸入輸出對,更構(gòu)建了包含鐵路信號設(shè)備故障數(shù)據(jù)分析領(lǐng)域故障分析等任務(wù)專屬推理規(guī)則的中間邏輯層。這使得領(lǐng)域知識結(jié)構(gòu)化,將分析過程分解為多步可解釋的推理單元,并且基于動態(tài)推理引導(dǎo),通過顯式標(biāo)注推理依據(jù),迫使模型在生成答案前進(jìn)行分層邏輯校驗,提高推理答案的準(zhǔn)確率。同時,利用認(rèn)知路徑對齊,模擬領(lǐng)域?qū)<业脑u估分析思維過程,建立從現(xiàn)象到根因的可追溯推理鏈條。
2.2 基于規(guī)則的LoRA微調(diào)技術(shù)
2.2.1 大模型底座
本文使用的大模型底座為DeepSeek預(yù)訓(xùn)練模型,在訓(xùn)練任務(wù)上構(gòu)造了自回歸的空格填充任務(wù),其基本架構(gòu)為Transformer架構(gòu),如圖3所示,由若干個編碼器和解碼器相互疊加而成。從組成結(jié)構(gòu)上看,每個編碼器和解碼器均由前饋全連接模塊(Feed Forward Network,F(xiàn)FN)和多頭自注意力模塊(Multi-head Self-Attention,MSA)這兩大基礎(chǔ)模塊組合而成。
其中,自注意力(Self-Attention,SA)模塊是Transformer架構(gòu)中的基礎(chǔ)組件。具體來講,SA通過3個可學(xué)習(xí)的線性映射矩陣WQ、WK、WV,將輸入序列投影為一組查詢Q、鍵K和值V,通過另一個線性映射矩陣Wo實現(xiàn)輸出變換,其中:
查詢矩陣(WQ)負(fù)責(zé)生成自主提示特征向量,定義注意力搜索范圍;
鍵矩陣(WK)構(gòu)建非自主提示特征向量,標(biāo)識被匹配的關(guān)鍵特征;
值矩陣(WV)存儲實體固有特征向量,與鍵矩陣形成語義關(guān)聯(lián);
輸出變換矩陣(Wo)通過特征交互矩陣實現(xiàn)多頭輸出的融合轉(zhuǎn)換。
在對輸入序列和輸出序列進(jìn)行線性變換的過程中,SA能夠捕捉輸入序列的語義特征及遠(yuǎn)距離依賴關(guān)系,并在輸出生成式序列時結(jié)合捕捉到的語義特征。而MSA模塊則是SA的擴(kuò)展形式,由n個自注意力頭組合而成。
FFN模塊的構(gòu)成則包含兩個線性層及激活函數(shù)。在結(jié)構(gòu)設(shè)計上,MSA模塊和FFN模塊均引入了殘差連接與層歸一化(Layer Normalization,LN),如公式(1)所示。
公式(1)中:x0表示初始輸入序列,即原始數(shù)據(jù)經(jīng)過預(yù)處理后形成的符號序列;xpos表示位置嵌入向量,用于為模型提供序列的位置信息,彌補自注意力機制對順序不敏感的缺陷;yk表示第k個MSA模塊經(jīng)LN處理后的輸出序列;xk-1和xk分別表示第k-1和第k個FFN模塊經(jīng)LN處理后的輸出表征,其整合了前面全部線性層的語義信息與位置關(guān)系。
2.2.2 LoRA微調(diào)技術(shù)
微調(diào)過程是在基礎(chǔ)模型架構(gòu)上,通過數(shù)據(jù)集對模型參數(shù)進(jìn)行任務(wù)導(dǎo)向的調(diào)參,結(jié)合領(lǐng)域內(nèi)標(biāo)注數(shù)據(jù)進(jìn)行定向優(yōu)化,最終實現(xiàn)故障分析精準(zhǔn)推理。本文采用基于規(guī)則的LoRA方法實現(xiàn)預(yù)訓(xùn)練模型在鐵路信號設(shè)備故障數(shù)據(jù)分析領(lǐng)域的微調(diào)。首先,基于目前收集到的領(lǐng)域內(nèi)的原始數(shù)據(jù),結(jié)合具體任務(wù)規(guī)則要求,設(shè)計特定任務(wù)的訓(xùn)練集。其中,針對訓(xùn)練樣本(x, y),其中x代表輸入序列,y代表與任務(wù)相關(guān)的標(biāo)簽,即輸出序列。大模型微調(diào)的目標(biāo)就是最小化以下?lián)p失函數(shù),如公式(2)所示。

公式(2)中:L' (θ)表示微調(diào)更新后的損失函數(shù);θ表示模型參數(shù);E表示函數(shù)的期望值;P (y|x;θ)表示在給定輸入序列x和模型參數(shù)θ的條件下,生成標(biāo)簽y的概率。
為了微調(diào)大模型以適應(yīng)鐵路信號設(shè)備故障數(shù)據(jù)分析領(lǐng)域的特定任務(wù),設(shè)定以下優(yōu)化目標(biāo),如公式(3)所示。

公式(3)中:θ*表示經(jīng)LoRA微調(diào)后的模型參數(shù);L' (θ)表示針對鐵路信號設(shè)備故障數(shù)據(jù)分析領(lǐng)域任務(wù)相關(guān)數(shù)據(jù)的損失函數(shù);λ表示正則化系數(shù);R(θ)表示正則化項,將其設(shè)置為模型參數(shù)的L2范數(shù)。
針對鐵路信號設(shè)備故障數(shù)據(jù)分析領(lǐng)域的故障分析NLP任務(wù),結(jié)合根據(jù)專家經(jīng)驗和歷史數(shù)據(jù)制定的領(lǐng)域規(guī)則,進(jìn)行任務(wù)適配輸入編碼(Task-adaptive Input Encoding),對輸入文本序列x進(jìn)行結(jié)構(gòu)化轉(zhuǎn)換,以引導(dǎo)預(yù)訓(xùn)練模型關(guān)注關(guān)鍵信息。以故障分類任務(wù)為例,將故障現(xiàn)象描述與故障類別數(shù)據(jù)整合為統(tǒng)一輸入序列,通過插入領(lǐng)域特定分隔符(如“[FAULT]”)明確區(qū)分問題類型與上下文信息。
最后,采用參數(shù)凍結(jié)策略固定預(yù)訓(xùn)練模型的基礎(chǔ)權(quán)重,在保持基礎(chǔ)參數(shù)固定的前提下,通過嵌入輕量級適配網(wǎng)絡(luò)層,并僅對新增網(wǎng)絡(luò)層內(nèi)的參數(shù)進(jìn)行訓(xùn)練優(yōu)化,實現(xiàn)大模型的LoRA微調(diào)。以故障板卡實體識別任務(wù)為例,通過在預(yù)訓(xùn)練語言模型頂部添加故障特征提取器,僅需更新少量參數(shù)即可實現(xiàn)對故障實體的精準(zhǔn)適配和識別。
LoRA微調(diào)在訓(xùn)練過程中通過固定預(yù)訓(xùn)練模型參數(shù),在Transformer架構(gòu)的每一層中植入可訓(xùn)練的低秩分解矩陣,即在多頭自注意力模塊中,將WQ、WK、WV和Wo這4個核心參數(shù)視為維度dmodel×dmodel的統(tǒng)一參數(shù)空間,這一參數(shù)空間就構(gòu)成了公式(3)中的優(yōu)化目標(biāo)θ*。
通過在每個注意力頭的輸入輸出空間引入秩分解矩陣ΔW,在保持原始預(yù)訓(xùn)練模型參數(shù)凍結(jié)的前提下,以極小的計算代價實現(xiàn)模型的領(lǐng)域適配。以預(yù)訓(xùn)練模型的權(quán)重矩陣Wo為例,可以讓其參量的更新用低秩分解來表示后者的約束,如公式(4)所示。

其中:Wo∈Rd×k,B∈Rd×r,A∈Rr×k
此時,由于新增的秩r遠(yuǎn)小于min(d,k),修正后的正向傳播計算,如公式(5)所示。

在LoRA微調(diào)框架下,Wo保持參數(shù)凍結(jié)狀態(tài),僅對低秩分解矩陣A和B實施梯度更新。如圖4所示,本文在進(jìn)行基于規(guī)則的LoRA微調(diào)時,對低秩分解矩陣A使用隨機高斯初始化,對B則使用零初始化,因此ΔW=BA在訓(xùn)練開始時為0。
在Transformer架構(gòu)的每一層實施LoRA微調(diào)策略,有效壓縮模型微調(diào)所需的參數(shù)規(guī)模。在故障板卡實體識別、故障原因分類等鐵路信號設(shè)備故障數(shù)據(jù)分析領(lǐng)域典型任務(wù)中,該方法僅需維護(hù)參數(shù)矩陣W=Wo+BA的動態(tài)合成,即可在后續(xù)任務(wù)問答推理階段保持與原始模型一致的計算流程。
2.3 知識庫檢索增強的任務(wù)推理
為提高故障數(shù)據(jù)分析任務(wù)的準(zhǔn)確率和專業(yè)度,在輸入查詢的內(nèi)容中將外掛故障知識庫融入故障分析相關(guān)任務(wù)輸入,實現(xiàn)大模型任務(wù)推理時的知識檢索增強。
構(gòu)建鐵路信號設(shè)備故障分析特征知識庫,通過對歷史故障數(shù)據(jù)進(jìn)行深度分析處理、總結(jié)提煉和專家審核,獲取專業(yè)名詞、故障信息和改正措施等知識,有效彌補大模型知識更新不及時和特定領(lǐng)域知識不足的缺陷。利用詞嵌入技術(shù)將特征知識庫中的自然語言數(shù)據(jù)轉(zhuǎn)換為詞向量,實現(xiàn)知識的數(shù)值化表示。
在模型任務(wù)推理時,動態(tài)融合外掛故障知識庫的詞向量和任務(wù)輸入,使模型能夠從知識庫中檢索相關(guān)信息,給出更準(zhǔn)確、專業(yè)的回答。知識庫支持在線更新,新增案例經(jīng)向量化后可直接注入檢索通道,構(gòu)建閉環(huán)優(yōu)化機制,確保知識庫隨運營數(shù)據(jù)增長不斷進(jìn)化,始終保持時效性和準(zhǔn)確性。
3 案例分析和驗證
3.1 數(shù)據(jù)集構(gòu)建
通過前期調(diào)研、收集現(xiàn)有的鐵路信號設(shè)備故障分析領(lǐng)域原始語料,在分析數(shù)據(jù)特點、明確數(shù)據(jù)內(nèi)涵、提取數(shù)據(jù)共性的基礎(chǔ)上,將其轉(zhuǎn)化為數(shù)據(jù)集形式。
在數(shù)據(jù)集構(gòu)建的過程中,原始語料來源為收集到的某市地鐵各線路信號設(shè)備真實故障記錄表等半結(jié)構(gòu)化自然語言文本。其中,故障記錄表中表頭為“故障現(xiàn)象”“原因分析”和“處理措施”等類型的相關(guān)文本可以提取為故障相關(guān)的有效數(shù)據(jù),因此抽取同一故障記錄相對應(yīng)的文本作為數(shù)據(jù)集的一條。最終得到結(jié)構(gòu)化故障數(shù)據(jù)集如表1所示。

以鐵路信號設(shè)備故障板卡提取任務(wù)為例,作為故障數(shù)據(jù)分析任務(wù)的具體測試內(nèi)容。 基于各故障現(xiàn)象、影響、措施和標(biāo)注的故障板卡,融合思維鏈,構(gòu)建微調(diào)所需的問答對,共7?395條,最終得到鐵路信號設(shè)備故障板卡提取任務(wù)微調(diào)訓(xùn)練集,如表2所示。

針對含7?395條問答對的微調(diào)數(shù)據(jù)集,按照約3:1:1的比例分別構(gòu)建鐵路信號設(shè)備故障板卡提取任務(wù)的訓(xùn)練集、驗證集和測試集,其中,訓(xùn)練集包括4?500條問答對,驗證集包括1?500條問答對,測試集包括1?395條問答對。
本文為使模型更好理解輸入文本結(jié)構(gòu),還針對微調(diào)訓(xùn)練集設(shè)計特定的任務(wù)適配輸入編碼。在輸入文本中插入領(lǐng)域特定分隔符,如“[FAULT]”用于標(biāo)識故障現(xiàn)象,“[EFFECT]”用于標(biāo)識影響范圍,“[TASK]”用于標(biāo)識目標(biāo)任務(wù)類型,“[ANSWER]”用于標(biāo)識標(biāo)注的任務(wù)答案。對于故障板卡提取任務(wù),編碼示例為“[FAULT]BTM單元頻繁重啟 [EFFECT]列車緊急制動 [TASK]故障板卡提取 [ANSWER]BTM單元”。
3.2 環(huán)境配置與超參數(shù)設(shè)置
試驗時所使用的深度學(xué)習(xí)環(huán)境與設(shè)備配置如圖5所示。
訓(xùn)練基于本文針對鐵路信號設(shè)備故障分析任務(wù)構(gòu)建的領(lǐng)域大語言模型微調(diào)方法的軌道交通故障評估大模型,訓(xùn)練中所使用的超參數(shù)與取值如圖6所示。
4 試驗結(jié)果和討論
4.1 有效性分析
在經(jīng)過373輪訓(xùn)練后,其損失函數(shù)loss的結(jié)果如圖7所示。其在訓(xùn)練迭代輪次約150次趨于收斂,約在300次訓(xùn)練迭代后達(dá)到最佳性能。
針對微調(diào)訓(xùn)練后的軌道交通故障評估大模型,基于鐵路信號設(shè)備故障板卡提取任務(wù)測試集中每個問答對的問題進(jìn)行推理,將所得到的預(yù)測答案與問答對中實際的標(biāo)準(zhǔn)答案進(jìn)行比對,最終依據(jù)比對結(jié)果計算出準(zhǔn)確率(Precision)、召回率(Recall)和F0.5分?jǐn)?shù)(F0.5-score)評估指標(biāo)。由于故障板卡提取任務(wù)更注重推理結(jié)果預(yù)測答案的正確性,因此選擇偏向準(zhǔn)確率的F0.5-score作為準(zhǔn)確率和召回率的權(quán)衡分?jǐn)?shù),按公式(6)計算獲得。
最終得到的結(jié)果如表3所示。本文方法微調(diào)訓(xùn)練后的大模型在故障板卡提取任務(wù)上F0.5-score為0.821?0,這表明訓(xùn)練后的大模型可以有效地實現(xiàn)從一段涵蓋故障現(xiàn)象、故障原因等故障相關(guān)的自然語言文本中提取出具體故障板卡的任務(wù)。在包括1?395條問答對的測試集上,完成任務(wù)推理的總時間約25?min,平均每條問答對的推理時間約1?s,表明本文微調(diào)方法可以較大程度提高故障板卡提取任務(wù)的效率,降低大量時間成本。
4.2 與基線模型的對比分析
基于融合思維鏈和知識庫的微調(diào)方法訓(xùn)練后的大語言模型與作為基線模型的未微調(diào)的DeepSeek預(yù)訓(xùn)練模型故障板卡提取任務(wù)結(jié)果對比如表4所示。
分析結(jié)果可以發(fā)現(xiàn),本文基于融合思維鏈和知識庫的微調(diào)方法訓(xùn)練后的大語言模型較未微調(diào)的模型故障板卡提取任務(wù)準(zhǔn)確率由0.743?3提高到0.826?7,提高了11.2%。這表明本文提出的微調(diào)方法訓(xùn)練后的大模型較未微調(diào)的基線模型學(xué)習(xí)到了故障分析領(lǐng)域的相關(guān)專業(yè)知識,使得在故障板卡提取任務(wù)上表現(xiàn)更好。同時,在測試集上的平均推理時間由70?s降低到1?s,表明訓(xùn)練后的大模型較基線模型大大降低了任務(wù)推理的時間成本。
4.3 消融試驗分析
本文基于融合思維鏈和知識庫的微調(diào)方法訓(xùn)練后的大語言模型與傳統(tǒng)微調(diào)方法訓(xùn)練后模型故障板卡提取任務(wù)結(jié)果對比如表5所示。
分析結(jié)果可以發(fā)現(xiàn),本文微調(diào)方法訓(xùn)練后大語言模型較傳統(tǒng)微調(diào)方法訓(xùn)練后模型的任務(wù)準(zhǔn)確率提高了2.5%,召回率提高了6.1%,F0.5-score提高了3.3%,在平均推理時間相同的情況下,各指標(biāo)均有了一定提升。
4.4 模型擴(kuò)展性分析
為驗證本文微調(diào)訓(xùn)練后的軌道交通故障評估大模型的泛用性和擴(kuò)展性,設(shè)計以動車、高鐵等各其他鐵路信號設(shè)備真實故障記錄為原始語料構(gòu)建的測試集。其中,構(gòu)建的測試集包括1?500條問答對,覆蓋車載、列控和聯(lián)鎖信號設(shè)備。得到的結(jié)果如表6所示。
可以看出,本文基于融合思維鏈和知識庫的微調(diào)方法訓(xùn)練后的大語言模型在相似設(shè)備故障板卡提取任務(wù)上較未微調(diào)的模型任務(wù)準(zhǔn)確率由0.449?7提高到0.641?4,提高了42.6%。同時,在測試集上的平均推理時間由70?s降低到1.5?s。由此可以得出本文微調(diào)方法訓(xùn)練后的軌道交通故障評估大模型在非訓(xùn)練集的相似設(shè)備上泛用性和擴(kuò)展性較好。
5 結(jié)束語
根據(jù)本文提出的微調(diào)方法訓(xùn)練后,模型能在包含1?395條問答對的測試集上高精度、高效率地完成故障板卡提取任務(wù),準(zhǔn)確率達(dá)0.826?7,F0.5-score達(dá)0.821?0,平均推理時間為1?s,均優(yōu)于未微調(diào)模型和基于傳統(tǒng)微調(diào)方法訓(xùn)練后模型,說明本文微調(diào)方法訓(xùn)練后模型的有效性。
本文提出的微調(diào)方法訓(xùn)練后,模型能在相似設(shè)備真實故障記錄構(gòu)建的包含1?500條問答對的測試集上較高精度地完成故障板卡提取任務(wù),準(zhǔn)確率較未微調(diào)模型準(zhǔn)確率提升42.6%,說明本文微調(diào)方法訓(xùn)練后模型的泛用性和擴(kuò)展性都得到了提升。
針對鐵路信號設(shè)備故障分析任務(wù)構(gòu)建的領(lǐng)域大語言模型微調(diào)方法,可以讓大語言模型學(xué)習(xí)垂直領(lǐng)域內(nèi)知識,實現(xiàn)專家經(jīng)驗的遷移,降低模型推理的幻覺。同時,在訓(xùn)練中融合基于因果邏輯的思維鏈,可以有效提高大語言模型針對復(fù)雜任務(wù)的準(zhǔn)確率。
模型在故障數(shù)據(jù)分析任務(wù)上的準(zhǔn)確率還有提升空間,這是由于自然語言處理任務(wù)的復(fù)雜性,單一大模型無法徹底解決幻覺問題,下一步將探索多智能體架構(gòu)的可能性,進(jìn)一步提升故障數(shù)據(jù)分析任務(wù)的準(zhǔn)確率。
評論排行