成人打一炮免费视频,亚洲天堂视频在线观看,97视频久久久,日本japanese护士色高清,五月婷婷丁香,日韩精品一级无码毛片免费,国产欧美日韩精品网红剧情演绎

一種融合多粒度知識圖譜及自適應(yīng)智能體的問答方法及系統(tǒng)與流程

文檔序號:41872515發(fā)布日期:2025-05-09 18:45閱讀:4來源:國知局
一種融合多粒度知識圖譜及自適應(yīng)智能體的問答方法及系統(tǒng)與流程

本發(fā)明涉及人工智能和自然語言處理領(lǐng)域,尤其涉及一種融合多粒度知識圖譜及自適應(yīng)智能體的問答方法及系統(tǒng)。


背景技術(shù):

1、隨著人工智能技術(shù)的飛速發(fā)展,問答系統(tǒng)已經(jīng)成為自然語言處理領(lǐng)域的重要應(yīng)用之一。問答系統(tǒng)能夠理解用戶提出的自然語言問題,并給出相應(yīng)的答案,在各個領(lǐng)域都發(fā)揮著重要的作用,包括但不限于智能客服、信息檢索、教育輔助、醫(yī)療咨詢等場景。問答系統(tǒng)的實現(xiàn)方法可以分為四個大類,分別是傳統(tǒng)問答系統(tǒng)方法、基于知識圖譜的問答系統(tǒng)、基于深度學(xué)習(xí)的問答系統(tǒng)、基于大語言模型的問答系統(tǒng)。

2、傳統(tǒng)問答系統(tǒng)主要基于語言學(xué)或統(tǒng)計語言學(xué)的理論和方法?;谥R庫的方法是將知識庫中的信息進行結(jié)構(gòu)化處理,并根據(jù)用戶的提問檢索相關(guān)知識,生成答案?;谀0迤ヅ涞姆椒ㄊ菍⒂脩舻奶釂柵c預(yù)先定義好的模板進行匹配,并根據(jù)模板中的信息生成答案。基于槽的方法則是將用戶的提問分解為多個槽位,每個槽位對應(yīng)一個特定的問題類型,并根據(jù)槽位信息進行答案檢索和生成。

3、基于知識圖譜的問答系統(tǒng)是通過知識圖譜將實體、概念和關(guān)系以圖結(jié)構(gòu)的形式進行表示,然后利用知識圖譜中的豐富信息,進行語義推理和知識問答。例如可將用戶提問中的實體和關(guān)系抽取后在知識圖譜中尋找匹配對應(yīng)的路徑,匹配到的就是對應(yīng)的答案。

4、基于深度學(xué)習(xí)的方法是將問答看作是一個序列到序列的生成任務(wù),常采用編碼器、解碼器的網(wǎng)絡(luò)結(jié)構(gòu),其中編碼器負責(zé)將用戶提問編碼為向量表示,解碼器根據(jù)上下文信息生成答案,從而實現(xiàn)問答的效果。通常編解碼器的具體網(wǎng)絡(luò)實現(xiàn)可以是循環(huán)神經(jīng)網(wǎng)絡(luò)(rnn)、長短期記憶網(wǎng)絡(luò)(lstm)、transformer等。transformer是一種基于自注意力機制的深度神經(jīng)網(wǎng)絡(luò)模型,它能夠有效地捕捉文本中的長距離依賴關(guān)系,使得整體生成答案的準(zhǔn)確率更高。

5、基于大語言模型的問答方法在近年來取得了顯著的進展,并逐漸成為問答系統(tǒng)領(lǐng)域的主流方法。這類方法的核心思想是將問答看作是一個序列到序列的生成任務(wù),利用深度學(xué)習(xí)模型,特別是transformer模型,來理解和生成自然語言。大語言模型通常在大量的語料數(shù)據(jù)上進行預(yù)訓(xùn)練,學(xué)習(xí)到豐富的語言知識和語義表示,能夠更好地處理各種類型的問答任務(wù)。當(dāng)需要適應(yīng)特定的下游問答任務(wù)時,可以對預(yù)訓(xùn)練模型進行微調(diào),例如,在特定領(lǐng)域的語料數(shù)據(jù)上進行訓(xùn)練,使其更好地理解該領(lǐng)域的知識。

6、雖然大語言模型在問答方面的能力比較突出,但是其幻覺現(xiàn)象(生成一些看起來合理但實際上是錯誤的答案)同樣突出,與此同時大語言模型對于特定領(lǐng)域的知識了解有限,難以勝任專業(yè)領(lǐng)域的問答任務(wù)。為了解決這些問題,現(xiàn)有技術(shù)方案是嘗試借助外部知識增強問答系統(tǒng)的準(zhǔn)確性。

7、1、采用檢索增強生成(retrieval-augmented?generation,rag)的技術(shù)路線,將外部知識構(gòu)建存儲于向量數(shù)據(jù)庫中,通過將問題和知識進行向量相似度比對的方式尋找答案的支撐點,進而大語言模型總結(jié)生成答案。

8、2、利用知識圖譜增強大模型問答。將知識圖譜中的實體、關(guān)系和屬性等信息嵌入到向量空間中,并將其作為輸入提供給大語言模型,從而幫助模型更好地理解問題中的實體和關(guān)系,并從知識庫中檢索相關(guān)知識。

9、3、利用智能體增強大模型回答。將大語言模型與其他智能體進行對話,例如,可以將大語言模型與一個專門用于檢索信息的智能體進行對話,從而獲取更準(zhǔn)確的信息,并將其融合到答案生成過程中。還可以利用多個智能體協(xié)同工作,完成更復(fù)雜的問答任務(wù),例如多輪對話、多任務(wù)問答等。

10、相應(yīng)地,現(xiàn)有技術(shù)的方案存在以下不足:

11、1、文本內(nèi)容并非孤立存在,而是相互關(guān)聯(lián)的。傳統(tǒng)的rag無法捕獲僅靠語義相似性無法呈現(xiàn)的重要結(jié)構(gòu)化關(guān)系知識。比如,在通過引用關(guān)系連接論文的引用網(wǎng)絡(luò)中,傳統(tǒng)的rag方法側(cè)重于依據(jù)查詢找到相關(guān)論文,卻忽略了論文之間重要的引用關(guān)系。

12、2、現(xiàn)有的知識圖譜嵌入方法大多只關(guān)注實體和關(guān)系的語義表示,而忽略了實體屬性等其他信息,導(dǎo)致模型的語義理解能力有限。知識圖譜的構(gòu)建需要大量的人工標(biāo)注和專家知識,成本高昂,難以擴展到新的領(lǐng)域?,F(xiàn)有的知識圖譜推理方法大多基于簡單的規(guī)則推理,難以處理復(fù)雜的邏輯推理,效率較低。

13、3、智能體的設(shè)計需要考慮對話策略、知識庫管理、推理機制等多個方面,設(shè)計復(fù)雜。智能體的決策過程通常難以解釋,在邏輯推理復(fù)雜的場景下,難以獲得用戶的信任。


技術(shù)實現(xiàn)思路

1、隨著大語言模型的迅猛發(fā)展,越來越的行業(yè)和領(lǐng)域開始將大語言模型用于日常輔助辦公中,或充當(dāng)智能客服的角色,或輔助檢索和撰寫資料。但是大語言模型的幻覺現(xiàn)象非常嚴重,經(jīng)常生成一些看起來正確,但是實際是錯誤的答案。另一方面大語言模型在預(yù)訓(xùn)練階段雖然用到了大量的語料數(shù)據(jù),但是對于實際應(yīng)用場景下的垂直領(lǐng)域知之甚少。如何將垂直細分領(lǐng)域的知識有效應(yīng)用于大語言模型上,構(gòu)建一套系統(tǒng)性、綜合性的問答系統(tǒng),使其回答的準(zhǔn)確性得到有效改善是現(xiàn)目前亟待解決的問題。

2、有鑒于此,本發(fā)明提供了一種融合多粒度知識圖譜及自適應(yīng)智能體的問答方法,其包括:

3、步驟1:知識治理與抽取。

4、步驟1.1:數(shù)據(jù)接入。支持多源異構(gòu)數(shù)據(jù)的接入,包括文本、圖像、音頻等,并通過多模態(tài)智能語義模型進行統(tǒng)一處理,將非文本數(shù)據(jù)轉(zhuǎn)換為文本形式。

5、步驟1.2:數(shù)據(jù)清洗。去除噪聲、冗余信息以及可能的錯誤輸入,確保數(shù)據(jù)的一致性和準(zhǔn)確性。

6、步驟1.3:知識表示。將知識按照不同的粒度層次進行劃分和表示,例如文檔、段落、句子等,并使用預(yù)訓(xùn)練模型進行向量化。

7、hi=f(wi;θ),i=1,2,…,n

8、wi表示輸入的文本單元(如單詞或句子),θ表示模型的參數(shù),f是預(yù)訓(xùn)練模型(例如bert、gpt等),生成的hi是文本單元在高維向量空間中的表示。

9、步驟1.4:實體抽取。利用命名實體識別技術(shù),從文本中識別出關(guān)鍵實體。實體識別可以表示為序列標(biāo)注問題。通過條件隨機場(crf)或transformer架構(gòu),計算每個單詞的實體類別概率:

10、

11、其中x表示輸入序列,yt表示第t個時間步的標(biāo)簽,θ為模型的參數(shù)。

12、步驟1.5:關(guān)系抽取。利用關(guān)系抽取技術(shù),識別出實體之間的關(guān)系。關(guān)系抽取問題可建模為分類問題,假設(shè)給定實體對(e1,e2),其關(guān)系通過如下公式預(yù)測:

13、p(r|e1,e2,c;θ)=softmax(w·g(e1,e2,c;θ)+b)

14、其中r是關(guān)系類別,c是上下文,g是關(guān)系編碼函數(shù),w和b是分類器參數(shù)。

15、步驟2:知識生成與擴充。

16、步驟2.1:擴充描述性知識。對概念、實體或事件進行詳細描述,提供更多上下文和細節(jié)。

17、步驟2.2:擴充事實性知識。提供客觀存在的事實信息,例如標(biāo)準(zhǔn)、統(tǒng)計數(shù)據(jù)、歷史事件等。

18、步驟2.3:擴充常識性知識。提供人們普遍認同的知識,例如日常生活中的普遍規(guī)律、社會規(guī)范和文化習(xí)俗等。

19、步驟2.4:知識校驗。利用擴充的知識對模型生成的答案進行校驗,確保答案的準(zhǔn)確性。

20、步驟3:知識檢索與管理。

21、步驟3.1:知識檢索。結(jié)合關(guān)鍵詞檢索、語義檢索、智能語義模型問答和檢索增強生成等技術(shù),實現(xiàn)高效的知識檢索。

22、步驟3.2:知識管理。當(dāng)步驟3.1無法檢索到合適的知識,或檢索到的知識有誤??梢詫χR進行更新,確保后續(xù)使用正常。

23、步驟4:知識規(guī)律發(fā)掘與自適應(yīng)檢索。

24、步驟4.1:多智能體協(xié)同。利用多個智能體協(xié)同工作,根據(jù)用戶提問的不同意圖,動態(tài)調(diào)整檢索策略和推理過程。假設(shè)系統(tǒng)存在k個智能體a1,a2,…,ak,則它們的協(xié)同工作能夠建模為:

25、

26、其中,wi表示智能體權(quán)重,r(ai)表示智能體ai對具體任務(wù)的貢獻,o表示輸出結(jié)果。

27、步驟4.2:自適應(yīng)檢索策略。根據(jù)用戶提問的不同類型,采用不同的檢索策略,對于簡單且明確的開放域問題,直接利用智能語義模型或智能體的內(nèi)置知識進行回答。對于與本地知識庫相關(guān)的領(lǐng)域問題,啟動檢索增強生成(rag)流程,并結(jié)合知識圖譜進行驗證。在生成最終答案前,進行多次推理和回環(huán)驗證,確保答案的正確性和合理性。

28、此外,本發(fā)明還提供了一種融合多粒度知識圖譜及自適應(yīng)智能體的問答系統(tǒng),問答系統(tǒng)執(zhí)行前述融合多粒度知識圖譜及自適應(yīng)智能體的問答方法。問答系統(tǒng)包括知識治理與抽取模塊、知識生成與擴充模塊、知識檢索與管理模塊和自適應(yīng)智能體檢索模塊。

29、知識治理與抽取模塊包括數(shù)據(jù)接入單元、數(shù)據(jù)清洗單元、知識表示單元、實體抽取單元和關(guān)系抽取單元;

30、知識生成與擴充模塊包括描述性知識單元、事實性知識單元、常識性知識單元和知識校驗單元;

31、知識檢索與管理模塊包括知識檢索單元和知識管理單元;

32、自適應(yīng)智能體檢索模塊包括多智能體協(xié)同單元和自適應(yīng)檢索單元。

33、與現(xiàn)有技術(shù)相比,本發(fā)明具有以下有益效果:

34、本發(fā)明提出的融合多粒度知識圖譜及自適應(yīng)智能體的問答方法及系統(tǒng),通過多粒度知識圖譜和自適應(yīng)智能體的協(xié)同,能夠更全面地理解用戶提問,并從知識庫中檢索出更相關(guān)的知識,從而顯著提高問答的準(zhǔn)確率,減少錯誤答案的產(chǎn)生。此外,多粒度知識圖譜可以支持更復(fù)雜的知識應(yīng)用需求,例如推理、預(yù)測等,從而增強問答系統(tǒng)的應(yīng)用能力,使其能夠處理更復(fù)雜的問答任務(wù),例如多輪對話、多任務(wù)問答等。綜合各方面為用戶帶來更好的使用體驗。

當(dāng)前第1頁1 2 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1