成人打一炮免费视频,亚洲天堂视频在线观看,97视频久久久,日本japanese护士色高清,五月婷婷丁香,日韩精品一级无码毛片免费,国产欧美日韩精品网红剧情演绎

基于混合聯邦學習和交叉Transformer的非侵入式負荷監(jiān)測方法

文檔序號:41873287發(fā)布日期:2025-05-09 18:46閱讀:5來源:國知局
基于混合聯邦學習和交叉Transformer的非侵入式負荷監(jiān)測方法

本技術涉及電力系統(tǒng)管理和能源效率,尤其涉及家庭和工業(yè)環(huán)境中的非侵入式負荷監(jiān)測。


背景技術:

1、隨著全球能源需求的持續(xù)增長,特別是在建筑能源管理領域,如何有效地減少能耗并優(yōu)化能源使用已成為學術和工業(yè)界的熱點問題。非侵入式負荷監(jiān)測(non-intrusiveload?monitoring,?nilm)技術,通過分析總線數據來估計各個負荷的能耗,提供了一種成本低且便捷的解決方案。nilm技術使用戶和能源管理者能夠實現更精細的能耗監(jiān)控與管理,降低能源浪費,提升能源自動化管理水平,提高能源使用效率。盡管nilm技術具有廣泛的應用前景,但在實際應用中,其準確性、可擴展性和隱私保護等方面仍面臨諸多挑戰(zhàn)。早期的nilm方法主要依賴于硬件設備收集高頻電壓和電流,高昂的數據獲取成本限制了其大規(guī)模應用。隨著機器學習和深度學習的迅速發(fā)展,基于循環(huán)神經網絡(recurrent?neuralnetworks,?rnns)、卷積神經網絡?(convolutional?neural?networks,cnns)、生成對抗網絡(generative?adversarial?networks,gans)和注意力機制等技術的nilm方法取得了一定的成功。然而,這些方法在處理家庭和商業(yè)環(huán)境中的多樣化負荷行為時,常常難以保持高精度。模型在精確性和泛化能力上仍存在不足,需要一種更為有效的負荷預測與監(jiān)測方法。

2、此外,現有nilm模型通常依賴于中心服務器集中處理大量原始電力數據,這帶來了巨大的數據隱私和安全性風險,傳統(tǒng)的集中式nilm數據處理方式已無法滿足嚴格的隱私保護要求。因此,必須找到一種既能有效監(jiān)測負荷,又能保障用戶數據隱私的方法。

3、聯邦學習作為一種新興的技術范式,允許在多個客戶端本地訓練模型,從而避免數據集中化,保障用戶隱私。然而,在nilm的實際部署中,聯邦學習仍面臨個性化表現不足、通信開銷大和隱私保護機制復雜的問題?,F有的隱私保護技術如同態(tài)加密和安全多方計算盡管在理論上能解決隱私問題,但其對系統(tǒng)資源的要求較高,不利于實際部署;而差分隱私的噪聲添加又會影響模型的精確度與收斂速度。

4、綜上所述,現有技術存在以下問題:

5、nilm模型的準確性不足:現有nilm技術難以處理多樣化的負荷工作特性,需要一個能夠提高準確性和適應性的方法。

6、數據隱私保護與安全性風險:集中式數據處理方式容易暴露用戶數據隱私,存在較高的安全性風險,急需一種保護用戶數據隱私的nilm技術解決方案。

7、聯邦學習的可擴展性與隱私保護不足:傳統(tǒng)聯邦學習方法在nilm任務中的實用性受到限制,面臨通信開銷大、隱私保護難以平衡等問題。需要在保障隱私保護的基礎上,提升聯邦學習在nilm中的可拓展性、通信效率和抗攻擊能力。


技術實現思路

1、本發(fā)明目的是為了解決上述技術問題,提供了基于混合聯邦學習和交叉transformer的非侵入式負荷監(jiān)測方法。

2、本發(fā)明是通過以下技術方案實現的,本發(fā)明一方面,提供一種基于混合聯邦學習和交叉transformer的非侵入式負荷監(jiān)測方法,所述方法包括:

3、步驟1:對電力信號數據進行預處理;

4、步驟2:根據監(jiān)測網絡帶寬、延遲以及數據隱私需求確定聯邦學習訓練模式,所述聯邦學習訓練模式包括集中式聯邦學習和去中心化聯邦學習;如果確定為集中式聯邦學習,執(zhí)行步驟3,否則執(zhí)行步驟4;

5、步驟3:集中式聯邦學習訓練,在客戶端和中心服務器部署crosstransnilm模型,將所有參與訓練的客戶端模型更新集中到中心服務器進行聚合;crosstransnilm模型包括多層transformer編碼器和負荷分支模塊,通過總線功率預測多個負荷的功率消耗;

6、步驟4:去中心化聯邦學習訓練,各客戶端獨立訓練crosstransnilm模型并通過點對點通信交換模型參數,通過圖注意力網絡來優(yōu)化通信拓撲,并通過投票機制判斷全局模型的收斂性;

7、步驟5:非侵入式負荷監(jiān)測與實時反饋,將訓練完成的全局crosstransnilm模型部署至監(jiān)測終端,實時采集總線路的功率信號,通過預處理后輸入模型進行端到端監(jiān)測;模型通過負荷分支模塊輸出各用電設備的功率分解結果,將負荷功率映射為具體用電設備的啟停狀態(tài);監(jiān)測終端根據聯邦學習模式選擇機制,定期觸發(fā)模型參數更新流程,通過聯邦訓練保持模型對新型電器與用電行為的適應能力。

8、進一步地,步驟3中,crosstransnilm模型具體包括:一維卷積層、位置編碼、共享transformer編碼器以及多個負荷分支,每個負荷分支處理一種負荷類型;每個負荷分支包含一個分支transformer編碼器層、一個交叉transformer層和兩層全連接層;

9、模型的輸入總線序列為,其中是序列長度,且為奇數,用于定位中心點;模型的學習目標是預測序列中點時刻的各負荷的功率,學習目標表示為:

10、,

11、其中,為假設空間,表示采樣點總數,為均方誤差損失函數,為負荷類型的總數;

12、一維卷積層用于提取序列的局部特征,卷積運算公式表示為:

13、,

14、其中,代表一維卷積操作,是輸入的總線功率序列,是卷積后的輸出,表示提取的局部特征;

15、位置編碼用于每個位置在序列中的位置編碼由正余弦函數生成,計算公式為:

16、

17、其中,是模型維度,表示序列位置索引;

18、嵌入層用于將卷積層輸出與位置編碼相加,得到序列的嵌入表示:

19、,

20、其中,是經過卷積層后的輸出,是正余弦編碼的位置信息;

21、共享transformer編碼器用于處理并分析輸入的總線功率序列,通過其多層結構和多頭自注意力機制,捕捉序列數據中的長距離依賴關系。

22、進一步地,共享transformer編碼器由多個編碼層組成,每層都包括一個多頭自注意力機制和一個前饋神經網絡。

23、進一步地,步驟3包括:

24、步驟3.1:中心服務器首先初始化全局模型參數,然后將其下發(fā)到所有參與訓練的客戶端,數學表示為:

25、,其中,表示客戶端的總數;

26、步驟3.2:客戶端使用本地數據進行訓練,更新模型參數,更新規(guī)則為:

27、,

28、其中,是客戶端在第輪本地訓練的模型參數,是模型訓練的學習率,是均方誤差損失函數對參數的梯度;

29、定義每個客戶端在第輪本地訓練的模型為,其中,表示客戶端在第輪訓練中第層的參數,為crosstransnilm模型的總層數,此時,第層參數均值變化量,稱為層敏感度,定義為:

30、;

31、計算每一層的敏感度并排序,選擇敏感度最大的前層,其中是傳輸比例系數,取值范圍;

32、步驟3.3:服務器端收集所有客戶端上傳的模型參數,其中為全局訓練的輪數索引;對每個客戶端,計算其與其他所有客戶端更新之間的歐氏距離和:

33、,

34、其中,表示除客戶端之外的其他參與訓練的客戶端的索引,表示第輪全局訓練中客戶端的模型參數;得分越小,意味著與其他客戶端的更新越接近,越可能被視為正常的更新;然后,對進行排序,剔除最高的層更新,其中是聚合比例系數,取值范圍是;

35、對剩余的正常更新進行聚合,對于crosstransnilm模型的每個層,初始化權重累積器和計數器,對于每個客戶端上傳的權重,更新累積器和計數器,計算層平均更新:

36、;

37、將平均更新加到全局模型的相應層上:

38、;

39、步驟3.4:中心服務器將更新后的全局模型參數分發(fā)給所有客戶端,以繼續(xù)下一輪的訓練:

40、 ,。

41、進一步地,步驟4包括:

42、步驟4.1:利用圖注意力網絡學習客戶端之間的相似度,并根據注意力權重來篩選最相關的連邊,得到通信拓撲結構;

43、步驟4.2:中心服務器生成初始模型參數,該模型參數包含所有需要訓練的網絡層和參數,用于nilm任務;然后,中心服務器將初始化后的全局模型參數分發(fā)給所有參與訓練的客戶端,使每個客戶端在訓練開始前擁有相同的起點,數學表示如下:

44、,

45、其中,表示客戶端在初始化時的模型參數,為客戶端的總數;

46、步驟4.3:進行本地模型訓練,每個客戶端根據構建的通信拓撲將模型參數與鄰居客戶端共享;每個客戶端在接收到其鄰居客戶端的更新參數后,通過加權平均來聚合各客戶端模型參數;

47、步驟4.4:

48、評估收斂性,將判斷結果記錄為一個二值信號:

49、,

50、其中,表示客戶端認為當前模型已收斂,表示模型尚未收斂;表示客戶端在本地驗證集上的損失值;為預設的閾值,為目標準確度,為模型在本地驗證集上的準確度;

51、步驟4.5:每輪訓練完成后,所有客戶端將各自的收斂信號發(fā)送到中心服務器;中心服務器根據統(tǒng)計的投票結果來判斷是否停止訓練,總投票數;設置投票閾值為一個靜態(tài)的固定值,當時,系統(tǒng)停止訓練,否則進入下一輪訓練。

52、進一步地,步驟4.1包括:

53、步驟4.1.1:每個客戶端首先根據本地數據,提取關鍵統(tǒng)計特征,所述關鍵統(tǒng)計特征包括均值、標準差、最小值和最大值,數學表示為:

54、,

55、其中,所有客戶端的特征表示為,;

56、令表示通信拓撲圖,客戶端集合,邊集合表示客戶端間的潛在通信連接關系,初始化邊集合為一個全連接結構,不包含自環(huán),即初始設為一個完全有向圖;

57、步驟4.1.2:采用三層圖注意力網絡來構建客戶端間的通信連接,對于客戶端與其鄰居客戶端,圖注意力網絡首先對客戶端特征做可學習的線性映射;然后,為每條邊計算注意力系數,其形式為:

58、,

59、其中,是激活函數,為可學習的注意力向量,表示向量拼接,和分別表示客戶端和其鄰居客戶端的特征矩陣;

60、接著經過softmax歸一化,得到最終注意力系數:

61、;

62、在前向傳播過程中,進一步獲得更新后的節(jié)點表示及所有邊的注意力系數集合;表示為客戶端與的連接權重;

63、調用 ,其中,為更新后的客戶端嵌入矩陣,為注意力系數集合;

64、步驟4.1.3:設定注意力權重閾值為的中位數,保留的拓撲邊:,并且剔除自環(huán);

65、對于中的每條有向邊,僅保留無向形式,得到的無向邊集;

66、對任意客戶端 ,統(tǒng)計其度數,其中,表示與相連的鄰居客戶端;若出現,表示該客戶端在中無任何連接邊,則隨機為選取一個鄰居客戶端并將新邊并入;

67、令,最終無向圖即為基于gat學習得到的去中心化通信拓撲。

68、進一步地,步驟2具體包括:

69、當網絡帶寬,延遲,并且數據隱私需求較低時,系統(tǒng)選擇集中式聯邦學習,否則,切換至去中心化聯邦學習;

70、如果滿足集中式聯邦學習訓練的條件,由中心服務器對所有客戶端的模型更新進行統(tǒng)一聚合和優(yōu)化;

71、如果觸發(fā)去中心化聯邦學習訓練的條件,客戶端在分布式環(huán)境中獨立訓練并與鄰居客戶端交換模型更新。

72、第二方面,本發(fā)明提供一種基于混合聯邦學習和交叉transformer的非侵入式負荷監(jiān)測系統(tǒng),所述系統(tǒng)包括:

73、預處理模塊,用于對電力信號數據進行預處理;

74、聯邦學習訓練模式選擇模塊,用于根據監(jiān)測網絡帶寬、延遲以及數據隱私需求確定聯邦學習訓練模式,所述聯邦學習訓練模式包括集中式聯邦學習和去中心化聯邦學習;如果確定為集中式聯邦學習,執(zhí)行集中式聯邦學習模塊,否則執(zhí)行去中心化聯邦學習模塊;

75、集中式聯邦學習模塊,用于集中式聯邦學習訓練,在客戶端和中心服務器部署crosstransnilm模型,將所有參與訓練的客戶端模型更新集中到中心服務器進行聚合;crosstransnilm模型包括多層transformer編碼器和負荷分支模塊,通過總線功率預測多個負荷的功率消耗;

76、去中心化聯邦學習模塊,用于去中心化聯邦學習訓練,各客戶端獨立訓練crosstransnilm模型并通過點對點通信交換模型參數,通過圖注意力網絡來優(yōu)化通信拓撲,并通過投票機制判斷全局模型的收斂性;

77、監(jiān)測模塊,用于非侵入式負荷監(jiān)測與實時反饋,將訓練完成的crosstransnilm模型部署至監(jiān)測終端,實時采集總線路的功率信號,通過預處理后輸入模型進行端到端監(jiān)測;通過負荷分支模塊輸出各用電設備的功率分解結果,將負荷功率映射為用電設備的啟停狀態(tài);監(jiān)測終端根據聯邦學習模式選擇機制,定期更新模型參數。

78、第三方面,本發(fā)明提供一種計算機設備,包括存儲器和處理器,所述存儲器中存儲有計算機程序,當所述處理器運行所述存儲器存儲的計算機程序時執(zhí)行如上文所述的一種基于混合聯邦學習和交叉transformer的非侵入式負荷監(jiān)測方法的步驟。

79、第四方面,本發(fā)明提供一種計算機可讀存儲介質,所述計算機可讀存儲介質中存儲有多條計算機指令,所述多條計算機指令用于使計算機執(zhí)行如上文所述的一種基于混合聯邦學習和交叉transformer的非侵入式負荷監(jiān)測方法。

80、本發(fā)明的有益效果:

81、本發(fā)明提供了一種基于混合聯邦學習框架和交叉transformer結構的非侵入式負荷監(jiān)測方法,旨在解決現有技術中的準確性、擴展性和隱私保護的不足。本發(fā)明提供了一個靈活的混合聯邦學習框架,該框架結合了集中式和去中心化聯邦學習的優(yōu)點,以適應不同的網絡條件和隱私保護需求,并且設計一個交叉transformer模型用于通過總線功率來同時預測多個負荷的功率消耗。本發(fā)明方法具體包括:

82、(1)結合集中式聯邦學習和去中心化聯邦學習的混合聯邦學習框架:通過動態(tài)切換集中式和去中心化聯邦學習模式,以適應不同的網絡條件和隱私需求,增強了模型的適應性和魯棒性。

83、(2)通過圖神經網絡構建去中心化聯邦學習的通信拓撲:使用圖神經網絡將深層次的圖結構信息編碼進客戶端的嵌入表示中,捕捉復雜的通信拓撲和客戶端間的遠程依賴,提高通信效率和穩(wěn)定性,同時增強系統(tǒng)對拜占庭攻擊的抵抗能力。

84、(3)nilm隱私保護和抵抗攻擊策略:通過層敏感度剪枝和魯棒的聚合方法來增強聯邦學習的隱私保護。其中層敏感度剪枝通過剪枝關鍵模型參數減少通信需求,增強數據安全性;使用krum算法魯棒性聚合方法抵御拜占庭攻擊,確保模型更新的可靠性。

85、(4)交叉transformer結構(crosstransnilm)設計:通過一維卷積層和共享的transformer編碼器處理輸入的總線功率序列,采用多個負載分支結構來實現多個的負荷工作模式的預測。其中輸入為總線功率序列,輸出為序列中點位置的多個負荷的功率值。

86、(5)判斷nilm模型收斂的投票機制共識:在去中心化聯邦學習訓練中,采用投票機制判斷模型是否收斂,增加模型訓練的適應性。

87、本發(fā)明通過引入混合聯邦學習框架、交叉transformer結構、層敏感度剪枝策略、krum魯棒聚合、圖神經網絡(graph?neural?networks,?gnn)以及模型收斂投票機制,為nilm領域提供了一種全新的解決方案,具備顯著的技術優(yōu)勢,尤其在智能電網和家庭能耗管理中具有重要的應用前景。本發(fā)明通過使用混合聯邦學習框架和交叉transformer模型,旨在實現對監(jiān)測環(huán)境中各種負荷設備的能耗進行監(jiān)控,無需對每個負荷分別連接傳感器。

88、本發(fā)明適用于需要隱私保護和數據安全的環(huán)境,如數據中心以及居民住宅,其中用戶數據的保密性和系統(tǒng)的安全性至關重要。此外,本發(fā)明的應用還可擴展到智能城市和智能電網的構建中,為城市能源管理提供支持。

當前第1頁1 2 
網友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1