首頁 > 文章中心 > 神經網絡算法

          神經網絡算法

          前言:想要寫出一篇令人眼前一亮的文章嗎?我們特意為您整理了5篇神經網絡算法范文,相信會為您的寫作帶來幫助,發現更多的寫作思路和靈感。

          神經網絡算法范文第1篇

          關鍵詞 神經網絡;BP;優化算法

          中圖分類號:TP183 文獻標識碼:A 文章編號:1671-7597(2014)13-0066-01

          1 人工神經網絡模型

          人工神經網絡簡稱ANN,它是一種將人類大腦的組織結構和運行機制作為其研究基礎來模擬人類大腦內部結構和其智能行為的處理系統。人工神經網絡中的神經元細胞將其接收到的所有信號進行處理,如加權求和等操作,進行操作后經軸突輸出。

          2 人工神經網絡的分類

          2.1 前饋型神經網絡

          前饋型神經網絡通過對其網絡中的神經元之間的連接關系進行復合映射,因此這種網絡模型具有非常強的非線性處理的能力。如圖1所示,在這里前饋型神經網絡模型被分為三層,分別為輸入層、輸出層和隱含層,一般常用的前饋型神經網絡有BP神經網絡、RBF神經網絡、自組織神經網絡等。

          圖1 前向神經網絡模型

          2.2 反饋型神經網絡

          反饋型神經網絡其結構,在這個模型中我們假設網絡總的神經元個數為N,則每個神經元節點都有N個輸入值及一個輸出值,每個神經元節點都如此,節點之間相互聯系?,F在被大量使用的反饋型神經網絡一般有離散Hopfield神經網絡模型、Elman神經網絡模型等等。

          3 BP神經網絡

          3.1 BP神經網絡簡介

          1986年,Rumelhant和McCelland提出了BP神經網絡的一般模型,BP神經網絡是一種具有多層網絡的反向傳播學習算法。BP神經網絡模型的基本思想是:整個過程主要由信號的正向傳播和誤差的反向傳播兩個過程組成。目前,BP神經網絡的應用范圍為數據壓縮、數據分類、預測分析和模式識別等領域。

          3.2 BP神經網絡的結構

          如圖2所示,這里是BP神經網絡的一種模型結構,在這種模型結構中輸入信號量為m,具有隱含層的數量為j,輸出信號量為q的模型結構。

          BP神經網絡一般具有一個或多個隱含層單元,其差別主要體現在激活函數的不同。針對BP神經網絡所使用的激活函數一

          圖2 BP神經網絡模型結構

          般采用S型對數函數或者采用正切激活函數,而輸出層則一般采用線性函數作為激活函數。

          3.3 BP神經網絡的改進方法

          BP神經網絡作為當今對研究電力負荷預測應用最多的一種神經網絡,但標準的BP神經網絡算法存在的一些缺陷,這里就對一些經常使用的典型改進方法進行描述。

          1)增加動量項。在一般的BP神經網絡算法中,其模型中的各層權值在進行更新的過程中,是按照t時刻誤差曲線進行梯度下降方式進行調整的,在這里并沒有考慮其之間的梯度下降的方向,如果使用這種方式進行調整則會造成訓練的過程不穩定,容易發生振蕩,導致收斂過程緩慢的結果。因此有些學者就為了使網絡訓練的速度提高,收斂過程加快,就在一般網絡模型的權值更新環節添加了一個動量項因子即:

          (1)

          在這個式子中,W表示BP神經網絡中每一層的權值矩陣,O則表示神經網絡中每一層的輸出向量矩陣,α則被稱為該神經網絡的動量系數因子,其取值范圍在0到1之間,在該網絡在進行訓練的過程中,如果其誤差梯度網線出現了局部極小值現象,雖然在這里的第一項會趨摟于零,但是這一項,

          這樣就會使該訓練過程避免了限入局部極小值區域的形勢,從而加快了其訓練速度,使該神經網絡收斂速度加快,因此這種帶有動量項因子的BP神經網絡算法應用到了很多的BP網絡中。

          2)學習速度的自適應調節方法。學習速度η在一個標準的BP神經網絡中是以一個常數出現的我們也稱為之步長,而在實際的運算過程中,很難找到一個數值作為最優學習速度。我們從誤差曲面圖形中可以看出,當曲面中區域處于一個平坦區域時,我們需要設置一個比較大的η值,使它能夠跳出這個平坦的區域;而當曲面中的區域處于變化比較很大的區域時,這時的η的數值我們又需要將其進行減小或者增大操作。自適應調整學習速度η則可以根據網絡的總誤差來進行自我調整,在網絡經過多次調整后,如果E總繼續上升,則表明這里的調整是無效的,且η=βη, ;而經常調整這里的E總下降了,則表明這里的調整是有效果的,且η=αη,。

          3)引入陡度因子(防止飽和)。在網絡訓練的過程中,由于其誤差曲面具有平坦區,當處于這個區域時,由于S型激活函數有飽和特性,促使權值的調整速度放慢,從而影響了調整的速度。在訓練的過程中,如果算法調整進入了這個區域,我們可以減小神經元的輸入量,使其輸出值迅速脫離激活函數的飽和區域,這里誤差函數的數值則會隨之發生改變,其權值的調整也就脫離了該平坦區。想要實現以上思路則需要在激活函數中引入一個陡度因子λ。

          (2)

          當趨近于0時,而數值較大時,調整其進入誤差曲面中的平坦區,此時λ的值應選擇大于1的數值;而當調整脫離平坦區域后,再設置λ大于1,使激活函數能夠恢復到原始數值。

          4 總結

          綜上所述,設計一個人工神經網絡應用到實際問題中,可以歸結為網絡自身權值參數的學習與合理的設計網絡拓撲結構這兩大類優化問題。由于人工神經網絡的訓練是一個非常復雜的問題,使用傳統的學習算法進行訓練則要花費很長的時間,BP算法用到了梯度下降法,才只能在一定范圍內找到合適的參數值及其模型結構。因此,為了更好的提高神經網絡的泛化能力,及將網絡拓撲結構設計的更加合理,大量關于神經網絡的優化算法相繼產生。

          參考文獻

          神經網絡算法范文第2篇

          【關鍵詞】BP算法 蟻群優化算法 放大因子 神經網絡

          伴隨著近年來對于人工智能(Artificial Intelligence)研究的不斷深入,其中一項重要的分支內容也越來越引起人們的重視,即人工神經網絡,這一技術研究現已經廣泛的應用到了信息處理、車輛檢測、價格預測等多個領域當中。而BP網絡神經算法則是應用普及程度最高的一項神經網絡內容,然而這一傳統的神經網絡算法卻存在有一些較為顯著的缺陷性,如局部不足、收斂緩慢、缺乏理論指導等,因此有必要對傳統的算法進行改進。據此本文主要就通過對于上述問題的分析,提出了引入放大因子以及應用蟻群優化算法兩項改進手段,并通過將改進后的算法應用到瓦斯濃度檢驗中,有效的驗證了這一算法的科學性。

          1 傳統BP算法的缺陷

          1.1 收斂緩慢

          因為BP神經網絡的誤差函數的曲面圖像十分復雜,因此極有可能會有一些相對較為平坦曲面的存在,在起初之時的網絡訓練收斂值較大,然而伴隨著訓練的進行,在訓練行進到平坦曲面位置時,依據梯度下降法,便極有可能會發生盡管誤差值較大,然而誤差梯度值卻較小,進而也就導致權值的可調整值變小,最終僅能夠采取加多訓練次數的方式來逐漸退出目標區域。

          1.2 局部不足

          盡管BP算法能夠促使均方誤差達到最小化權值與閾值,然而因為多層網絡結構的均方誤差存在有極大的復雜性特點,既有可能導致多項局部極小值情況的出現,從而使得算法在斂收之時,無法準確的判定出是否求得最優解。

          1.3 缺乏理論指導

          由于僅在接近于連續函數的情況時才需多層隱含層,但是在實際情況下往往是選用單層隱含層,這就會導致一個十分明顯的問題,即隱含層神經元的數量大小是對網絡計算的復雜性是具有直接性影響的,從理論層面來說神經元數量越多,所得到的求值才能夠越精確,然而現實情況往往都是依據經驗公式,以及大量的實驗驗證來明確出相應的隱含層神經元數量,這必須要借助于大量的運算處理才能實現。

          2 算法改進

          2.1 放大因子的引入

          在精確性允許的前提下,為了獲得更大的幾何間隔,可放寬容錯性,為閾值增添以一定的松弛變量。但還在BP神經網絡的學習過程當中,因為樣本所出現的隨機性改變,在通過歸一化處置后,于初期學習階段,樣本的訓練誤差較大,收斂較快,然而伴隨著訓練的持續進行,特別是在樣本訓練結果無限趨近于1/0之時,這是訓練便會達到平臺期,也就是相對停滯階段。

          在將放大因子運用到實際訓練當中,對隱含層與輸出層當中的權值采取調整,所產生的神經網絡訓練結果影響,要明顯超過輸入層和隱含層當中權值調整所造成的影響,因而在本次研究當中,將放大因子應用在了隱含層和輸出層權值的調整之中。

          2.2 應用蟻群優化算法

          蟻群優化算法是一種對離散優化問題進行求解的通用型框架。在某條具體路徑當中所經過的螞蟻數量越多,相應的信息條件密集性也就越大,從而這一路徑被選取的概率也就越大,其呈現出的是一種正反饋的現狀情況。每一只螞蟻在僅穿過任一節點一次的情況之時,對被選用的權值節點進行明確的記錄,從而該區域之中的節點也就組成了一組候選權值,在所有螞蟻均完成了首次選擇后,依據全局更新策略來對信息素的密度進行更新。直至滿足于最大進化代數,也就得到了最佳的權值組合。

          3 實驗分析

          3.1 變量選取

          考量到瓦斯濃度影響因素所具備的的不確定性,因此可對各類因素予以篩選,在對短期預測不造成影響的情況下,來選擇出影響力最大的因子。在瓦斯濃度監測的特征變量中主要包括有風速、溫度、負壓、一氧化碳濃度、瓦斯濃度。

          3.2 參數選擇

          依據上述特征變量內容,此實驗的BP神經網絡結構便可明確為輸入層4項:風速、溫度、負壓、一氧化碳濃度,輸出層1項:瓦斯濃度。針對以上特征變量依次選用傳統BP算法與改進后的算法進行測量,隱含網絡層均為1個。隱含層節點可通過下列公式予以驗證:

          m=0.618*(input+output)

          在這一公式當中input與output即為輸入層與輸出層節點數量。BP神經網絡算法的訓練數共1100,預計誤差值為0.0011,其中隱含層應用Sig mod函數,在輸出層之中應用線性函數。蟻群優化模型最終其規模明確為600,權值區間取[-1,1],迭代次數取1100次。

          3.3 結果分析

          在考量到具體運用時的科學性,可編寫一項測試軟件,針對數據內容予以計算處理,并將多次試驗所得數據信息予以對比,改進之后的BP神經網絡和傳統BP網絡其檢測精確性如表1所示。

          通過觀察表1,能夠明顯的發現,經過改進的BP神經網絡算法其訓練擬合度相較于傳統BP神經網絡算法而言更高,同時準確率也顯著提升了3.82%,收斂速度也有了顯著的提升,權值選取也有了理論性的指導。

          4 結束語

          總而言之,傳統的BP神經網絡算法存在收斂速度較慢、且容易陷入到局部不足以及缺乏理論指導的設計陷阱,本文主要通過對放大因子的引入,使得BP神經網絡算法在實際訓練時的權值調整方式發生了轉變,進而通過應用蟻群優化算法來實現了對于BP神經網絡權值的選擇,并構建起了相應的神經網絡模型以及改進后的訓練方法。最終將此改進之后的BP神經網絡算法應用到瓦斯濃度預測領域之中,其效果明顯優于傳統的BP神經網絡算法。

          參考文獻

          [1]楊紅平,傅衛平,王雯等.結合面法向和切向接觸剛度的MPSO-BP神經網絡算法的建模[J].儀器儀表學報,2012(08).

          [2]陳樺,程云艷.BP神經網絡算法的改進及在Matlab中的實現[J].陜西科技大學學報(自然科學版),2014(02):45-47.

          神經網絡算法范文第3篇

          關鍵詞:競爭型神經網絡;分類;訓練誤差;特征向量

          文本分類數是據挖掘的一個重要研究領域,國內外的眾多學者已經進行了比較深入的研究,取得了不少研究成果。常見的文本分類技術有最小距離方法、樸素貝葉斯方法、KNN方法、支持向量機方法(SVM)、模糊c均值(FCM)算法和等,現在有很多學者把神經網絡的方法應用到分類算法中,在這些分類算法中,神經網絡的文本分類更具有優越的性能。袁飛云利用SOINN自動產生聚類數目和保留數據拓撲結構的兩項能力,尋找更有效的單詞和設計更有效的編碼方式,提出了基于自組織增量神經網絡(SOINN)的碼書產生方法;申明金利用自組織特征映射神經網絡(SOM)以無監督方式進行網絡訓練,具有自組織功能的特點,利用自組織特征映射神經網絡對不同產地金銀花進行分類;彭俊等將不同空氣質量等級下的各空氣指標作為原型模式,通過輸入樣本模式,利用競爭網絡的競爭特點得到勝者,以此得出空氣質量等級;郝曉麗等通過篩選基于輪廓系數的優秀樣木群,來尋找最佳初始聚類中心,并將該改進算法用于構造徑向基函數神經網絡分類器和快速有效地確定隱含層節點徑向基函數中心及函數的寬度,從而提高了分類精度;孫進進利用神經網絡技術中的自組織映射SOM)網絡對我國主要機場進行聚類分析評價,得出我國主要機場分為8層的主要結論;劉艷杰在非監督的自組織映射神經網絡的基礎上進行了一定的改進,構建了有監督的神經網絡分類模型;李楊將神經網絡與群體智能算法、云計算相結合的方法,實現對不同規模農業數據集的分類,提出基于神經網絡分類器的設計與優化方法。而競爭型神經網絡的自組織、自適應學習能力,進一步拓寬了神經網絡在模式分類和識別方面的應用。競爭型神經網絡依靠神經元之間的興奮、協調、抑制或競爭的作用來進行信息處理,可在訓練中無監督自組織學習,通過學習提取數據中的重要特征或內在規律,進而實現分類分析的功能。

          1競爭型神經網絡的描述

          1.1競爭型網絡的結構

          競爭學習網絡的結構如圖1所示,該網絡具有R維輸入和s個輸出,由前饋層和競爭層組成。圖中的llndlstll模塊表示對輸入矢量P和神經元權值矢量w之間的距離取負。該網絡的輸出層是競爭層,圖中的模塊c表示競爭傳遞函數,其輸出矢量由競爭層各神經元的輸出組成,這些輸出指明了原型模式與輸入向量的相互關系。競爭過后只有一個神經元有非零輸出,獲勝的神經元指明輸入屬于哪類(每個原型向量代表一個類)。

          1.2競爭型神經網絡的原理

          競爭型神經網絡在結構上,既不同于階層型的各層神經元間非單向連接,也不同于全連接型。它有層次界限,一般是由輸入層和競爭層構成的兩層網絡。兩層之間各神經元實現雙向全連接,沒有隱含層,有時競爭層各神經元之間還存在橫向連接。在學習方法上,不是以網絡的誤差或能量函數的單調遞減作為算法準則。而是依靠神經元之間的興奮、協調、抑制、競爭的作用來進行信息處理,指導網絡的學習與工作。

          網絡在剛開始建立的時候,輸入層和輸出層之間的連接權值已經開始了,如果與競爭層某一神經元對應的矢量子類別屬于線性層某個神經元所對應的目標類別,則這兩個神經元的連接權值為1,否則二者的連接權值為0,這樣的權值矩陣就實現了子類別到目標類別的合并。在建立競爭型網絡時,每類數據占數據總數的百分比是已知的,這也是競爭層神經元歸并到線性層的各個輸出時所依據的比例。

          1.3存在的問題

          競爭型神經網絡按Kohonen學習規則對獲勝神經元的權值進行調整,通過輸入向量進行神經元權值的調整,因此在模式識別的應用中是很有用的。通過學習,那些最靠近輸入向量的神經元權值向量得到修正,使之更靠近輸入向量,其結果是獲勝的神經元在下一次相似的輸入向量出現時,獲勝的可能性更大;而對于那些與輸入向量相差很遠的神經元權值向量,獲勝的可能性將變得很小。這樣,當經過越來越多的訓練樣本學習后,每一個網絡層中的神經元權值向量很快被調整為最接近某一類輸入向量的值。最終的結果是,如果神經元的數量足夠多,則具有相似輸入向量的各類模式作為輸入向量時,其對應的神經元輸出為1;而對于其他模式的輸入向量,其對應的神經元輸出為0。所以,競爭型神經網絡具有對輸入向量進行學習分類的能力。

          例子:以競爭型神經網絡為工具,對下面的數據進行分類:

          運用Matlab編程實現,發現網絡的訓練誤差能達到要求,最后也能實現很好的分類效果。運行結果如圖2所示。

          有運行結果可以看到,訓練誤差達到要求,分類結果也很合理。

          但是在實際應用過程中,我們發現,當對于訓練數據的數據特征十分明顯的時候,本文設計的網絡模型可以對訓練的數據進行合理有效的分類,但是,當訓練數據的特征不太明顯區分的時候,本文設計的訓練模型的分類效果就不是太有優勢,所得到的分類結果就不能達到我們預期的效果。

          我們利用競爭型神經網絡對數據樣本進行分類,其中參數設置為學習效率0.1,網絡競爭層有4個神經元,運用Matlab編程實現,發現結果如下:

          例子:我們利用本文設計的網絡分類模型進行對數據分類處理:進行分類處理數據的樣本數據如下所示:

          通過運行學習發現訓練誤差較大,分類結果也達不到要求。

          2改進的方法

          2.1問題分析

          通過比較分析我們發現,上面的數據樣本沒有明顯的分類特征,所以,以競爭型神經網絡進行分類,其輸入向量僅僅依靠數據本身的固有的特征時不夠的,但我們可以把數據樣本看作是二維數據,假設同符號的特征值為1,不同符號的特征值為2,于是一個新的訓練樣本就確定了,即成為三維數據模型。

          2.2改進的算法

          第一步:給定數據集X=[X1,X2……,Xi),對網絡進行初始化,隨機給定網絡競爭層與輸入層間的初始權向量wj(=wj[w1j w2j…wnj];j=1,2,…,m xp;wijE(0,1));給定輸出層與競爭層間的連接權值wjo=1/m,o=1,2,…P (P表示第二隱層和輸出層的連接權矢量)。

          第二步:創建競爭型神經網絡,首先根據給定的問題確定訓練樣本的輸入向量,當學習模式樣本本身雜亂無章,沒有明顯的分類特征,網絡對輸入模式的響應呈現震蕩的現象,不足以區分各類模式時,在創建網絡之前,提取訓練樣本的特征值,設置輸入樣本的特征向量,然后再創建網絡模型,并根據模式分類數確定神經元的數目,最后任取一輸入模式Ak。

          第三步:計算競爭層各神經元的輸入值si:

          第四步:對本文建立的網絡進行訓練學習,網絡訓練最大次數的初始值設置為230,當訓練誤差大于預期的設定值的時候,可以嘗試增加訓練的最大次數,按“勝者為王”(Winner Takes All)原則,將訓練網絡中獲得最接近預期值的神經元作為勝者,輸出狀態設置為1,沒有獲勝的神經元的輸出狀態設置為0。如果有兩個以上神經元的sj相同,取左邊的為獲勝單元。

          第五步:獲勝神經元連接權修正如下:

          第六步:另選一學習模式,返回步驟3,直至所有學習模式提供一遍。

          第七步:如果不滿足要求,則返回到最初的訓練狀態,反復訓練直至訓練網絡中神經元獲得最接近預期值,最終的訓練結束。

          第八步:根據測試樣本利用Matlab編寫程序進行仿真實驗。

          通過實例訓練,我們發現本算法和改進前的算法相比,改進后的算法訓練誤差卻大大降低,已經達到了訓練的精度要求,同時也很好地實現了分類要求。

          神經網絡算法范文第4篇

          中圖分類號:TN919-34; TP274 文獻標識碼:A

          文章編號:1004-373X(2010)18-0121-03

          Research on Incremental PID Algorithm and Simulation Based on Neural Network

          WANG Jun-qin

          (Department of Mechanical and Electronic Engineering, Xi’an University of Arts and Science, Xi’an 710065, China)

          Abstract: To resolve the shortages of traditional PID controller which is not strong enough to control the time-varying system, an incremental PID controller based on neural network is designed to realize the online self-tuning of PID parameters in combination with the neural network theory and traditional PID control theory. The result of experiment simulation shows that the controller has better adaptability than the traditional PID controller and can obtain the satisfactory control effect. Keywords: neural network; PID; Matlab; online self-tuning

          傳統的PID 控制器算法簡單,結構上易于實現,被廣泛應用在工業過程控制領域[1],但是在實際應用中往往具有非線性、時變不確定性,導致PID控制參數難以整定以達到最佳控制要求。BP神經網絡具有較好的在線檢測能力[2],將PID控制和BP神經網絡相結合通過加權系數調整,可以實現PID參數的自學習過程[3],從而達到滿意的控制效果[4]。

          1 基于神經網絡的PID控制

          PID控制要取得好的控制效果,就必須通過調整好比例、積分和微分三種控制作用的關系,這種關系不一定是簡單的“線性組合”,而是從變化無窮的非線性組合中找出最佳的關系。BP神經網絡具有逼近任意非線性函數的能力,而且結構和學習算法簡單明確。通過網絡自身的學習,可以找到某一最優控制規律下的PID參數[4]。

          1.1 常規PID控制器

          傳統的PID控制器算式如下:

          PID控制器的輸入/輸出關系式為:

          u(t)=KPe(t)+1TI∫t0e(t)dt+TDde(t)/dt

          式中:u(t)為控制器的輸出;e(t)為誤差信號; KP為比例系數;TI為積分時間常數;TD為微分時間常數。

          假設采樣周期為TS,系統開始運行的時刻為t=0,用矩形積分來近似精確積分,用差分近似精確微分,將上式離散化,第kТ尾裳時控制器的輸出為[5]:

          u(k)=KPe(k)+KI∑nj=1e(j)+KD[e(k)-e(k-1)]

          式中:e(k-1)為第k-1次采樣時的誤差值;KI為積分系數;KD為微分系數。

          1.2 單神經元的結構[6]

          圖1中輸入層有n個神經元節點,這些節點只負責引入外部信息,自身無信息處理能力,每個節點接收┮桓霆輸入信號,n個輸入信號構成輸入列向量X。輸出層有m個神經元節點,每個節點均具有信息處理能力,m個節點向外部處理信息。構成輸出列向量O。兩層之間的連接權值用權值列向量Wj表示,m個權向量構成單神經元的權值矩陣W。3個列向量分別表示為:

          O=(o1,o2,…,oi,…,om)T,X=(x1,x2,…,xi,…,xn)T

          Wj=(w1j,w2j,…,wij,…,wnj)T,j=1,2,…,m

          由神經元數學模型知,對于處理層中任一節點,其凈輸入netj為來自輸入層各節點的輸入加權和:

          netj=∑ni=1wijxi

          1.3 神經網絡PID控制器

          在此提出一種單神經元的增量PID控制方案,采用圖2所示3輸入單輸出神經元增量式PID閉環控制結構[7]。

          圖1 單神經元拓撲結構

          圖2 單神經元PID控制系統結構圖

          轉換器的輸入是給定值Yr(t) 和輸出Y(t) ,轉換器的輸出X1(k),X2(k),X3(k)是神經元學習所需的3個參量。3輸入單輸出神經元增量式PID控制器的輸入輸出之間滿足如下關系[8-9]:

          X1(k)=Yr(k)-Y(k)=E(k), X2(k)=

          E(k)-E(k-1)=ΔE(k),

          X3(k)=[E(k)-E(k-1)]-[E(k-1)-E(k-2)]

          =E(k)-2E(k-1)+E(k-2),

          U(k)=U(k-1)+∑3i=1Wi(k)*Xi(k)

          式中:Wi(k) 是對應于Xi(k) 的加權系數。單神經元PID控制器正是通過對加權系數的調整來實現自適應、自學習功能的。

          采用有教師監督的法則δ學習規則[8],并且比例(P),積分(I),微分(D)分別采用不同的學習速率ηP,ηI,ηD,Ъ尤ㄏ凳學習算法如下:

          W1(k+1)=W1(k)+ηPE(k)E(k),

          W2(k+1)=W2(k)-ηIE(k)∑ki=0E(i),

          W3(k+1)=W3(k)+ηDE(k)ΔE(k)

          將加權系數代入增量式PID控制器的控制規律,則有:

          U(k)=U(k-1)+W1(k)•

          X2(k)+TW2(k)*X1(k)+W3(k)T*X3(k)

          式中:T是采樣周期。

          從上式可得:

          ΔU(k)=KPX1(k)+KIX2(k)+KDX3(k)

          對照以上兩式可看出,PID控制器的3個參數實現了在線自整定。

          1.4 神經網絡PID控制器的控制算法[10]

          (1) 確定BP神經網絡結構,即確定輸入節點數和隱含層節點數,并給出權系數初值,選定學習速率和慣性系數,此時k=1;

          (2) 采樣得到r(k)和y(k),計算誤差為e(k)=r(k)-y(k);

          (3) 計算各神經網絡的輸入/輸出,其輸出層的輸出即為PID控制器的3個控制參數KP,KI,KD;

          (4) 計算PID控制器的輸出;

          (5) 進行神經網絡學習,在線調整加權系數,實現PID控制參數的自適應調整;

          (6) 令k=k+1,返回步驟(1)。

          2 神經網絡Matlab仿真

          對于被控對象:

          G(s)=35s(0.2s+1)(0.01s+1)(0.005s+1)

          輸入信號為階躍信號,控制系統經傳統方法整定的PID參數KP=3,KI=10,KD=0.2。系統輸出見圖3。

          圖3 PID控制輸出曲線

          利用神經網絡增量PID方法選取比例、積分、微分項的初始系數值為W1=W2=W3=1,學習速率ηP=0.01,ηI=1,ηD=0.001,通過編寫具有自學習自適應能力的軟件程序所得輸出曲線如圖4所示。

          圖4 神經網絡PID控制輸出曲線

          PID 三參數在線整定曲線如圖5所示。比較可得后一種方法所得曲線有較好的控制品質。

          圖5 PID 三參數在線整定曲線

          3 結 語

          理論分析和仿真結果表明,通過研究所提出的神經網絡增量PID控制器控制精度高,較傳統的PID控制具有更好的控制品質。

          參考文獻

          [1]劉金琨.先進PID控制及Matlab仿真[M].北京:電子工業出版社,2003.

          [2]韓豫萍,孫濤,盛新.基于BP神經網絡的PID控制及仿真[J].可編程控制器與工廠自動化,2007(12):91-93.

          [3]謝英.基于BP神經網絡的PID控制器及其Matlab仿真[J].中國新技術新產品,2009(10):13-15.

          [4]馬玲玲,鄭賓,馬圓圓.基于神經網絡PID智能復合控制方法研究[J].計量與測試技術,2009,36(3):17-19.

          [5]張科,靖固.利用FPGA的增量式PID控制的研究[J].現代制造工程,2009(3):112-114.

          [6]韓力群.智能控制理論及應用[M].北京:機械工業出版社,2007.

          [7]祝軒,侯榆青,彭進業,等.基于單神經元PID控制器的閉環控制系統[J].西北大學學報:自然科學版,2004,34(4):413-417.

          [8]馮勇.現代計算機控制系統[M].哈爾濱:哈爾濱工業大學出版社,1996.

          神經網絡算法范文第5篇

          【關鍵詞】神經網絡;配電網;線損

          一、引言

          線損是電能在傳輸過程中各個環節的損失,是供電量和售電量之間的差值。在電能的傳輸過程中造成部分電能的浪費,因此研究人員在不斷的探究新的降低線損的方法。將BP神經網絡算法應用到配電網的綜合降損中,為配電網降損研究做出了貢獻。

          二、BP神經網絡算法

          BP神經網絡包括輸入層、隱含層和輸出層,按照誤差逆向傳播的方式訓練多層前饋網絡。BP神經網絡的學習過程是信息的前向傳播和信息誤差的反向傳播兩項內容。在信息前向傳播的過程中輸入層傳播到隱含層,信息由隱含層處理后再傳播到輸出層,這是信息逐層更新的過程。

          BP神經網絡算法是通過調整權重來實現使網絡輸出值逼近期望值的目的,BP神經網絡算法學習過程為:1.將各權重值和閥值設為最小正數;給定網絡一組輸入向量和目標輸出向量;2.根據輸入向量計算實際輸出向量,即,將此輸出值送到下一層作為輸入;3.權重的調整是通過權重調整公式來實現;式中為增益相,為輸出誤差。在應用BP神經網絡解決問題前,除了了解它的學習過程外,還需要對其進行訓練,步驟如下:

          1.對相應的數據進行初始化:期望誤差最小值:err_goal;最大循環次數:max_epoch;權值修正學習速率:lr,取0.01-0.6

          2.完成一個訓練樣本的學習后,將下一個學習樣本提供給網絡,以此類推完成全部的樣本訓練。

          3.從學習樣本中選取一組輸入和目標樣本數據,然后再計算輸出向量,網絡全局誤差小于設定期望誤差為止,訓練結束。

          三、配電網綜合降損

          將BP神經網絡算法應用到配電網的綜合降損中。以某地區一條10KV配電線路為例說明,此配電線路的拓撲結構如圖1所示,標號1-13為負荷母線,Sl-S12為母線之間的聯絡開關,兩座變電站由A、B表示。選取l號負荷母線2013年12月前十天的負荷數據為訓練數據,數據如表1所示。

          表1 1號負荷母線12月前十天負荷數據

          (一)負荷預測

          采用BP神經網絡實現負荷預測的過程為:以當天負荷段對應的負荷點12個分量的數據為配電網的輸入向量,且輸出向量同樣為第二天12個分量的負荷數據,這樣就實現了為下一天負荷的預測。

          用1號到9號的數據進行網絡訓練,訓練函數設置為:net.trainParam.epochs=500;%訓練次數設為500次;net.trainParam.goal=0.001;%訓練目標設為0.001;L.P.lr=0.05;%學習速率設為0.05;Net=train(net,P,T);%P為輸入向量,1到5號的負荷數據;%T為輸出向量,6到10號的負荷數據。訓練結果為:TRAINLM,Epoch0/500,MSE3.7989/0.001,Gradient1081.63/1e-010 TRAINLM,Epoch5/500,MSE0.000463846/0.001,Gradient7.38793/1e-010 TRAINLM,Performance goal met.

          由此可見通過訓練之后,預測數據和實測數據誤差為0.001,且基本無偏差,可很好的滿足實際應用需求

          圖2某地區10KV配電網線路

          (二)配網重構

          根據負荷等級將圖1配電網線路中的13條母線分為7類,則有713種負荷模式,從713種負荷模式中選取4000個,以其中3000個數據作為訓練集合,應用BP神經網絡算法對配電網進行學習訓練,另外1000個數據為測試集合,經過46次訓練后可達到誤差要求,訓練結果為:

          TRAINBFG-srchbac.Epoch0/500,MSE21.616/0.02,Gradient236.65/1e-006

          TRAINBFG-srchbac.Epoch25/500,MSE0.026354/0.02,Gradient0.150609/1e-006

          TRAINBFG-srchbac.Epoch46/500,MSE0.0199597/0.02,Gradient0.0677733/1e-006

          TRAINBFG, Performance goal met.

          以13條母線的某一時刻負荷的實測數據為依據,通過負荷預測網絡的預測得到下一時刻的負荷預測數據,并通過配電網重構在預測時刻采用將圖1中開關S6斷開的模式運行則配電網線損為586.21kW,若采用將開關S7斷開的模式運行則線損為628.18kW,可見通過配電網重構后線損降低了41.97kW,降低了約6.7%,提高了配電網的輸電效率。

          四、結論

          通過對BP神經網絡算法的簡單介紹和學習、訓練過程的分析,將BP神經網絡算法應用到配電網的綜合降損中,分別從負荷預測、配網重構兩個方面說明了BP神經網絡算法在配電網綜合降損可取的較為良好的降損效果。

          參考文獻:

          [1]顧勇.農村10kV電網節能降損技術措施分析[J].電源技術應用2012 (11).

          [2]趙傳輝.基于神經網絡的配電網綜合節能降損技術[D].濟南:山東大學,2011.

          作者簡介: