首頁 > 文章中心 > 正文

          談離散型制造業生產能力平衡技術

          前言:本站為你精心整理了談離散型制造業生產能力平衡技術范文,希望能為你的創作提供參考價值,我們的客服老師可以幫助你提供個性化的參考范文,歡迎咨詢。

          談離散型制造業生產能力平衡技術

          關于虛擬企業的生產任務分配研究的報道有[1][1]等,關于生產計劃執行,人力分配的研究報道有[3][4]等,而關于基于實際生產能力,對生產任務進行快速均衡分配的研究報道較少。本文探討將所有工作中心的總工作負荷進行動態統計掌握,然后將工作中心的能力和生產任務進行匹配,平衡后產生適應負荷的詳細生產計劃,對超出能力負荷的生產任務進行選擇外協。該方法將促進制造業的生產計劃合理化、精準化,從而最大發揮生產資源的效率,增加制造業的經濟效益。

          離散制造業生產能力均衡模型

          生產計劃下達模式問題分析生產計劃與調度是生產控制的關鍵,它的科學性及優化程度,直接影響生產效率?,F在,一般中等規模制造型企業的生產管理部常常接到成千上萬生產訂單(生產零件),憑經驗分開轉遞外協生產或者自制,如圖1。這種主要靠人工經驗組織生產的模式,未根據生產資源約束,最優處理自制與外協的關系。本文采用改進后的生產組織模式,擯棄整個生產過程采用經驗主義,而是建立在理性的推算基礎上,將瓶頸工序外協制造,擴大產能。

          生產計劃下達模式改進本文采用優化模式[5]——揀選后直接下達到工作中心,如圖2,其最關鍵的技術是經過科學計算后再判斷,然后分流訂單到外協加工。該模式采用兩步優化的辦法:首先生產部接到訂單后,將其分為必須外協件,必須自制件和可外協可自制件三類。然后用算法將必須自制件和可自制可外協件約束于各工作中心的產能,進行匹配選擇,基本符合產能的訂單用于自制,超出產能的訂單和必須外協件外協加工。然后,將下達到各車間或者工作中心的工件進行優化排產。該模式是兩階段優化,優點是將復雜問題進行了分解,對算法的要求相對較低,優化效果也較好,并且車間管理的靈活度較大,可以積極應對各種突發事件,校正計劃的偏差;其缺點是生產部的大計劃變更不方便,對車間的生產情況監控比較弱。改進的下單模式能起到“防洪抗旱”作用,均衡任務。備注:如圖2虛線疊加部分所示,“軟件系統優化排程”的動作可以是生產管理部或生產制造執行部門做,但必須根據實時動態產能等資源優化排產。

          生產任務均衡下達模型生產管控業務過程比較復雜,生產環境相關的各種因素經常發生變化,各種不確定性的事件經常發生等等,也使得生產部計劃不確定,也導致車間生產調度問題更加復雜。作者提出基于產能的計劃制定模式,然后把訂單下達至車間或者生產中心,具體排產調度由車間自己用算法根據生產現場實際再優化,該方法稱為揀選后直接下達到工作中心的計劃模式,下面詳細介紹。為了說明方便,使用部分假設條件。設車間當前序的產能為[,,,]12mNAAA,m為工作中心或設備數目;有n種訂單需要加工,其交貨期幾乎相同,訂單j的工序需要在機器i上加工,如訂單的加工機器矩陣S描述,列為工件,行為機器/序,工件j有jc個;工件j的工序在機器i上加工需要的時間如加工時間矩陣T描述。

          優化產能均衡的學習算法設計

          基本強化學習算法概述強化學習[7][8][9]是一種有效的機器學習方法,通過與環境的交互,經過試探與評價,實現從環境到動作的映射的學習方法,目標是使長期獎勵信號最大。由于外部環境提供信息較少,強化學習的學習效率通常較低。Q-學習算法由Watkins于1989年提出的,類似于動態規劃算法的一種強化學習方法,通過與環境交互,學習最優行動策略[10]。Q-學習的目標是學習在動態環境下如何根據外部評價信號來選擇較優動作或者最優動作,本質是一個動態決策的學習過程。Q-學習中,每個Q(s,a)對應一個相應的Q值,在學習過程中根據Q值,選擇動作。Q值的定義是如果執行當前相關的動作并且按照某一個策略執行下去,將得到的回報的總和。最優Q值可表示為Q*,其定義是執行相關的動作并按照最優策略執行下去,將得到的回報的總和。關于Q-學習算法的研究成果較多[11],如文獻[12]針對標準強化學習學習由于缺乏環境信息,致使算法速度慢的問題,在標準的Q-學習算法的基礎上,加入有效的經驗知識,提出基于經驗知識的Q-學習算法。文獻[13]提出了新的多智能體學習算法,通過對聯合動作的統計來學習其它智能體的行為策略,并利用智能體策略向量的全概率分布保證了對聯合最優動作的選擇。學習算法廣泛應用于優化[14]、智能控制[15]、機器人、智能交通[16]和多智能體系等領域。

          新學習算法原理描述自然界的生物在殘酷的優勝劣汰法則下不斷完善自己以適應環境,這就是生物的學習能力。通過學習,生物不斷調整自身的狀態來適應環境,并通過繼承的積累使好的信息傳遞到后代。強化學習算法雖具有強大的應用范圍,仍有其局限性,它應用于解決離散型生產調度問題的報道較少,特別應用于解決離散型制造業生產任務按照負荷分配幾乎未見報道。本文針對離散制造業生產實際,提出新的學習算法,并將其應用于生產任務分配。該文的新學習算法,它的核心思想是基于哲學上的“近朱者赤,近墨者黑”的原理,也就是讓潛在解不斷的向較優解學習,學習過程中吸取它的優良基因,從而不斷改善解。學習算法也借鑒了GA部分思想,若采用“整數編碼”,學習其實就與好解(GA的染色體)交叉。該新的學習算法也是一種基于迭代的優化工具,系統初始化為一組隨機解,通過迭代搜尋最優值。在學習算法中,我們將潛在解稱為“學子”,學子在解空間追隨最優的學子進行搜索。必須注意的是在學習過程中不能拋棄向優秀同事學習這一種重要方式。這種優秀學子的知識(歷史最優解)信息代代相傳,自然地形成了全局最優解的軌跡,對這些全局最優解進行模式抽取,即可得到全局最優模式。而全局最優模式是迭代搜索所需的極其有用的知識信息,利用全局最優模式可以對學子集體空間的進一步求解提供有效指導,從而加快算法的收斂速度。

          總結

          近些年來,關于生產調度的研究較多,解決生產調度的算法也較多,但因生產調度是NP難的組合優化問題,優化時的收斂速度較慢,耗費時間及存儲資源較多,還沒一種算法能適應各種復雜的調度問題。關于生產計劃及其任務均衡分配的報道較少。本文深入探討了基于生產能力負荷的生產任務分配問題,能最大限度地發揮產能。并提出了LA算法,采用了新的0-1編碼,成功應用于解決生產任務均衡分配問題,數據仿真實驗驗證該算法收斂速度較快,且容易趨向全局最優解。未來將深入研究LA的其它模型用于優化問題的特性區別,效率差異;LA為初次提出,關于它的理論意義還沒深入討論。將來的工作一方面需要完善其理論意義;另一方面將其應用與連續函數優化問題,分配問題、TSP等其它組合優化問題,并進一步深入研究在其它領域的應用。

          作者:連志剛焦斌高葉軍單位:上海電機學院電子信息學院

          文檔上傳者