論文の概要: Self-optimization in distributed manufacturing systems using Modular State-based Stackelberg Games
- arxiv url: http://arxiv.org/abs/2410.22912v1
- Date: Wed, 30 Oct 2024 11:09:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-31 14:23:48.979852
- Title: Self-optimization in distributed manufacturing systems using Modular State-based Stackelberg Games
- Title(参考訳): Modular State-based Stackelberg Games を用いた分散製造システムの自己最適化
- Authors: Steve Yuwono, Ahmar Kamal Hussain, Dorothea Schwung, Andreas Schwung,
- Abstract要約: モジュール製造システムにおける分散自己学習のための新しいゲーム構造である,Modular State-based Stackelberg Games (Mod-SbSG)を紹介する。
Mod-SbSGは、SbPG(State-based potential Games)とStackelbergゲームを統合することで、プロダクションシステム内の自己学習エージェント間の協調的な意思決定を強化する。
- 参考スコア(独自算出の注目度): 3.156133122658661
- License:
- Abstract: In this study, we introduce Modular State-based Stackelberg Games (Mod-SbSG), a novel game structure developed for distributed self-learning in modular manufacturing systems. Mod-SbSG enhances cooperative decision-making among self-learning agents within production systems by integrating State-based Potential Games (SbPG) with Stackelberg games. This hierarchical structure assigns more important modules of the manufacturing system a first-mover advantage, while less important modules respond optimally to the leaders' decisions. This decision-making process differs from typical multi-agent learning algorithms in manufacturing systems, where decisions are made simultaneously. We provide convergence guarantees for the novel game structure and design learning algorithms to account for the hierarchical game structure. We further analyse the effects of single-leader/multiple-follower and multiple-leader/multiple-follower scenarios within a Mod-SbSG. To assess its effectiveness, we implement and test Mod-SbSG in an industrial control setting using two laboratory-scale testbeds featuring sequential and serial-parallel processes. The proposed approach delivers promising results compared to the vanilla SbPG, which reduces overflow by 97.1%, and in some cases, prevents overflow entirely. Additionally, it decreases power consumption by 5-13% while satisfying the production demand, which significantly improves potential (global objective) values.
- Abstract(参考訳): 本研究では,モジュール製造システムにおける分散自己学習のための新しいゲーム構造である,Modular State-based Stackelberg Games (Mod-SbSG)を紹介する。
Mod-SbSGは、SbPG(State-based potential Games)とStackelbergゲームを統合することで、プロダクションシステム内の自己学習エージェント間の協調的な意思決定を強化する。
この階層構造は、製造システムのより重要なモジュールを優先的な利点として割り当てる一方、重要でないモジュールはリーダーの判断に最適に反応する。
この意思決定プロセスは、意思決定を同時に行う製造システムにおける一般的なマルチエージェント学習アルゴリズムとは異なる。
我々は,新しいゲーム構造に対する収束保証と,階層型ゲーム構造を考慮した設計学習アルゴリズムを提供する。
さらに,Mod-SbSG内のシングルリーダ/マルチリーダ/マルチリーダのシナリオとマルチリーダ/マルチリーダのシナリオの効果を分析した。
本手法の有効性を評価するため, 逐次およびシリアル並列プロセスを備えた2つの実験室規模のテストベッドを用いて, 産業制御環境におけるMod-SbSGの実装と試験を行った。
提案手法はバニラSbPGと比較して有望な結果をもたらす。これはオーバーフローを97.1%削減し、場合によってはオーバーフローを完全に防止する。
さらに、生産需要を満たす一方で電力消費量を5-13%削減し、ポテンシャル(グローバルな目的)値を著しく改善する。
関連論文リスト
- Read-ME: Refactorizing LLMs as Router-Decoupled Mixture of Experts with System Co-Design [59.00758127310582]
本稿では、事前学習された高密度LCMをより小さなMoEモデルに変換する新しいフレームワークRead-MEを提案する。
当社のアプローチでは,専門家の抽出にアクティベーション空間を用いる。
Read-MEは、同様のスケールの他の人気のあるオープンソース高密度モデルよりも優れています。
論文 参考訳(メタデータ) (2024-10-24T19:48:51Z) - Closed-form merging of parameter-efficient modules for Federated Continual Learning [9.940242741914748]
一度に1つのLoRA行列をトレーニングする交代最適化戦略であるLoRMを導入する。
これにより、未知の変数を個別に解くことができ、ユニークな解を見つけることができる。
本手法は,さまざまなFCILシナリオにおける最先端性能を示す。
論文 参考訳(メタデータ) (2024-10-23T15:30:13Z) - Distributed Stackelberg Strategies in State-based Potential Games for Autonomous Decentralized Learning Manufacturing Systems [3.447848701446987]
本稿では,多目的最適化課題を伴う分散型製造システムを自律的に最適化するゲーム構造について述べる。
DS2-SbPGは、潜在的なゲームとStackelbergゲームを統合することで、潜在的なゲームの協調的なトレードオフ能力と、Stackelbergゲームによる多目的最適化処理を改善する。
論文 参考訳(メタデータ) (2024-08-12T08:24:54Z) - Optimizing E-commerce Search: Toward a Generalizable and Rank-Consistent Pre-Ranking Model [13.573766789458118]
大規模なeコマースプラットフォームでは、ダウンストリームランキングモジュールのために、前もって製品の大部分をフィルタリングするために、プレグレードフェーズが不可欠である。
1) 製品がトップk内にあるかどうかを予測する複数のバイナリ分類タスクを導入し、共通のポイントワイドランキングモデルでの学習目標の追加を容易にする。2) 製品埋め込みのサブセットを事前トレーニングすることで、すべての製品に対するコントラスト学習による一般化性。
論文 参考訳(メタデータ) (2024-05-09T07:55:52Z) - Module-wise Adaptive Distillation for Multimodality Foundation Models [125.42414892566843]
マルチモーダル・ファンデーション・モデルは 目覚ましい 一般化性を示したが 規模が大きいため 展開に挑戦する
規模を減らすための効果的なアプローチの1つは層単位での蒸留であり、小さな学生モデルは各層で大きな教師モデルの隠された表現と一致するように訓練される。
そこで本研究では, 各モジュールの蒸留後の損失デクリメントを記録し, より頻繁な蒸留に寄与するモジュールを選択することによって, 個々のモジュールの寄与をトラックすることを提案する。
論文 参考訳(メタデータ) (2023-10-06T19:24:00Z) - Modular Deep Learning [120.36599591042908]
トランスファーラーニングは近年、機械学習の主要なパラダイムとなっている。
負の干渉を伴わずに複数のタスクを専門とするモデルを開発する方法はまだ不明である。
これらの課題に対する有望な解決策として、モジュール型ディープラーニングが登場した。
論文 参考訳(メタデータ) (2023-02-22T18:11:25Z) - DiffStack: A Differentiable and Modular Control Stack for Autonomous
Vehicles [75.43355868143209]
DiffStackは、予測、計画、制御のための、微分可能でモジュラーなスタックです。
nuScenesデータセットの結果から,DiffStackによるエンドツーエンドトレーニングは,オープンループおよびクローズループ計画の指標を大幅に改善することが示された。
論文 参考訳(メタデータ) (2022-12-13T09:05:21Z) - Multi-Agent Reinforcement Learning for Microprocessor Design Space
Exploration [71.95914457415624]
マイクロプロセッサアーキテクトは、高性能でエネルギー効率の追求において、ドメイン固有のカスタマイズにますます頼っている。
この問題に対処するために,Multi-Agent RL (MARL) を利用した別の定式化を提案する。
評価の結果,MARLの定式化は単エージェントRLのベースラインよりも一貫して優れていた。
論文 参考訳(メタデータ) (2022-11-29T17:10:24Z) - A unified software/hardware scalable architecture for brain-inspired
computing based on self-organizing neural models [6.072718806755325]
我々は、Reentrant SOM(ReSOM)モデルにおいて、自己組織化マップ(SOM)とHebbian学習を関連付ける脳誘発ニューラルモデルを開発した。
この研究は、FPGAベースの専用プラットフォーム上でのシミュレーション結果とハードウェア実行の両方を通じて、モデルの分散性とスケーラブル性を実証する。
論文 参考訳(メタデータ) (2022-01-06T22:02:19Z) - AutoBERT-Zero: Evolving BERT Backbone from Scratch [94.89102524181986]
そこで本稿では,提案するハイブリッドバックボーンアーキテクチャを自動検索するOP-NASアルゴリズムを提案する。
提案するOP-NASの効率を向上させるために,探索アルゴリズムと候補モデルの評価を最適化する。
実験の結果、検索されたアーキテクチャ(AutoBERT-Zero)は、様々な下流タスクにおいてBERTとそのバリエーションの異なるモデル容量を著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2021-07-15T16:46:01Z) - BAGUA: Scaling up Distributed Learning with System Relaxations [31.500494636704598]
BAGUAは分散データ並列トレーニングのための新しい通信フレームワークである。
新しいシステム設計によって、BAGUAは様々な最先端の分散学習アルゴリズムを実装し拡張する能力を持つ。
最大16台のマシンを持つ運用クラスタでは、BAGUAは、エンドツーエンドのトレーニング時間において、PyTorch-DDP、Horovod、BytePSを上回ります。
論文 参考訳(メタデータ) (2021-07-03T21:27:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。