論文の概要: Multi-Agent Decision Transformers for Dynamic Dispatching in Material Handling Systems Leveraging Enterprise Big Data
- arxiv url: http://arxiv.org/abs/2411.02584v1
- Date: Mon, 04 Nov 2024 20:26:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-06 15:00:33.482903
- Title: Multi-Agent Decision Transformers for Dynamic Dispatching in Material Handling Systems Leveraging Enterprise Big Data
- Title(参考訳): エンタープライズビッグデータを活用した材料処理システムにおける動的分散のためのマルチエージェント決定変換器
- Authors: Xian Yeow Lee, Haiyan Wang, Daisuke Katsumata, Takaharu Matsui, Chetan Gupta,
- Abstract要約: 本研究では,実際のマルチエージェント材料ハンドリングシステムにおける動的ディスパッチポリシとして,決定変換器の適用について検討する。
実験結果から, 材料処理システムのスループットを相当に向上できることを示す。
しかし、原文がランダムな要素を含んでいる場合や、データセットのパフォーマンスが一定の閾値以下である場合、決定変換器は原文を上回りません。
- 参考スコア(独自算出の注目度): 5.050348337816326
- License:
- Abstract: Dynamic dispatching rules that allocate resources to tasks in real-time play a critical role in ensuring efficient operations of many automated material handling systems across industries. Traditionally, the dispatching rules deployed are typically the result of manually crafted heuristics based on domain experts' knowledge. Generating these rules is time-consuming and often sub-optimal. As enterprises increasingly accumulate vast amounts of operational data, there is significant potential to leverage this big data to enhance the performance of automated systems. One promising approach is to use Decision Transformers, which can be trained on existing enterprise data to learn better dynamic dispatching rules for improving system throughput. In this work, we study the application of Decision Transformers as dynamic dispatching policies within an actual multi-agent material handling system and identify scenarios where enterprises can effectively leverage Decision Transformers on existing big data to gain business value. Our empirical results demonstrate that Decision Transformers can improve the material handling system's throughput by a considerable amount when the heuristic originally used in the enterprise data exhibits moderate performance and involves no randomness. When the original heuristic has strong performance, Decision Transformers can still improve the throughput but with a smaller improvement margin. However, when the original heuristics contain an element of randomness or when the performance of the dataset is below a certain threshold, Decision Transformers fail to outperform the original heuristic. These results highlight both the potential and limitations of Decision Transformers as dispatching policies for automated industrial material handling systems.
- Abstract(参考訳): リアルタイムのタスクにリソースを割り当てる動的ディスパッチルールは、産業全体で多くの自動化された物質処理システムの効率的な運用を保証する上で重要な役割を果たす。
伝統的に、展開されるディスパッチルールは、通常、ドメインエキスパートの知識に基づいた手作業によるヒューリスティックの結果である。
これらのルールの生成には時間がかかり、しばしば準最適です。
企業が膨大な量の運用データを蓄積するにつれて、このビッグデータを活用して自動化システムの性能を高める大きな可能性がある。
これは既存のエンタープライズデータに基づいてトレーニングすることで、システムのスループットを改善するための動的ディスパッチルールを改善することができる。
本研究では,意思決定変換器を実際のマルチエージェント・マテリアル・ハンドリング・システム内で動的ディスパッチ・ポリシーとして適用し,企業が既存のビッグデータ上で意思決定変換器を効果的に活用してビジネス価値を得ることができるシナリオを特定する。
実験の結果,企業データに当初使用していたヒューリスティックが適度な性能を示し,ランダム性を伴わない場合には,材料処理システムのスループットをある程度向上させることができることがわかった。
元のヒューリスティックが強いパフォーマンスを持つ場合、決定変換器はスループットを向上できるが、改善マージンは小さい。
しかし、元のヒューリスティックがランダムな要素を含んでいる場合や、データセットのパフォーマンスが一定の閾値以下である場合、決定変換器は元のヒューリスティックを上回りません。
これらの結果から, 自動産業用材料処理システムにおけるディシジョントランスフォーマーの可能性と限界が浮き彫りになった。
関連論文リスト
- Transformer-Based Approaches for Sensor-Based Human Activity Recognition: Opportunities and Challenges [0.5983301154764783]
トランスフォーマーは自然言語処理とコンピュータビジョンに優れており、センサーに基づくヒューマンアクティビティ認識(HAR)への道を開いた。
従来の研究では、トランスフォーマーは豊富なデータを利用したり、計算集約的な最適化アルゴリズムを使用したりした場合に、排他的よりも優れていることが示されていた。
しかし、これらのシナリオは、この分野のデータ不足と、リソース制約されたデバイスでのトレーニングと推論を頻繁に行う必要があるため、センサーベースのHARでは実現できない。
論文 参考訳(メタデータ) (2024-10-17T14:39:55Z) - Challenging Gradient Boosted Decision Trees with Tabular Transformers for Fraud Detection at Booking.com [1.6702285371066043]
自己監視学習(SSL)によって強化されたトランスフォーマーベースのニューラルネットワークは、さまざまなドメインで前例のないパフォーマンスを示している。
本稿では,電子商取引における典型的な課題である不正検出において,表型変換器を用いたGBDTに挑戦することを目的とする。
我々の手法はトランスフォーマーの能力を利用して、SSLを使ってすべての利用可能なデータを使って転送可能な表現を学習する。
提案手法は、平均精度(AP)スコアのかなりのマージンで、調整されたGBDTよりも優れている。
論文 参考訳(メタデータ) (2024-05-22T14:38:48Z) - Robot Fleet Learning via Policy Merging [58.5086287737653]
我々はFLEET-MERGEを提案し、艦隊設定における政策を効率的にマージする。
本稿では,FLEET-MERGEがメタワールド環境における50のタスクで訓練されたポリシーの行動を統合することを示す。
合成・接触に富んだロボット操作タスクにおけるフリートポリシー学習のための新しいロボットツール用ベンチマークであるFLEET-TOOLSを導入する。
論文 参考訳(メタデータ) (2023-10-02T17:23:51Z) - Can Transformers Learn Optimal Filtering for Unknown Systems? [21.214392963929978]
過去の全ての出力予測を生成する変換器を用いた最適出力推定問題について検討する。
我々は、様々な異なるシステムを用いてトランスフォーマーを訓練し、未知のダイナミクスを持つ未知のシステムの性能を評価する。
非d.d.ノイズ、時間変化力学、未知のパラメータを持つ四元数系のような非線形力学のより複雑な設定では、トランスフォーマーも有望な結果を示す。
論文 参考訳(メタデータ) (2023-08-16T17:52:11Z) - Decision S4: Efficient Sequence-Based RL via State Spaces Layers [87.3063565438089]
我々は、S4モデルの訓練効率を維持しつつ、軌道で機能する非政治的な訓練手順を提案する。
反復的に訓練され、長距離依存の恩恵を受け、新しい安定したアクター・クリティカルなメカニズムをベースとした、オンデマンドのトレーニング手順。
論文 参考訳(メタデータ) (2023-06-08T13:03:53Z) - Emergent Agentic Transformer from Chain of Hindsight Experience [96.56164427726203]
簡単なトランスフォーマーベースモデルが時間差と模倣学習に基づくアプローチの両方と競合することを示す。
単純なトランスフォーマーベースのモデルが時間差と模倣学習ベースのアプローチの両方で競合するのはこれが初めてである。
論文 参考訳(メタデータ) (2023-05-26T00:43:02Z) - FlowTransformer: A Transformer Framework for Flow-based Network
Intrusion Detection Systems [0.0]
FlowTransformerは、トランスフォーマーベースのNIDSを実装するための新しいアプローチである。
入力エンコーディング、トランスフォーマー、分類ヘッド、フローベースのネットワークデータセット間での評価など、トランスフォーマーコンポーネントの直接的な置換を可能にする。
論文 参考訳(メタデータ) (2023-04-28T10:40:34Z) - MMRNet: Improving Reliability for Multimodal Object Detection and
Segmentation for Bin Picking via Multimodal Redundancy [68.7563053122698]
マルチモーダル冗長性(MMRNet)を用いた信頼度の高いオブジェクト検出・分割システムを提案する。
これは、マルチモーダル冗長の概念を導入し、デプロイ中のセンサ障害問題に対処する最初のシステムである。
システム全体の出力信頼性と不確実性を測定するために,すべてのモダリティからの出力を利用する新しいラベルフリーマルチモーダル整合性(MC)スコアを提案する。
論文 参考訳(メタデータ) (2022-10-19T19:15:07Z) - Transformers for prompt-level EMA non-response prediction [62.41658786277712]
エコロジー・モメンタリー・アセスメント(Ecological Momentary Assessments、EMA)は、認知状態、影響、行動、環境要因を測定するための重要な心理的データ源である。
参加者がEMAプロンプトに反応しない非応答は、内因性問題である。
非応答を正確に予測できる能力は、EMAのデリバリを改善し、コンプライアンスの介入を開発するために利用することができる。
論文 参考訳(メタデータ) (2021-11-01T18:38:47Z) - Efficient pre-training objectives for Transformers [84.64393460397471]
本研究はトランスフォーマーモデルにおける高効率事前学習目標について検討する。
マスクトークンの除去と損失時のアウトプット全体の考慮が,パフォーマンス向上に不可欠な選択であることを証明する。
論文 参考訳(メタデータ) (2021-04-20T00:09:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。