論文の概要: A Benchmark Study of Deep Reinforcement Learning Algorithms for the Container Stowage Planning Problem
- arxiv url: http://arxiv.org/abs/2510.02589v1
- Date: Thu, 02 Oct 2025 21:47:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 16:35:52.190931
- Title: A Benchmark Study of Deep Reinforcement Learning Algorithms for the Container Stowage Planning Problem
- Title(参考訳): コンテナストロージ計画問題に対する深層強化学習アルゴリズムのベンチマーク研究
- Authors: Yunqi Huang, Nishith Chennakeshava, Alexis Carras, Vladislav Neverov, Wei Liu, Aske Plaat, Yingjie Fan,
- Abstract要約: 本稿では,コンテナ・スタワージ計画(CSPP)のための強化学習手法のベンチマークを行う。
本フレームワークでは,DQN,QR-DQN,A2C,PPO,TRPOの5つのRLアルゴリズムを評価する。
本稿では、CSPPの複数のRL法をベンチマークし、再利用可能なGym環境とクレーンスケジューリングを提供する。
- 参考スコア(独自算出の注目度): 6.858170719080902
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Container stowage planning (CSPP) is a critical component of maritime transportation and terminal operations, directly affecting supply chain efficiency. Owing to its complexity, CSPP has traditionally relied on human expertise. While reinforcement learning (RL) has recently been applied to CSPP, systematic benchmark comparisons across different algorithms remain limited. To address this gap, we develop a Gym environment that captures the fundamental features of CSPP and extend it to include crane scheduling in both multi-agent and single-agent formulations. Within this framework, we evaluate five RL algorithms: DQN, QR-DQN, A2C, PPO, and TRPO under multiple scenarios of varying complexity. The results reveal distinct performance gaps with increasing complexity, underscoring the importance of algorithm choice and problem formulation for CSPP. Overall, this paper benchmarks multiple RL methods for CSPP while providing a reusable Gym environment with crane scheduling, thus offering a foundation for future research and practical deployment in maritime logistics.
- Abstract(参考訳): コンテナ・スタワージ・プランニング(CSPP)は海上輸送とターミナルの運用において重要な要素であり、サプライチェーンの効率に直接影響を及ぼす。
その複雑さのため、CSPPは伝統的に人間の専門知識に依存してきた。
CSPPには強化学習(RL)が最近適用されているが、異なるアルゴリズム間での系統的なベンチマーク比較は限られている。
このギャップに対処するため,CSPPの基本的特徴を捉えたGym環境を開発し,マルチエージェントおよびシングルエージェントの定式化にクレーンスケジューリングを含むように拡張する。
本フレームワークでは,DQN,QR-DQN,A2C,PPO,TRPOの5つのRLアルゴリズムを,複雑さの異なる複数のシナリオで評価する。
その結果,CSPPのアルゴリズム選択と問題定式化の重要性が強調され,複雑性の増大に伴う性能差が明らかとなった。
本稿では, CSPP の複数の RL 手法をベンチマークし, 再利用可能な Gym 環境をクレーンスケジューリングで提供し, 将来の研究と海洋ロジスティクスの実践的展開の基盤を提供する。
関連論文リスト
- Pareto Actor-Critic for Communication and Computation Co-Optimization in Non-Cooperative Federated Learning Services [18.291028557265864]
ゲーム理論によるマルチエージェント強化学習(MARL)フレームワークであるPAC-MCoFLを導入する。
PAC-MCoFL-p はパラメータ化予測生成器を特徴とするスケーラブルな変種であり,有界な誤差で計算複雑性を著しく低減する。
論文 参考訳(メタデータ) (2025-08-22T02:09:48Z) - Deep Reinforcement Learning for Traveling Purchaser Problems [63.37136587778153]
旅行購入問題(TPP)は幅広いアプリケーションにおいて重要な最適化問題である。
本稿では,ルート構築と購入計画を個別に扱う,深層強化学習(DRL)に基づく新しいアプローチを提案する。
様々な合成TPPインスタンスとTPPLIBベンチマークの実験により、我々のDRLベースのアプローチは、確立されたTPPを著しく上回ることを示した。
論文 参考訳(メタデータ) (2024-04-03T05:32:10Z) - MARLIN: Soft Actor-Critic based Reinforcement Learning for Congestion
Control in Real Networks [63.24965775030673]
そこで本研究では,汎用的な渋滞制御(CC)アルゴリズムを設計するための新しい強化学習(RL)手法を提案する。
我々の解であるMARLINは、Soft Actor-Criticアルゴリズムを用いてエントロピーとリターンの両方を最大化する。
我々は,MARLINを実ネットワーク上で訓練し,実ミスマッチを克服した。
論文 参考訳(メタデータ) (2023-02-02T18:27:20Z) - Comparing Deep Reinforcement Learning Algorithms in Two-Echelon Supply
Chains [1.4685355149711299]
我々は、サプライチェーン在庫管理問題を解決するための最先端の深層強化学習アルゴリズムの性能を分析し、比較する。
本研究では,サプライチェーンの在庫管理問題を解決するためのカスタマイズ可能な環境を提供するオープンソースソフトウェアライブラリの設計と開発について,詳細な知見を提供する。
論文 参考訳(メタデータ) (2022-04-20T16:33:01Z) - SUNRISE: A Simple Unified Framework for Ensemble Learning in Deep
Reinforcement Learning [102.78958681141577]
SUNRISEは単純な統一アンサンブル法であり、様々な非政治的な深層強化学習アルゴリズムと互換性がある。
SUNRISEは, (a) アンサンブルに基づく重み付きベルマンバックアップと, (b) 最上位の自信境界を用いて行動を選択する推論手法を統合し, 効率的な探索を行う。
論文 参考訳(メタデータ) (2020-07-09T17:08:44Z) - Multi-Agent Determinantal Q-Learning [39.79718674655209]
マルチエージェント決定型Q-ラーニングを提案する。Q-DPPはエージェントが多様な行動モデルを取得することを奨励する。
分散型協調作業において,Q-DPPがVDN,QMIX,QTRANなどの主要なソリューションを一般化することを実証する。
論文 参考訳(メタデータ) (2020-06-02T09:32:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。