論文の概要: Value Iteration Networks with Gated Summarization Module
- arxiv url: http://arxiv.org/abs/2305.07039v1
- Date: Thu, 11 May 2023 12:25:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-15 15:06:56.085956
- Title: Value Iteration Networks with Gated Summarization Module
- Title(参考訳): gated summarizationモジュールを用いた値反復ネットワーク
- Authors: Jinyu Cai, Jialong Li and Kenji Tei
- Abstract要約: 本稿では,VIN(Value Iteration Networks)が直面している,より大きな入力マップの処理と,繰り返しの増大による累積誤差の影響の軽減に対処する。
本稿では,GS-VIN (Gated Summarization Module) を用いた新しい手法であるValue Iteration Networksを提案する。
- 参考スコア(独自算出の注目度): 3.264999257157655
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper, we address the challenges faced by Value Iteration Networks
(VIN) in handling larger input maps and mitigating the impact of accumulated
errors caused by increased iterations. We propose a novel approach, Value
Iteration Networks with Gated Summarization Module (GS-VIN), which incorporates
two main improvements: (1) employing an Adaptive Iteration Strategy in the
Value Iteration module to reduce the number of iterations, and (2) introducing
a Gated Summarization module to summarize the iterative process. The adaptive
iteration strategy uses larger convolution kernels with fewer iteration times,
reducing network depth and increasing training stability while maintaining the
accuracy of the planning process. The gated summarization module enables the
network to emphasize the entire planning process, rather than solely relying on
the final global planning outcome, by temporally and spatially resampling the
entire planning process within the VI module. We conduct experiments on 2D grid
world path-finding problems and the Atari Mr. Pac-man environment,
demonstrating that GS-VIN outperforms the baseline in terms of single-step
accuracy, planning success rate, and overall performance across different map
sizes. Additionally, we provide an analysis of the relationship between input
size, kernel size, and the number of iterations in VI-based models, which is
applicable to a majority of VI-based models and offers valuable insights for
researchers and industrial deployment.
- Abstract(参考訳): 本稿では,VIN(Value Iteration Networks)が直面している,より大きな入力マップの処理と,繰り返しの増大による累積誤差の影響の軽減に対処する。
本稿では,(1)反復回数を減らすために,(1)適応イテレーション戦略をバリューイテレーションモジュールに導入すること,(2)反復プロセスを要約するゲーテッド要約モジュールを導入すること,の2つの主な改良点を取り入れた新しいアプローチとして,Gated Summarization Module (GS-VIN)を提案する。
アダプティブイテレーション戦略は、イテレーション時間の少ないより大きな畳み込みカーネルを使用し、ネットワークの深さを削減し、計画プロセスの精度を維持しながらトレーニング安定性を向上させる。
ゲート要約モジュールは、VIモジュール内の計画プロセス全体を時間的かつ空間的に再サンプリングすることにより、最終グローバルな計画結果のみに頼るのではなく、計画プロセス全体を強調することができる。
我々は,2次元グリッドの世界パスフィニング問題とAtari Mr. Pac-man環境について実験を行い,GS-VINが単一ステップの精度,計画成功率,および異なるマップサイズでの全体的な性能において,ベースラインよりも優れていることを示した。
さらに,viベースのモデルの大部分に適用可能な入力サイズとカーネルサイズ,およびviベースのモデルのイテレーション数との関係について分析を行い,研究者や産業展開に有用な知見を提供する。
関連論文リスト
- LiNeS: Post-training Layer Scaling Prevents Forgetting and Enhances Model Merging [80.17238673443127]
LiNeSは、微調整タスク性能を向上しつつ、事前訓練された一般化を維持するために設計されたポストトレーニング編集技術である。
LiNeSは、視覚と自然言語処理のさまざまなベンチマークにおいて、シングルタスクとマルチタスクの両方で大幅に改善されている。
論文 参考訳(メタデータ) (2024-10-22T16:26:05Z) - Optimization of geological carbon storage operations with multimodal latent dynamic model and deep reinforcement learning [1.8549313085249324]
本稿では,高速フロー予測とGCSの制御最適化のためのディープラーニングフレームワークであるMLDモデルを紹介する。
既存のモデルとは異なり、MDDは多様な入力モダリティをサポートし、包括的なデータインタラクションを可能にする。
この手法は従来の手法よりも優れており、計算資源を60%以上削減し、最も高いNPVを達成する。
論文 参考訳(メタデータ) (2024-06-07T01:30:21Z) - StyDeSty: Min-Max Stylization and Destylization for Single Domain Generalization [85.18995948334592]
単一のドメインの一般化(単一DG)は、単一のトレーニングドメインからのみ見えないドメインに一般化可能な堅牢なモデルを学ぶことを目的としている。
最先端のアプローチは、主に新しいデータを合成するために、敵対的な摂動やスタイルの強化といったデータ拡張に頼っている。
データ拡張の過程で、ソースと擬似ドメインのアライメントを明示的に考慮したemphStyDeStyを提案する。
論文 参考訳(メタデータ) (2024-06-01T02:41:34Z) - SSGA-Net: Stepwise Spatial Global-local Aggregation Networks for for Autonomous Driving [27.731481134782577]
現在のモデルは、通常、タスクヘッドのオブジェクト表現を強化するために隣のフレームから特徴を集約します。
これらの手法は将来のフレームからの情報に依存し、高い計算複雑性に悩まされる。
本稿では,これらの問題を解決するために,段階的に空間的局所集約ネットワークを導入する。
論文 参考訳(メタデータ) (2024-05-29T08:12:51Z) - Unleashing Network Potentials for Semantic Scene Completion [50.95486458217653]
本稿では,新しいSSCフレームワーク - Adrial Modality Modulation Network (AMMNet)を提案する。
AMMNetは、モダリティ間の勾配流の相互依存性を可能にするクロスモーダル変調と、動的勾配競争を利用するカスタマイズされた逆トレーニングスキームの2つのコアモジュールを導入している。
AMMNetは最先端のSSC法よりも大きなマージンで優れていた。
論文 参考訳(メタデータ) (2024-03-12T11:48:49Z) - Optimization Guarantees of Unfolded ISTA and ADMM Networks With Smooth
Soft-Thresholding [57.71603937699949]
我々は,学習エポックの数の増加とともに,ほぼゼロに近いトレーニング損失を達成するための最適化保証について検討した。
トレーニングサンプル数に対する閾値は,ネットワーク幅の増加とともに増加することを示す。
論文 参考訳(メタデータ) (2023-09-12T13:03:47Z) - Variational Density Propagation Continual Learning [0.0]
現実世界にデプロイされるディープニューラルネットワーク(DNN)は、定期的にオフ・オブ・ディストリビューション(OoD)データの対象となっている。
本稿では,ベンチマーク連続学習データセットによってモデル化されたデータ分散ドリフトに適応するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-22T21:51:39Z) - Local-Global Transformer Enhanced Unfolding Network for Pan-sharpening [13.593522290577512]
パンシャーピングは,低分解能マルチスペクトル (LrMS) 画像の空間分解能を,対応するパンクロマティック (PAN) 画像の誘導により向上することを目的としている。
深層学習(DL)に基づくパンシャーピング法は有望な性能を達成しているが、そのほとんどは2倍の欠損を有する。
論文 参考訳(メタデータ) (2023-04-28T03:34:36Z) - InverseForm: A Loss Function for Structured Boundary-Aware Segmentation [80.39674800972182]
逆変換ネットワークを用いたセマンティックセグメンテーションのための新しい境界認識損失項を提案する。
このプラグイン損失項は境界変換の捕捉におけるクロスエントロピー損失を補完する。
室内および屋外のセグメンテーションベンチマークにおける損失関数の定量的および定性的効果を解析した。
論文 参考訳(メタデータ) (2021-04-06T18:52:45Z) - OverNet: Lightweight Multi-Scale Super-Resolution with Overscaling
Network [3.6683231417848283]
SISRを任意のスケールで1つのモデルで解くための,深層でも軽量な畳み込みネットワークであるOverNetを紹介した。
我々のネットワークは、従来の手法よりも少ないパラメータを使用しながら、標準ベンチマークにおいて、過去の最先端結果よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-08-05T22:10:29Z) - Crowd Counting via Hierarchical Scale Recalibration Network [61.09833400167511]
本稿では,群集カウントの課題に取り組むために,階層型大規模校正ネットワーク(HSRNet)を提案する。
HSRNetは、リッチなコンテキスト依存をモデル化し、複数のスケール関連情報を再検討する。
提案手法は,様々なノイズを選択的に無視し,適切な群集スケールに自動的に焦点を合わせることができる。
論文 参考訳(メタデータ) (2020-03-07T10:06:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。