論文の概要: INViT: A Generalizable Routing Problem Solver with Invariant Nested View
Transformer
- arxiv url: http://arxiv.org/abs/2402.02317v2
- Date: Mon, 12 Feb 2024 14:02:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-13 20:18:14.832216
- Title: INViT: A Generalizable Routing Problem Solver with Invariant Nested View
Transformer
- Title(参考訳): InViT: 不変Nested View Transformerを用いた一般化可能なルーティング問題の解法
- Authors: Han Fang, Zhihao Song, Paul Weng, Yutong Ban
- Abstract要約: 深い強化学習は、高速ルーティングを学習してルーティング問題を解決するための有望な結果を示している。
解法の大半は、異なるスケールで見えない分布や分布に一般化することに苦しむ。
Invariant Nested View Transformer (INViT) と呼ばれる新しいアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 18.686592196447734
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, deep reinforcement learning has shown promising results for
learning fast heuristics to solve routing problems. Meanwhile, most of the
solvers suffer from generalizing to an unseen distribution or distributions
with different scales. To address this issue, we propose a novel architecture,
called Invariant Nested View Transformer (INViT), which is designed to enforce
a nested design together with invariant views inside the encoders to promote
the generalizability of the learned solver. It applies a modified policy
gradient algorithm enhanced with data augmentations. We demonstrate that the
proposed INViT achieves a dominant generalization performance on both TSP and
CVRP problems with various distributions and different problem scales.
- Abstract(参考訳): 近年,ルーティング問題を解くための高速ヒューリスティックスを学習する上で,深い強化学習が有望な成果を上げている。
一方、ほとんどの解法は、異なるスケールの未知の分布や分布への一般化に苦しむ。
この問題に対処するため,我々は,ネストした設計をエンコーダ内の不変ビューとともに強制し,学習した解法の一般化性を促進するinvariant nested view transformer (invit)と呼ばれる新しいアーキテクチャを提案する。
データ拡張によって強化されたポリシー勾配アルゴリズムを適用する。
提案したINViTは、様々な分布と異なる問題スケールを持つTSPおよびCVRP問題において、支配的な一般化性能を実現する。
関連論文リスト
- Multiset Transformer: Advancing Representation Learning in Persistence Diagrams [11.512742322405906]
マルチセットトランスフォーマー(Multiset Transformer)は、マルチセットを入力として特別に設計されたアテンションメカニズムを利用するニューラルネットワークである。
このアーキテクチャは、マルチセット強化された注意とプール分解スキームを統合し、同変層にまたがる多重性を維持できる。
実験により、Multiset Transformerは、永続図表表現学習の領域において、既存のニューラルネットワーク手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-11-22T01:38:47Z) - Adaptivity and Modularity for Efficient Generalization Over Task
Complexity [42.748898521364914]
変圧器における適応型およびモジュラー型計算の機構を用いることで,逐次ステップ数に対する一般化を求めるタスクの学習が容易になるかを検討する。
本稿では,ハイパーネットワークからの動的関数生成とユニバーサルトランスの適応深度を組み合わせたHyper-UTアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-10-13T05:29:09Z) - Optimizing Non-Autoregressive Transformers with Contrastive Learning [74.46714706658517]
非自己回帰変換器(NAT)は、逐次順序ではなく全ての単語を同時に予測することにより、自動回帰変換器(AT)の推論遅延を低減する。
本稿では,データ分布ではなく,モデル分布からのサンプリングによるモダリティ学習の容易化を提案する。
論文 参考訳(メタデータ) (2023-05-23T04:20:13Z) - Deep Neural Networks with Efficient Guaranteed Invariances [77.99182201815763]
我々は、性能改善の問題、特にディープニューラルネットワークのサンプル複雑性に対処する。
群同変畳み込みは同変表現を得るための一般的なアプローチである。
本稿では,各ストリームが異なる変換に不変なマルチストリームアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-03-02T20:44:45Z) - Full Stack Optimization of Transformer Inference: a Survey [58.55475772110702]
トランスフォーマーモデルは広範囲のアプリケーションにまたがって優れた精度を実現する。
最近のTransformerモデルの推測に必要な計算量と帯域幅は、かなり増加しています。
Transformerモデルをより効率的にすることに注力している。
論文 参考訳(メタデータ) (2023-02-27T18:18:13Z) - Out-of-Distribution Generalization in Algorithmic Reasoning Through
Curriculum Learning [4.191829617421395]
アウト・オブ・ディストリビューションの一般化は、ニューラルネットワークの長年の課題である。
OODGは、単純なコンポーネントタスクの分布全体からサンプリングされたサンプルを含むトレーニングセットが複雑な問題で起こりうることを示す。
論文 参考訳(メタデータ) (2022-10-07T01:21:05Z) - Rich CNN-Transformer Feature Aggregation Networks for Super-Resolution [50.10987776141901]
近年の視覚変換器と自己注意は,様々なコンピュータビジョンタスクにおいて有望な成果を上げている。
我々は,CNNの局所的特徴とトランスフォーマーが捉えた長距離依存性を活用する,超解像(SR)タスクのための効果的なハイブリッドアーキテクチャを提案する。
提案手法は,多数のベンチマークデータセットから最先端のSR結果を得る。
論文 参考訳(メタデータ) (2022-03-15T06:52:25Z) - Improving the Sample-Complexity of Deep Classification Networks with
Invariant Integration [77.99182201815763]
変換によるクラス内分散に関する事前知識を活用することは、ディープニューラルネットワークのサンプル複雑性を改善するための強力な方法である。
そこで本研究では,アプリケーションの複雑な問題に対処するために,プルーニング法に基づく新しい単項選択アルゴリズムを提案する。
本稿では,Rotated-MNIST,SVHN,CIFAR-10データセットにおけるサンプルの複雑さの改善について述べる。
論文 参考訳(メタデータ) (2022-02-08T16:16:11Z) - Total Deep Variation: A Stable Regularizer for Inverse Problems [71.90933869570914]
本稿では,データ駆動型汎用全深度変動正規化器について紹介する。
コアでは、畳み込みニューラルネットワークが複数のスケールや連続したブロックで局所的な特徴を抽出する。
我々は多数の画像処理タスクに対して最先端の結果を得る。
論文 参考訳(メタデータ) (2020-06-15T21:54:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。