論文の概要: Equivariant Transporter Network
- arxiv url: http://arxiv.org/abs/2202.09400v5
- Date: Tue, 20 Sep 2022 20:22:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-24 17:25:03.595023
- Title: Equivariant Transporter Network
- Title(参考訳): 等価トランスポーターネットワーク
- Authors: Haojie Huang, Dian Wang, Robin Walters, Robert Platt
- Abstract要約: Transporter Netは、ごく少数の専門家によるデモから優れた操作ポリシーを学ぶことができる、選択と場所のためのフレームワークである。
本稿では,ピック配向と位置配向の両方に同値なトランスポーターネットの新たなバージョンを提案する。
- 参考スコア(独自算出の注目度): 4.970364068620608
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transporter Net is a recently proposed framework for pick and place that is
able to learn good manipulation policies from a very few expert demonstrations.
A key reason why Transporter Net is so sample efficient is that the model
incorporates rotational equivariance into the pick module, i.e. the model
immediately generalizes learned pick knowledge to objects presented in
different orientations. This paper proposes a novel version of Transporter Net
that is equivariant to both pick and place orientation. As a result, our model
immediately generalizes place knowledge to different place orientations in
addition to generalizing pick knowledge as before. Ultimately, our new model is
more sample efficient and achieves better pick and place success rates than the
baseline Transporter Net model.
- Abstract(参考訳): Transporter Netは、ごく少数の専門家によるデモから優れた操作ポリシーを学ぶことができる、最近提案されたフレームワークである。
トランスポーターネットがこれほどサンプル効率が高い理由は、モデルがピックモジュールに回転同分散を組み込んでおり、モデルが学習されたピック知識を、異なる向きのオブジェクトに即座に一般化するからである。
本稿では,ピック方向と位置方向の両方に同値なトランスポーターネットの新バージョンを提案する。
その結果,従来のように選択知識を一般化することに加えて,配置知識を異なる位置指向に即時に一般化する。
最終的に、我々の新しいモデルはよりサンプリング効率が高く、ベースライントランスポーターネットモデルよりも優れた選択と成功率を達成する。
関連論文リスト
- Diversified Batch Selection for Training Acceleration [68.67164304377732]
オンラインバッチ選択として知られる一般的な研究ラインでは、トレーニングプロセス中の情報サブセットの選択について検討している。
バニラ参照モデルフリーメソッドは、独立してデータをサンプリング的にスコア付けし、選択する。
DivBS(Diversified Batch Selection)を提案する。
論文 参考訳(メタデータ) (2024-06-07T12:12:20Z) - Pre-Trained Model Recommendation for Downstream Fine-tuning [22.343011779348682]
モデル選択は、市販の事前訓練されたモデルをランク付けし、新しいターゲットタスクに最も適したモデルを選択することを目的としている。
既存のモデル選択テクニックはスコープ内で制約されることが多く、モデルとタスク間の微妙な関係を見落としてしまう傾向があります。
我々は,多種多様な大規模モデルリポジトリを探索する実用的フレームワーク textbfFennec を提案する。
論文 参考訳(メタデータ) (2024-03-11T02:24:32Z) - Initializing Models with Larger Ones [76.41561758293055]
事前訓練された大モデルから重みのサブセットを選択することにより、より小さなモデルを初期化する手法である重み選択を導入する。
実験により, 重量選択は小型モデルの性能を著しく向上し, トレーニング時間を短縮できることが示された。
論文 参考訳(メタデータ) (2023-11-30T18:58:26Z) - Leveraging Symmetries in Pick and Place [20.029615409823034]
本稿では,平面式ロボットピック・アンド・プレイスに存在する対称性を解析的に研究する。
本稿では,すべての対称性を捉える方法でトランスポーターネットに同変ニューラルモデルを適用する手法を提案する。
我々は,新しいモデルを実証的に評価し,非対称バージョンよりもはるかに標本効率が高いことを示す。
論文 参考訳(メタデータ) (2023-08-15T16:16:29Z) - A Complete Recipe for Bayesian Knowledge Transfer: Object Tracking [3.60953887026184]
対象がモデルを選択し、従うことができるモデルジャンプを考慮に入れた、新しいベイズモデルを導入する。
我々は,対象オブジェクトへの逐次転送中に,対象オブジェクトの軌跡を追跡することを目的としている。
論文 参考訳(メタデータ) (2022-10-20T00:11:36Z) - A new hope for network model generalization [66.5377859849467]
ネットワークトラフィックダイナミクスのための機械学習モデルを一般化することは、失われた原因とみなされる傾向がある。
_Transformer_と呼ばれるMLアーキテクチャは、これまで想像不可能だった他のドメインでの一般化を可能にした。
パケットトレースからネットワークダイナミクスを学習するためのNTT(Network Traffic Transformer)を提案する。
論文 参考訳(メタデータ) (2022-07-12T21:16:38Z) - Hub-Pathway: Transfer Learning from A Hub of Pre-trained Models [89.44031286278347]
本稿では,モデルハブからの知識伝達を可能にするハブパスウェイフレームワークを提案する。
提案するフレームワークは、目的のタスク固有の損失でエンドツーエンドにトレーニングすることができる。
コンピュータビジョンおよび強化学習タスクの実験結果は、このフレームワークが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2022-06-08T08:00:12Z) - Trajectory-wise Multiple Choice Learning for Dynamics Generalization in
Reinforcement Learning [137.39196753245105]
本稿では,動的一般化のためのマルチヘッドダイナミックスモデルを学習するモデルベース強化学習アルゴリズムを提案する。
文脈学習は,過去の経験から得られる動的情報からコンテキスト潜在ベクトルにエンコードする。
提案手法は,最先端のRL法と比較して,様々な制御タスクにおいて優れたゼロショット一般化性能を示す。
論文 参考訳(メタデータ) (2020-10-26T03:20:42Z) - A Flexible Selection Scheme for Minimum-Effort Transfer Learning [27.920304852537534]
ファインチューニングは、トレーニング済みの畳み込みネットワークに含まれる知識を活用して、新しい視覚認識タスクを実現する方法として人気がある。
フレキシブルチューニング(flex-tuning)と呼ばれる,ネットワークの個々のユニットをチューニング可能な,新たなファインチューニング方式を導入する。
微調整された個々のユニットは、その単純さにもかかわらず、適応手法として非常に良い結果が得られることを示す。
論文 参考訳(メタデータ) (2020-08-27T08:57:30Z) - Do Adversarially Robust ImageNet Models Transfer Better? [102.09335596483695]
逆向きに堅牢なモデルは、トランスファーラーニングに使用する場合、標準訓練されたモデルよりもよく機能する。
私たちの結果は、ロバストさが機能表現の改善につながるという最近の仮説と一致しています。
論文 参考訳(メタデータ) (2020-07-16T17:42:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。