論文の概要: Data Retrieval with Importance Weights for Few-Shot Imitation Learning
- arxiv url: http://arxiv.org/abs/2509.01657v1
- Date: Mon, 01 Sep 2025 17:58:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.807631
- Title: Data Retrieval with Importance Weights for Few-Shot Imitation Learning
- Title(参考訳): Few-Shot Imitation Learningのための重要度重み付きデータ検索
- Authors: Amber Xie, Rahul Chand, Dorsa Sadigh, Joey Hejna,
- Abstract要約: 本稿では,重要度を推定するIWR(Importance Weighted Retrieval)を導入する。
IWRは、わずかな修正しか必要とせず、既存の検索ベースの手法の性能を一貫して改善する。
- 参考スコア(独自算出の注目度): 31.8638426686593
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While large-scale robot datasets have propelled recent progress in imitation learning, learning from smaller task specific datasets remains critical for deployment in new environments and unseen tasks. One such approach to few-shot imitation learning is retrieval-based imitation learning, which extracts relevant samples from large, widely available prior datasets to augment a limited demonstration dataset. To determine the relevant data from prior datasets, retrieval-based approaches most commonly calculate a prior data point's minimum distance to a point in the target dataset in latent space. While retrieval-based methods have shown success using this metric for data selection, we demonstrate its equivalence to the limit of a Gaussian kernel density (KDE) estimate of the target data distribution. This reveals two shortcomings of the retrieval rule used in prior work. First, it relies on high-variance nearest neighbor estimates that are susceptible to noise. Second, it does not account for the distribution of prior data when retrieving data. To address these issues, we introduce Importance Weighted Retrieval (IWR), which estimates importance weights, or the ratio between the target and prior data distributions for retrieval, using Gaussian KDEs. By considering the probability ratio, IWR seeks to mitigate the bias of previous selection rules, and by using reasonable modeling parameters, IWR effectively smooths estimates using all data points. Across both simulation environments and real-world evaluations on the Bridge dataset we find that our method, IWR, consistently improves performance of existing retrieval-based methods, despite only requiring minor modifications.
- Abstract(参考訳): 大規模なロボットデータセットは、近年の模倣学習の進歩を加速させているが、小さなタスク固有のデータセットから学ぶことは、新しい環境や目に見えないタスクへの展開に不可欠である。
少数ショットの模倣学習に対するそのようなアプローチの1つは、検索ベースの模倣学習である。これは、大規模な、広く利用可能な事前データセットから関連するサンプルを抽出し、限られたデモンストレーションデータセットを増大させる。
先行データセットから関連するデータを決定するために、検索ベースのアプローチは、最も一般的に、遅延空間内のターゲットデータセットのポイントへの前のデータポイントの最小距離を計算します。
データ選択のためにこの指標を用いた検索手法が成功したが、対象データ分布のガウス核密度(KDE)推定値に同値であることを示す。
これは、事前の作業で使用される検索規則の2つの欠点を明らかにする。
まず、ノイズの影響を受けやすい高分散近接推定に依存する。
第二に、データを取得する際には、事前データの分散を考慮しない。
これらの問題に対処するため、ガウスKDEを用いて重要度を推定するIWR(Importance Weighted Retrieval)を導入する。
確率比を考慮することで、IWRは以前の選択規則のバイアスを緩和し、合理的なモデリングパラメータを使用することで、すべてのデータポイントを用いた推定を効果的に円滑にする。
また,Bridgeデータセット上でのシミュレーション環境と実世界評価の両面から,我々の手法であるIWRは,わずかな修正しか必要とせず,既存の検索手法の性能を一貫して向上させることがわかった。
関連論文リスト
- Formal Bayesian Transfer Learning via the Total Risk Prior [1.8570591025615457]
我々は、前者の特定のインスタンス化が、変換座標系におけるベイズラッソにどのように導かれるかを示す。
また、最近提案されたミニマックス周波数変換学習技術は、我々のモデルに対するPosterioriアプローチの近似的な最大値と見なせることを示した。
論文 参考訳(メタデータ) (2025-07-31T17:55:16Z) - PEAKS: Selecting Key Training Examples Incrementally via Prediction Error Anchored by Kernel Similarity [6.6157730528755065]
インクリメンタルデータ選択(IDS)問題では,サンプルが連続的なストリームとして到着し,完全なデータソースにアクセスせずに選択する必要がある。
IDSに適した効率的なデータ選択法であるPEAKSを提案する。
PEAKSが既存の選択戦略を一貫して上回ることを示す総合評価を行った。
論文 参考訳(メタデータ) (2025-04-07T16:42:09Z) - DUPRE: Data Utility Prediction for Efficient Data Valuation [49.60564885180563]
Data Shapleyのような協調ゲーム理論に基づくデータ評価では、データユーティリティを評価し、複数のデータサブセットに対してMLモデルを再トレーニングする必要がある。
我々のフレームワークである textttDUPRE は、モデル再学習による評価ではなく、データユーティリティを予測することによって、サブセット評価当たりのコストを削減できる代替手法を採用しています。
具体的には、いくつかのデータサブセットのデータユーティリティを評価すると、textttDUPREは、他のすべてのデータサブセットの有用性を予測するために、emphGaussianプロセス(GP)回帰モデルに適合する。
論文 参考訳(メタデータ) (2025-02-22T08:53:39Z) - Towards Data-Efficient Pretraining for Atomic Property Prediction [51.660835328611626]
タスク関連データセットでの事前トレーニングは、大規模な事前トレーニングと一致するか、あるいは超える可能性があることを示す。
本稿では,コンピュータビジョンのFr'echet Inception Distanceにインスパイアされた,化学類似度指数(CSI)を紹介する。
論文 参考訳(メタデータ) (2025-02-16T11:46:23Z) - What is the Right Notion of Distance between Predict-then-Optimize Tasks? [35.842182348661076]
OTD$3$は、機能やラベルに加えて下流の決定を組み込んだ、新しいデータセット距離である。
提案した距離は,3つの予測列最適化タスク間でのモデル伝達可能性を正確に予測できることを示す。
論文 参考訳(メタデータ) (2024-09-11T04:13:17Z) - Minimally Supervised Learning using Topological Projections in
Self-Organizing Maps [55.31182147885694]
自己組織化マップ(SOM)におけるトポロジカルプロジェクションに基づく半教師付き学習手法を提案する。
提案手法は,まずラベル付きデータ上でSOMを訓練し,最小限のラベル付きデータポイントをキーベストマッチングユニット(BMU)に割り当てる。
提案した最小教師付きモデルが従来の回帰手法を大幅に上回ることを示す。
論文 参考訳(メタデータ) (2024-01-12T22:51:48Z) - Data Selection for Language Models via Importance Resampling [90.9263039747723]
我々は、望まれるターゲット分布に合わせるために、大規模な未ラベルデータセットのサブセットを選択するという問題を形式化する。
我々は、LMデータ選択のために低次元で使用される古典的な重要度再サンプリング手法を拡張した。
DSIRフレームワークをhash n-gram機能でインスタンス化し、4.5時間で1億のドキュメントを選択できる。
論文 参考訳(メタデータ) (2023-02-06T23:57:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。