論文の概要: Data Quality in Imitation Learning
- arxiv url: http://arxiv.org/abs/2306.02437v1
- Date: Sun, 4 Jun 2023 18:48:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 17:47:43.351934
- Title: Data Quality in Imitation Learning
- Title(参考訳): 模倣学習におけるデータ品質
- Authors: Suneel Belkhale, Yuchen Cui, Dorsa Sadigh
- Abstract要約: ロボット工学のオフライン学習では、インターネットのスケールデータがないだけで、高品質なデータセットが必要なのです。
これは特に、専門家によるデモンストレーションを用いたロボット学習のためのサンプル効率のよいパラダイムである模倣学習(IL)において当てはまる。
本研究では,分散シフトのレンズによる模倣学習のためのデータ品質の形式化に向けた第一歩を踏み出す。
- 参考スコア(独自算出の注目度): 15.939363481618738
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In supervised learning, the question of data quality and curation has been
over-shadowed in recent years by increasingly more powerful and expressive
models that can ingest internet-scale data. However, in offline learning for
robotics, we simply lack internet scale data, and so high quality datasets are
a necessity. This is especially true in imitation learning (IL), a sample
efficient paradigm for robot learning using expert demonstrations. Policies
learned through IL suffer from state distribution shift at test time due to
compounding errors in action prediction, which leads to unseen states that the
policy cannot recover from. Instead of designing new algorithms to address
distribution shift, an alternative perspective is to develop new ways of
assessing and curating datasets. There is growing evidence that the same IL
algorithms can have substantially different performance across different
datasets. This calls for a formalism for defining metrics of "data quality"
that can further be leveraged for data curation. In this work, we take the
first step toward formalizing data quality for imitation learning through the
lens of distribution shift: a high quality dataset encourages the policy to
stay in distribution at test time. We propose two fundamental properties that
shape the quality of a dataset: i) action divergence: the mismatch between the
expert and learned policy at certain states; and ii) transition diversity: the
noise present in the system for a given state and action. We investigate the
combined effect of these two key properties in imitation learning
theoretically, and we empirically analyze models trained on a variety of
different data sources. We show that state diversity is not always beneficial,
and we demonstrate how action divergence and transition diversity interact in
practice.
- Abstract(参考訳): 教師付き学習では、インターネット規模のデータを取り込みうる、より強力で表現力のあるモデルによって、データ品質とキュレーションに関する疑問が近年隠されている。
しかし、ロボット工学のオフライン学習では、インターネットスケールのデータが不足しているため、高品質なデータセットが不可欠である。
これは、エキスパートデモを使ったロボット学習のためのサンプル効率的なパラダイムである模倣学習(il)において特に当てはまる。
ILを通じて学んだポリシーは、アクション予測におけるエラーを複雑にするため、テスト時に状態分布のシフトに悩まされる。
分散シフトに対処する新しいアルゴリズムを設計する代わりに、データセットの評価とキュレーションの新しい方法を開発するという別の視点がある。
異なるデータセット間で同じilアルゴリズムが実質的に異なるパフォーマンスを持つという証拠が増えている。
これは、データキュレーションにさらに活用できる「データ品質」のメトリクスを定義するための形式主義を要求する。
本研究では,分散シフトのレンズを通して模倣学習のためのデータ品質を定式化するための第一歩を踏み出す。
データセットの品質を形作る2つの基本特性を提案する。
一 行動の相違:ある州における専門家と学習方針のミスマッチ
二 遷移多様性(transition diversity): ある状態及び動作のシステムに存在する雑音。
模倣学習におけるこれらの2つの重要な特性の組合せ効果を理論的に検討し,様々なデータソースで学習したモデルを経験的に解析した。
状態の多様性が必ずしも有益であるとは限らないことを示し、行動の多様性と遷移の多様性が実際にどのように作用するかを示す。
関連論文リスト
- Robust Machine Learning by Transforming and Augmenting Imperfect
Training Data [6.928276018602774]
この論文は、現代の機械学習のいくつかのデータ感度を探求する。
まず、トレーニングデータで測定された事前の人間の識別をMLが符号化するのを防ぐ方法について論じる。
次に、トレーニング中に予測忠実度を提供するが、デプロイ時に信頼性が低い突発的特徴を含むデータから学習する問題について論じる。
論文 参考訳(メタデータ) (2023-12-19T20:49:28Z) - Exploring Data Redundancy in Real-world Image Classification through
Data Selection [20.389636181891515]
ディープラーニングモデルはトレーニングに大量のデータを必要とすることが多く、結果としてコストが増大する。
実世界の画像データの冗長性を調べるために,シナプスインテリジェンスと勾配ノルムに基づく2つのデータ評価指標を提案する。
オンラインおよびオフラインのデータ選択アルゴリズムは、検査されたデータ値に基づいてクラスタリングとグループ化によって提案される。
論文 参考訳(メタデータ) (2023-06-25T03:31:05Z) - Generalizable Low-Resource Activity Recognition with Diverse and
Discriminative Representation Learning [24.36351102003414]
HAR(Human Activity Recognition)は、人間のセンサーの読み取りから動作パターンを特定することに焦点を当てた時系列分類タスクである。
一般化可能な低リソースHARのためのDDLearn(Diverse and Discriminative Expression Learning)という新しい手法を提案する。
平均精度は9.5%向上した。
論文 参考訳(メタデータ) (2023-05-25T08:24:22Z) - Harnessing the Power of Text-image Contrastive Models for Automatic
Detection of Online Misinformation [50.46219766161111]
誤情報識別の領域における構成的学習を探求する自己学習モデルを構築した。
本モデルでは、トレーニングデータが不十分な場合、非マッチング画像-テキストペア検出の優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-19T02:53:59Z) - Reinforcement Learning from Passive Data via Latent Intentions [86.4969514480008]
我々は、下流RLを加速する機能を学ぶために、受動的データが引き続き使用できることを示す。
我々のアプローチは、意図をモデル化することで受動的データから学習する。
実験では、クロス・エボディメント・ビデオデータやYouTubeビデオなど、さまざまな形式の受動的データから学習できることを実証した。
論文 参考訳(メタデータ) (2023-04-10T17:59:05Z) - Nonstationary data stream classification with online active learning and
siamese neural networks [11.501721946030779]
予測モデルをオンザフライでトレーニングするオンライン学習方法に対する新たなニーズ。
しかし、一連のオープンな課題は、実際にデプロイを妨げている。
本稿では,オンラインアクティブラーニング,シアムネットワーク,マルチキューメモリを組み合わせることで,これらの課題に対処するActiSiameseアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-10-03T17:16:03Z) - A Survey of Learning on Small Data: Generalization, Optimization, and
Challenge [101.27154181792567]
ビッグデータの一般化能力を近似した小さなデータについて学ぶことは、AIの究極の目的の1つである。
この調査はPACフレームワークの下でのアクティブサンプリング理論に従い、小さなデータにおける学習の一般化誤差とラベルの複雑さを分析した。
効率的な小さなデータ表現の恩恵を受けるかもしれない複数のデータアプリケーションについて調査する。
論文 参考訳(メタデータ) (2022-07-29T02:34:19Z) - Online Continual Learning with Natural Distribution Shifts: An Empirical
Study with Visual Data [101.6195176510611]
オンライン」連続学習は、情報保持とオンライン学習の有効性の両方を評価することができる。
オンライン連続学習では、入力される各小さなデータをまずテストに使用し、次にトレーニングセットに追加し、真にオンラインにします。
本稿では,大規模かつ自然な分布変化を示すオンライン連続視覚学習のための新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2021-08-20T06:17:20Z) - What Matters in Learning from Offline Human Demonstrations for Robot
Manipulation [64.43440450794495]
ロボット操作のための6つのオフライン学習アルゴリズムについて広範な研究を行う。
我々の研究は、オフラインの人間のデータから学習する際の最も重要な課題を分析します。
人間のデータセットから学ぶ機会を強調します。
論文 参考訳(メタデータ) (2021-08-06T20:48:30Z) - Enhancing ensemble learning and transfer learning in multimodal data
analysis by adaptive dimensionality reduction [10.646114896709717]
マルチモーダルデータ分析では、すべての観測が同じレベルの信頼性や情報品質を示すわけではない。
この問題を克服するために,次元削減のための適応的アプローチを提案する。
多様な研究分野で得られたマルチモーダルデータセットのアプローチをテストします。
論文 参考訳(メタデータ) (2021-05-08T11:53:12Z) - Quasi-Global Momentum: Accelerating Decentralized Deep Learning on
Heterogeneous Data [77.88594632644347]
ディープラーニングモデルの分散トレーニングは、ネットワーク上でデータプライバシとデバイス上での学習を可能にする重要な要素である。
現実的な学習シナリオでは、異なるクライアントのローカルデータセットに異質性が存在することが最適化の課題となる。
本稿では,この分散学習の難しさを軽減するために,運動量に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2021-02-09T11:27:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。