論文の概要: Task-Driven Out-of-Distribution Detection with Statistical Guarantees
for Robot Learning
- arxiv url: http://arxiv.org/abs/2106.13703v1
- Date: Fri, 25 Jun 2021 15:41:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-28 12:52:24.724857
- Title: Task-Driven Out-of-Distribution Detection with Statistical Guarantees
for Robot Learning
- Title(参考訳): ロボット学習のための統計的保証を用いたタスク駆動分散検出
- Authors: Alec Farid, Sushant Veer, Anirudha Majumdar
- Abstract要約: 本稿では,確率的近似(PAC)-ベイズ理論を利用して,トレーニング分布における性能を保証したポリシをトレーニングする。
p-値と濃度不等式に基づいて統計的手法を用いてこれを定式化する。
我々は、不慣れなポーズや形状で物体をつかむための模擬例について、我々のアプローチを実証する。
- 参考スコア(独自算出の注目度): 6.671201304858938
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Our goal is to perform out-of-distribution (OOD) detection, i.e., to detect
when a robot is operating in environments that are drawn from a different
distribution than the environments used to train the robot. We leverage
Probably Approximately Correct (PAC)-Bayes theory in order to train a policy
with a guaranteed bound on performance on the training distribution. Our key
idea for OOD detection then relies on the following intuition: violation of the
performance bound on test environments provides evidence that the robot is
operating OOD. We formalize this via statistical techniques based on p-values
and concentration inequalities. The resulting approach (i) provides guaranteed
confidence bounds on OOD detection, and (ii) is task-driven and sensitive only
to changes that impact the robot's performance. We demonstrate our approach on
a simulated example of grasping objects with unfamiliar poses or shapes. We
also present both simulation and hardware experiments for a drone performing
vision-based obstacle avoidance in unfamiliar environments (including wind
disturbances and different obstacle densities). Our examples demonstrate that
we can perform task-driven OOD detection within just a handful of trials.
Comparisons with baselines also demonstrate the advantages of our approach in
terms of providing statistical guarantees and being insensitive to
task-irrelevant distribution shifts.
- Abstract(参考訳): 我々のゴールは、ロボットのトレーニングに使用する環境とは異なる分布から引き出された環境において、ロボットが動作していることを検知する、アウト・オブ・ディストリビューション(OOD)検出を行うことである。
本稿では,確率的近似(PAC)-ベイズ理論を利用して,トレーニング分布における性能を保証したポリシをトレーニングする。
テスト環境に縛られた性能の侵害は、ロボットがOODを操作していることを示す証拠となります。
p-値と濃度不等式に基づいて統計的手法を用いてこれを定式化する。
結果として得られたアプローチ(i)はood検出に対する信頼性を保証し、(ii)タスク駆動であり、ロボットの性能に影響を与える変化のみに敏感である。
身近なポーズや形状で物体をつかむシミュレーション例について,本手法を実証する。
また,不慣れな環境(風乱や障害物密度など)において,視覚に基づく障害物回避を行うドローンのシミュレーションとハードウェア実験も行った。
我々の例は、ほんの数回の試行でタスク駆動型OOD検出ができることを示している。
また, ベースラインとの比較では, 統計的保証の提供やタスク非関連分布シフトに敏感であることから, 提案手法の利点も示している。
関連論文リスト
- R-AIF: Solving Sparse-Reward Robotic Tasks from Pixels with Active Inference and World Models [50.19174067263255]
我々は、エージェントがスパース・リワード、継続的なアクション、ゴールベースのロボット制御POMDP環境においてエクササイズするのを助けるために、事前の選好学習手法と自己修正スケジュールを導入する。
我々のエージェントは、累積報酬、相対安定性、成功率の観点から、最先端モデルよりも優れたパフォーマンスを提供する。
論文 参考訳(メタデータ) (2024-09-21T18:32:44Z) - Detecting Out-of-distribution Objects Using Neuron Activation Patterns [0.0]
物体検出装置(NAPTRON)における分布外サンプル検出のためのニューロン活性化PaTteRnsを導入する。
提案手法は,ID(In-distribution)のパフォーマンスに影響を与えることなく,最先端の手法よりも優れている。
OODオブジェクト検出のための最大のオープンソースベンチマークを作成しました。
論文 参考訳(メタデータ) (2023-07-31T06:41:26Z) - Rainproof: An Umbrella To Shield Text Generators From
Out-Of-Distribution Data [41.62897997865578]
安全なシステム動作を保証するための重要な要素は、Out-Of-Distribution Detectionである。
ほとんどのメソッドはエンコーダが出力する隠れた機能に依存している。
本研究では,ブラックボックスフレームワークにおけるソフト確率の活用に焦点をあてる。
論文 参考訳(メタデータ) (2022-12-18T21:22:28Z) - Breaking Down Out-of-Distribution Detection: Many Methods Based on OOD
Training Data Estimate a Combination of the Same Core Quantities [104.02531442035483]
本研究の目的は,OOD検出手法の暗黙的なスコアリング機能を識別すると同時に,共通の目的を認識することである。
内分布と外分布の2値差はOOD検出問題のいくつかの異なる定式化と等価であることを示す。
また, 外乱露光で使用される信頼損失は, 理論上最適のスコアリング関数と非自明な方法で異なる暗黙的なスコアリング関数を持つことを示した。
論文 参考訳(メタデータ) (2022-06-20T16:32:49Z) - Revisiting the Adversarial Robustness-Accuracy Tradeoff in Robot
Learning [121.9708998627352]
近年の研究では、現実的なロボット学習の応用において、対人訓練の効果が公平なトレードオフを起こさないことが示されている。
本研究は,ロボット学習におけるロバストネスと精度のトレードオフを再考し,最近のロバストトレーニング手法と理論の進歩により,現実のロボット応用に適した対人トレーニングが可能かどうかを解析する。
論文 参考訳(メタデータ) (2022-04-15T08:12:15Z) - Benchmark for Out-of-Distribution Detection in Deep Reinforcement
Learning [0.0]
強化学習(RL)ベースのソリューションは、ロボティクス、ヘルスケア、産業自動化など、さまざまな分野に採用されている。
これらのソリューションがうまく機能する場合に焦点が当てられるが、アウトオブ分散インプットが提示されるとフェールする。
RLの分布検出の外部は一般的に文献ではあまり取り上げられておらず、このタスクにはベンチマークの欠如がある。
論文 参考訳(メタデータ) (2021-12-05T22:21:11Z) - Multi-task Transformation Learning for Robust Out-of-Distribution
Detection [19.852463786440122]
アウト・オブ・ディストリビューションのサンプルの検出は、自律システムや医療など、オープンワールドおよび安全上重要なアプリケーションにおいて重要な役割を担っている。
自己教師付き表現学習技術は、OODサンプルを識別できる学習表現に適している。
OOD検出のための効果的な表現の訓練にマルチタスク変換学習を利用するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-07T18:18:26Z) - Online Monitoring of Object Detection Performance During Deployment [6.166295570030645]
入力フレームのスライディングウィンドウ上での平均平均精度(mAP)を予測し,対象検出器の性能を監視するカスケードニューラルネットワークを提案する。
我々は、自律走行データセットと物体検出装置の異なる組み合わせを用いて、提案手法の評価を行った。
論文 参考訳(メタデータ) (2020-11-16T07:01:43Z) - Guided Uncertainty-Aware Policy Optimization: Combining Learning and
Model-Based Strategies for Sample-Efficient Policy Learning [75.56839075060819]
従来のロボットのアプローチは、環境の正確なモデル、タスクの実行方法の詳細な説明、現在の状態を追跡するための堅牢な認識システムに依存している。
強化学習アプローチは、タスクを記述するための報酬信号だけで、生の感覚入力から直接操作することができるが、非常にサンプル非効率で脆弱である。
本研究では,ロボットの知覚・運動パイプラインにおける不正確さを克服できる一般的な手法を得るために,モデルに基づく手法の強みと学習に基づく手法の柔軟性を組み合わせる。
論文 参考訳(メタデータ) (2020-05-21T19:47:05Z) - Robust Out-of-distribution Detection for Neural Networks [51.19164318924997]
既存の検出機構は, 分布内およびOOD入力の評価において, 極めて脆弱であることを示す。
ALOE と呼ばれる実効性のあるアルゴリズムを提案する。このアルゴリズムは,逆向きに構築された逆数と外数の両方の例にモデルを公開することにより,堅牢なトレーニングを行う。
論文 参考訳(メタデータ) (2020-03-21T17:46:28Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。