論文の概要: Enhancing Video-Based Robot Failure Detection Using Task Knowledge
- arxiv url: http://arxiv.org/abs/2508.18705v1
- Date: Tue, 26 Aug 2025 06:10:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.698789
- Title: Enhancing Video-Based Robot Failure Detection Using Task Knowledge
- Title(参考訳): タスク知識を用いたビデオ型ロボット故障検出の強化
- Authors: Santosh Thoduka, Sebastian Houben, Juergen Gall, Paul G. Plöger,
- Abstract要約: 本研究では,ロボットが行う動作の時間的知識と,フィールドビュー内のタスク関連オブジェクトを用いて,映像に基づく障害検出手法を提案する。
我々は,タスク関連知識のアノテーションの追加とともに,修正した3つのデータセットに対するアプローチの有効性を実証する。
ARMBenchデータセットのF1スコアにおける77.9から80.0の改善を、追加の計算コストを伴わずに観察し、テスト時間拡張で81.4に増やした。
- 参考スコア(独自算出の注目度): 23.872457839873647
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Robust robotic task execution hinges on the reliable detection of execution failures in order to trigger safe operation modes, recovery strategies, or task replanning. However, many failure detection methods struggle to provide meaningful performance when applied to a variety of real-world scenarios. In this paper, we propose a video-based failure detection approach that uses spatio-temporal knowledge in the form of the actions the robot performs and task-relevant objects within the field of view. Both pieces of information are available in most robotic scenarios and can thus be readily obtained. We demonstrate the effectiveness of our approach on three datasets that we amend, in part, with additional annotations of the aforementioned task-relevant knowledge. In light of the results, we also propose a data augmentation method that improves performance by applying variable frame rates to different parts of the video. We observe an improvement from 77.9 to 80.0 in F1 score on the ARMBench dataset without additional computational expense and an additional increase to 81.4 with test-time augmentation. The results emphasize the importance of spatio-temporal information during failure detection and suggest further investigation of suitable heuristics in future implementations. Code and annotations are available.
- Abstract(参考訳): ロバストなロボットタスク実行は、安全な操作モード、リカバリ戦略、タスク再計画をトリガーするために、実行障害の確実な検出に重点を置いている。
しかし、多くの故障検出手法は、様々な現実のシナリオに適用した場合に有意義な性能を提供するのに苦労している。
本稿では,ロボットが実行する動作と,視野内のタスク関連オブジェクトの形式における時空間的知識を用いたビデオベース障害検出手法を提案する。
どちらの情報もほとんどのロボットシナリオで利用でき、簡単に入手することができる。
上記の課題関連知識のアノテーションを付加して,修正した3つのデータセットに対して,アプローチの有効性を実証する。
また,映像の異なる部分に可変フレームレートを適用することにより,性能を向上させるデータ拡張手法を提案する。
ARMBenchデータセットのF1スコアの77.9から80.0への改善は、追加の計算コストを伴わず、テスト時間拡張で81.4に向上する。
その結果,障害検出における時空間情報の重要性を強調し,今後の実装における適切なヒューリスティクスのさらなる検討を提案する。
コードとアノテーションが利用可能だ。
関連論文リスト
- Privacy-Preserving Driver Drowsiness Detection with Spatial Self-Attention and Federated Learning [10.067641629547014]
ドライバーの眠気は道路事故の主な原因の1つであり、交通事故による死亡事故の主要な原因と認識されている。
本研究では,不均質データと分散データとを効果的に扱えるよう設計した,眠気検出のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-01T03:12:01Z) - AnyPos: Automated Task-Agnostic Actions for Bimanual Manipulation [24.199522837278128]
本稿では,タスク固有の条件からアクション実行を分離するタスク非依存のアクションパラダイムを提案する。
ATARAはスケーラブルなセルフ教師付きフレームワークで、人間の遠隔操作と比較して30倍以上のコレクションを高速化する。
我々はArm-Decoupled EstimationとDirection-Aware Decoderを備えた逆動的モデルであるAnyPosを提案する。
論文 参考訳(メタデータ) (2025-07-17T03:48:57Z) - A Continual Offline Reinforcement Learning Benchmark for Navigation Tasks [13.804488794709806]
ビデオゲームナビゲーションシナリオのスイートを提供するベンチマークを導入する。
アルゴリズムの性能を評価するために、さまざまなタスク、データセット、評価プロトコル、メトリクスのセットを定義します。
論文 参考訳(メタデータ) (2025-06-03T13:48:20Z) - Multi-dataset Training of Transformers for Robust Action Recognition [75.5695991766902]
動作認識のための複数のデータセットをうまく一般化することを目的として,ロバストな特徴表現の課題について検討する。
本稿では、情報損失と投影損失という2つの新しい損失項を設計した、新しいマルチデータセットトレーニングパラダイムであるMultiTrainを提案する。
本研究では,Kineetics-400,Kineetics-700,Moments-in-Time,Activitynet,Some-something-v2の5つの課題データセットに対して,本手法の有効性を検証する。
論文 参考訳(メタデータ) (2022-09-26T01:30:43Z) - Weakly Supervised Two-Stage Training Scheme for Deep Video Fight
Detection Model [0.0]
ビデオにおけるファイト検出は、今日の監視システムとストリーミングメディアの普及にともなう、新たなディープラーニングアプリケーションである。
これまでの研究は、この問題に対処するための行動認識技術に大きく依存していた。
本研究では,動作認識特徴抽出器と異常スコア生成器の合成として,戦闘検出モデルを設計する。
論文 参考訳(メタデータ) (2022-09-23T08:29:16Z) - An Outlier Exposure Approach to Improve Visual Anomaly Detection
Performance for Mobile Robots [76.36017224414523]
移動ロボットの視覚異常検出システム構築の問題点を考察する。
標準異常検出モデルは、非異常データのみからなる大規模なデータセットを用いて訓練される。
本研究では,これらのデータを利用してリアルNVP異常検出モデルの性能向上を図る。
論文 参考訳(メタデータ) (2022-09-20T15:18:13Z) - Anomaly Detection in Video via Self-Supervised and Multi-Task Learning [113.81927544121625]
ビデオにおける異常検出は、コンピュータビジョンの問題である。
本稿では,オブジェクトレベルでの自己教師型およびマルチタスク学習を通じて,ビデオ中の異常事象検出にアプローチする。
論文 参考訳(メタデータ) (2020-11-15T10:21:28Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z) - AutoOD: Automated Outlier Detection via Curiosity-guided Search and
Self-imitation Learning [72.99415402575886]
外乱検出は重要なデータマイニングの課題であり、多くの実用的応用がある。
本稿では,最適なニューラルネットワークモデルを探すことを目的とした自動外乱検出フレームワークであるAutoODを提案する。
さまざまな実世界のベンチマークデータセットに対する実験結果から、AutoODが特定したディープモデルが最高のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2020-06-19T18:57:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。