論文の概要: ILeSiA: Interactive Learning of Robot Situational Awareness from Camera Input
- arxiv url: http://arxiv.org/abs/2409.20173v3
- Date: Mon, 08 Sep 2025 12:56:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:02.74196
- Title: ILeSiA: Interactive Learning of Robot Situational Awareness from Camera Input
- Title(参考訳): ILeSiA:カメラ入力によるロボットの状況認識の対話型学習
- Authors: Petr Vanc, Giovanni Franzese, Jan Kristof Behrens, Cosimo Della Santina, Karla Stepanova, Jens Kober, Robert Babuska,
- Abstract要約: 本稿では,カメラ入力とラベリングフレームを安全あるいは危険として利用することで,ロボットの状況認識を教えることに焦点を当てる。
提案手法は,新しい断層の1つの例のみを用いて,既知の断層と新しい断層の両方を確実に検出することができる。
本手法により,次世代のコボットを,容易にセットアップ可能な視覚的リスクアセスメントで迅速に展開することが可能となる。
- 参考スコア(独自算出の注目度): 13.374743857520487
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning from demonstration is a promising approach for teaching robots new skills. However, a central challenge in the execution of acquired skills is the ability to recognize faults and prevent failures. This is essential because demonstrations typically cover only a limited set of scenarios and often only the successful ones. During task execution, unforeseen situations may arise, such as changes in the robot's environment or interaction with human operators. To recognize such situations, this paper focuses on teaching the robot situational awareness by using a camera input and labeling frames as safe or risky. We train a Gaussian Process (GP) regression model fed by a low-dimensional latent space representation of the input images. The model outputs a continuous risk score ranging from zero to one, quantifying the degree of risk at each timestep. This allows for pausing task execution in unsafe situations and directly adding new training data, labeled by the human user. Our experiments on a robotic manipulator show that the proposed method can reliably detect both known and novel faults using only a single example for each new fault. In contrast, a standard multi-layer perceptron (MLP) performs well only on faults it has encountered during training. Our method enables the next generation of cobots to be rapidly deployed with easy-to-set-up, vision-based risk assessment, proactively safeguarding humans and detecting misaligned parts or missing objects before failures occur. We provide all the code and data required to reproduce our experiments at imitrob.ciirc.cvut.cz/publications/ilesia.
- Abstract(参考訳): デモから学ぶことは、ロボットに新しいスキルを教えるための有望なアプローチだ。
しかし、獲得したスキルの実行における中心的な課題は、障害を認識し、失敗を防ぐ能力である。
デモは通常、限られたシナリオのみをカバーし、多くの場合、成功したシナリオのみをカバーします。
タスク実行中、ロボットの環境の変化や人間のオペレータとの相互作用など、予期せぬ状況が発生する可能性がある。
このような状況を認識するために,カメラ入力とラベリングフレームを安全かつ危険とみなしてロボットに状況認識を教えることに焦点を当てた。
入力画像の低次元潜在空間表現によって供給されるガウス過程(GP)回帰モデルを訓練する。
モデルはゼロから1までの連続的なリスクスコアを出力し、各タイムステップにおけるリスクの度合いを定量化する。
これにより、安全でない状況でタスク実行を一時停止し、ヒューマンユーザによってラベル付けされた新しいトレーニングデータを直接追加することができる。
ロボットマニピュレータを用いた実験により,新しい断層の1つの例のみを用いて,既知の断層と新しい断層の両方を確実に検出できることを確認した。
対照的に、標準的な多層パーセプトロン(MLP)は、トレーニング中に遭遇した故障に対してのみよく機能する。
提案手法により,次世代のコボットを手軽にセットアップし,視覚に基づくリスク評価を行い,人体を積極的に保護し,故障発生前に不整合部分や行方不明物を検出する。
我々はImtrob.ciirc.cvut.cz/publications/ilesiaでの実験を再現するために必要なすべてのコードとデータを提供します。
関連論文リスト
- Low Resource Reconstruction Attacks Through Benign Prompts [12.077836270816622]
我々は、低リソースを必要とする新たな攻撃を考案し、実際のトレーニングセットへのアクセスをほとんど、あるいは全く想定しない。
これは、画像がインフォームされたユーザによって、意図せずに再構築されるリスクを強調します。
論文 参考訳(メタデータ) (2025-07-10T17:32:26Z) - RAID: A Dataset for Testing the Adversarial Robustness of AI-Generated Image Detectors [57.81012948133832]
本稿では,72kの多種多様かつ高い変換可能な対向例からなるRAID(Robust Evaluation of AI- generated Image Detectors)を提案する。
提案手法は,未知の検出器に高い成功率で転送する逆画像を生成する。
以上の結果から,現在最先端のAI生成画像検出器は,敵の例によって容易に認識できることが示唆された。
論文 参考訳(メタデータ) (2025-06-04T14:16:00Z) - Safe Uncertainty-Aware Learning of Robotic Suturing [0.7864304771129751]
ミニマル補助侵襲手術は現在、訓練された外科医によって完全に手動で制御されている。
最近の研究は、有望な適応性を示す人工知能手法を活用している。
本稿では,安全かつ不確実性を考慮した学習手法の枠組みを提案する。
論文 参考訳(メタデータ) (2025-05-22T12:31:18Z) - MLLM-as-a-Judge for Image Safety without Human Labeling [81.24707039432292]
AIGCの時代には、多くの画像生成モデルは有害なコンテンツを生成できる。
確立された安全ルールに基づいて、このような安全でない画像を特定することが不可欠である。
既存のアプローチでは、人間のラベル付きデータセットを使った微調整MLLMが一般的である。
論文 参考訳(メタデータ) (2024-12-31T00:06:04Z) - Don't Let Your Robot be Harmful: Responsible Robotic Manipulation [57.70648477564976]
ロボット操作における人間の指示の実行は、深刻な安全性のリスクにつながる可能性がある。
i) 安全リスクを含むシナリオを自動生成し、仮想的なインタラクションを行う世界モデルと、(ii) 反射による結果を予測するメンタルモデルを含む。
本研究は, 安全行政がリスクを回避し, 合成データセットと実世界の両方の実験において, 効率的にタスクを完了できることを実証する。
論文 参考訳(メタデータ) (2024-11-27T12:27:50Z) - LLMs know their vulnerabilities: Uncover Safety Gaps through Natural Distribution Shifts [88.96201324719205]
大規模言語モデル(LLM)の安全性に関する懸念は、事前訓練中に潜在的に有害なデータに曝されることにより、大きな注目を集めている。
我々は、有害なコンテンツに意味的に関連していると思われる良心的なプロンプトが、安全性のメカニズムを回避できる新しい安全性脆弱性をLSMで特定する。
我々は,事前学習における有害なプロンプトに関連するアクターを識別する新しい攻撃手法,textitActorBreakerを導入する。
論文 参考訳(メタデータ) (2024-10-14T16:41:49Z) - XSkill: Cross Embodiment Skill Discovery [41.624343257852146]
XSkillは、非ラベルの人間とロボットの操作ビデオから純粋に、スキルプロトタイプと呼ばれるクロスボデーメント表現を発見する模倣学習フレームワークである。
シミュレーションと実環境における実験により,見知らぬタスクのスキル伝達と構成を容易にする技術プロトタイプが発見された。
論文 参考訳(メタデータ) (2023-07-19T12:51:28Z) - SignBERT+: Hand-model-aware Self-supervised Pre-training for Sign
Language Understanding [132.78015553111234]
手の動きは手話の表現において重要な役割を担っている。
現在,手話理解(SLU)の深層学習手法は,手話データ資源の不足により過度に適合する傾向にある。
モデル認識ハンドを組み込んだ初の自己教師型事前学習型SignBERT+フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-08T17:16:38Z) - Distributional Instance Segmentation: Modeling Uncertainty and High
Confidence Predictions with Latent-MaskRCNN [77.0623472106488]
本稿では,潜在符号を用いた分散インスタンス分割モデルのクラスについて検討する。
ロボットピッキングへの応用として,高い精度を実現するための信頼性マスク手法を提案する。
本手法は,新たにリリースした曖昧なシーンのデータセットを含め,ロボットシステムにおける致命的なエラーを著しく低減できることを示す。
論文 参考訳(メタデータ) (2023-05-03T05:57:29Z) - Learning Transferable Pedestrian Representation from Multimodal
Information Supervision [174.5150760804929]
VAL-PATは、移動可能な表現を学習し、様々な歩行者分析タスクをマルチモーダル情報で強化する新しいフレームワークである。
まず、LUPerson-TAデータセットで事前トレーニングを行い、各画像にはテキストと属性アノテーションが含まれている。
次に、学習した表現を、人物のreID、人物属性認識、テキストベースの人物検索など、さまざまな下流タスクに転送する。
論文 参考訳(メタデータ) (2023-04-12T01:20:58Z) - Label Flipping Data Poisoning Attack Against Wearable Human Activity
Recognition System [0.5284812806199193]
本稿では,HAR(Human Activity Recognition)システムに対するラベルフリップデータ中毒攻撃の設計について述べる。
検知環境におけるノイズと不確実性のため、このような攻撃は認識システムに深刻な脅威をもたらす。
本稿では,スマートフォンによるセンサデータ収集アプリケーションを通じて,この攻撃を実際に行う方法について,光を当てる。
論文 参考訳(メタデータ) (2022-08-17T17:52:13Z) - Contrastive Learning for Cross-Domain Open World Recognition [17.660958043781154]
進化する能力は、知識が製造者によって注入されるものに限定されない貴重な自律エージェントにとって基本的なものである。
新しいクラスをインクリメンタルに含めるのに適した機能空間を学習し、様々な視覚領域にまたがる知識を捉えることができることを示す。
本手法は,学習エピソードごとの効果的な停止基準を付与し,新たな自己ペースしきい値設定戦略を活用する。
論文 参考訳(メタデータ) (2022-03-17T11:23:53Z) - Continual Learning from Demonstration of Robotics Skills [5.573543601558405]
ロボットに動きのスキルを教える方法は、一度に1つのスキルのトレーニングに集中する。
本稿では,ハイパーネットとニューラル常微分方程式解法を用いた実験から連続学習へのアプローチを提案する。
論文 参考訳(メタデータ) (2022-02-14T16:26:52Z) - Backdoor Attacks on Self-Supervised Learning [22.24046752858929]
自己教師型学習手法は,バックドア攻撃に対して脆弱であることを示す。
攻撃者は、画像に小さなトリガー(攻撃者として知られる)を追加することで、ラベルのないデータの一部を毒する。
本稿では,攻撃を中和する知識蒸留に基づく防衛アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-05-21T04:22:05Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z) - Exploratory Machine Learning with Unknown Unknowns [60.78953456742171]
本稿では,他のラベルと誤認識されたトレーニングデータに未知のクラスが存在するという,新たな問題設定について検討する。
本研究では,潜在的に隠蔽されたクラスを発見するために,機能空間を積極的に拡張することにより,学習データを調べ,調査する探索機械学習を提案する。
論文 参考訳(メタデータ) (2020-02-05T02:06:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。