論文の概要: Robustness Certification of Visual Perception Models via Camera Motion
Smoothing
- arxiv url: http://arxiv.org/abs/2210.04625v1
- Date: Tue, 4 Oct 2022 15:31:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-16 16:03:14.046285
- Title: Robustness Certification of Visual Perception Models via Camera Motion
Smoothing
- Title(参考訳): カメラモーション平滑化による視覚知覚モデルのロバスト性認証
- Authors: Hanjiang Hu, Zuxin Liu, Linyi Li, Jiacheng Zhu, Ding Zhao
- Abstract要約: カメラモーションの摂動下での視覚知覚モデルのロバスト性について検討し、カメラモーションがロボット知覚に与える影響について検討する。
本稿では,任意の画像分類モデルに対する動き平滑化手法を提案する。
我々は,カメラの動乱に対する運動平滑化による認証手法の検証のために,広範囲にわたる実験を行った。
- 参考スコア(独自算出の注目度): 23.5329905995857
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: A vast literature shows that the learning-based visual perception model is
sensitive to adversarial noises but few works consider the robustness of
robotic perception models under widely-existing camera motion perturbations. To
this end, we study the robustness of the visual perception model under camera
motion perturbations to investigate the influence of camera motion on robotic
perception. Specifically, we propose a motion smoothing technique for arbitrary
image classification models, whose robustness under camera motion perturbations
could be certified. The proposed robustness certification framework based on
camera motion smoothing provides tight and scalable robustness guarantees for
visual perception modules so that they are applicable to wide robotic
applications. As far as we are aware, this is the first work to provide the
robustness certification for the deep perception module against camera motions,
which improves the trustworthiness of robotic perception. A realistic indoor
robotic dataset with the dense point cloud map for the entire room, MetaRoom,
is introduced for the challenging certifiable robust perception task. We
conduct extensive experiments to validate the certification approach via motion
smoothing against camera motion perturbations. Our framework guarantees the
certified accuracy of 81.7% against camera translation perturbation along depth
direction within -0.1m ` 0.1m. We also validate the effectiveness of our method
on the real-world robot by conducting hardware experiment on the robotic arm
with an eye-in-hand camera. The code is available on
https://github.com/HanjiangHu/camera-motion-smoothing.
- Abstract(参考訳): 広義の文献では、学習に基づく視覚知覚モデルは敵のノイズに敏感であるが、ロボットの知覚モデルの頑健性を考慮する研究はほとんどない。
本研究では,カメラ動作の摂動下での視覚知覚モデルのロバスト性について検討し,カメラ動作がロボットの知覚に与える影響について検討する。
具体的には,カメラ動作の摂動下でのロバスト性が検証できる任意の画像分類モデルに対する動き平滑化手法を提案する。
カメラモーションの平滑化に基づくロバストネス認証フレームワークは,視覚知覚モジュールに対して,広義のロボットアプリケーションに適用可能な密でスケーラブルなロバストネス保証を提供する。
認識している限りでは、これはカメラの動きに対する深い知覚モジュールのロバスト性認定を提供する最初の仕事であり、ロボットの知覚の信頼性を向上させる。
部屋全体の密集点クラウドマップを備えたリアルな屋内ロボットデータセット、MetaRoomは、困難な証明可能な堅牢な認識タスクのために導入された。
本研究では,カメラ動作の摂動に対する運動平滑化による認証手法の検証を行う。
本フレームワークは,深度0.1m ` 0.1m以内のカメラ翻訳摂動に対して81.7%の精度を保証する。
また,眼球カメラを用いたロボットアームのハードウェア実験により,実世界のロボットに対する本手法の有効性を検証した。
コードはhttps://github.com/hanjianghu/camera-motion-smoothingで入手できる。
関連論文リスト
- Image Conductor: Precision Control for Interactive Video Synthesis [90.2353794019393]
映画製作とアニメーション制作は、しばしばカメラの遷移と物体の動きを調整するための洗練された技術を必要とする。
イメージコンダクタ(Image Conductor)は、カメラトランジションとオブジェクトの動きを正確に制御し、単一の画像からビデオアセットを生成する方法である。
論文 参考訳(メタデータ) (2024-06-21T17:55:05Z) - Microsaccade-inspired Event Camera for Robotics [42.27082276343167]
低反応時間と安定したテクスチャを同時に維持できるイベントベース認識システムの設計を行う。
回転するくさびプリズムの幾何学的光学は、追加の回転運動のアルゴリズムによる補償を可能にする。
様々な実世界の実験では、ロボット工学が低レベルと高レベルの両方の視覚タスクに対して知覚を促進する可能性を実証している。
論文 参考訳(メタデータ) (2024-05-28T02:49:46Z) - Multimodal Anomaly Detection based on Deep Auto-Encoder for Object Slip
Perception of Mobile Manipulation Robots [22.63980025871784]
提案フレームワークは,RGBや深度カメラ,マイク,力トルクセンサなど,さまざまなロボットセンサから収集した異種データストリームを統合する。
統合されたデータは、ディープオートエンコーダを訓練して、通常の状態を示す多感覚データの潜在表現を構築するために使用される。
次に、トレーニングされたエンコーダの潜伏値と再構成された入力データの潜伏値との差によって測定された誤差スコアによって異常を識別することができる。
論文 参考訳(メタデータ) (2024-03-06T09:15:53Z) - Neural feels with neural fields: Visuo-tactile perception for in-hand
manipulation [57.60490773016364]
マルチフィンガーハンドの視覚と触覚を組み合わせることで,手動操作時の物体の姿勢と形状を推定する。
提案手法であるNeuralFeelsは,ニューラルネットワークをオンラインで学習することでオブジェクトの形状を符号化し,ポーズグラフ問題を最適化して共同で追跡する。
私たちの結果は、タッチが少なくとも、洗練され、そして最も最良のものは、手動操作中に視覚的推定を曖昧にすることを示しています。
論文 参考訳(メタデータ) (2023-12-20T22:36:37Z) - Pixel-wise Smoothing for Certified Robustness against Camera Motion
Perturbations [45.576866560987405]
本稿では,3D-2Dプロジェクティブ・トランスフォーメーションのロバスト性を証明するための枠組みを提案する。
本手法は3次元物理空間ではなく2次元画素空間上の滑らかな分布を利用する。
提案手法は,約80%の精度を達成し,投影された画像フレームの30%しか利用していない。
論文 参考訳(メタデータ) (2023-09-22T19:15:49Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Neural Scene Representation for Locomotion on Structured Terrain [56.48607865960868]
本研究では,都市環境を横断する移動ロボットの局所的な地形を再構築する学習手法を提案する。
搭載されたカメラとロボットの軌道からの深度測定のストリームを用いて、ロボットの近傍の地形を推定する。
ノイズ測定とカメラ配置の盲点からの大量の欠落データにもかかわらず,シーンを忠実に再構築する3次元再構成モデルを提案する。
論文 参考訳(メタデータ) (2022-06-16T10:45:17Z) - Performance Evaluation of Low-Cost Machine Vision Cameras for
Image-Based Grasp Verification [0.0]
本稿では,マシンビジョンカメラを用いた視覚に基づく把握検証システムを提案する。
実験により,選択したマシンビジョンカメラとディープラーニングモデルにより,フレーム精度97%のグルーピングを堅牢に検証できることが実証された。
論文 参考訳(メタデータ) (2020-03-23T10:34:27Z) - GhostImage: Remote Perception Attacks against Camera-based Image
Classification Systems [6.637193297008101]
視覚に基づくオブジェクト分類システムでは、センサーが環境を認識し、機械学習を使用して意思決定のためにオブジェクトを検出し分類する。
我々は、攻撃者が突発的なオブジェクトを作成したり、既存のオブジェクトを変更したりすることを可能にするために、認識ドメインをリモートかつ控えめに利用する方法を実証する。
論文 参考訳(メタデータ) (2020-01-21T21:58:45Z) - Morphology-Agnostic Visual Robotic Control [76.44045983428701]
MAVRICは、ロボットの形態に関する最小限の知識で機能するアプローチである。
本稿では,視覚誘導型3Dポイントリーチ,軌道追従,ロボットとロボットの模倣について紹介する。
論文 参考訳(メタデータ) (2019-12-31T15:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。