論文の概要: AdvGrasp: Adversarial Attacks on Robotic Grasping from a Physical Perspective
- arxiv url: http://arxiv.org/abs/2507.09857v1
- Date: Mon, 14 Jul 2025 01:48:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:24.162941
- Title: AdvGrasp: Adversarial Attacks on Robotic Grasping from a Physical Perspective
- Title(参考訳): AdvGrasp: 身体的観点からのロボットグラスピングに対する敵対的攻撃
- Authors: Xiaofei Wang, Mingliang Han, Tianyu Hao, Cegang Li, Yunbo Zhao, Keke Tang,
- Abstract要約: 本稿では,身体的視点からロボットグルーピングに対する敵対的攻撃を行うフレームワークであるAdvGraspを紹介する。
物体の形状を変形させることにより、重力トルクを増大させ、レンチ空間の安定性の限界を減少させることにより、把握性能を損なう対向物体を生成する。
- 参考スコア(独自算出の注目度): 4.428272932902862
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks on robotic grasping provide valuable insights into evaluating and improving the robustness of these systems. Unlike studies that focus solely on neural network predictions while overlooking the physical principles of grasping, this paper introduces AdvGrasp, a framework for adversarial attacks on robotic grasping from a physical perspective. Specifically, AdvGrasp targets two core aspects: lift capability, which evaluates the ability to lift objects against gravity, and grasp stability, which assesses resistance to external disturbances. By deforming the object's shape to increase gravitational torque and reduce stability margin in the wrench space, our method systematically degrades these two key grasping metrics, generating adversarial objects that compromise grasp performance. Extensive experiments across diverse scenarios validate the effectiveness of AdvGrasp, while real-world validations demonstrate its robustness and practical applicability
- Abstract(参考訳): ロボットの把握に対する敵対的な攻撃は、これらのシステムの堅牢性を評価し改善するための貴重な洞察を提供する。
ニューラルネットワークの予測のみに焦点を絞った研究とは対照的に,本研究では,ロボットの把握に対する敵対的攻撃の枠組みであるAdvGraspを紹介する。
具体的には、AdvGraspは、重力に対して物体を持ち上げる能力を評価するリフト能力と、外乱に対する抵抗を評価する安定性の2つの中核的な側面をターゲットにしている。
物体の形状を変形させて重力トルクを増大させ、レンチ空間の安定性の限界を減少させることにより、本手法はこれらの2つの重要な把握指標を体系的に分解し、解析性能を損なう敵物体を生成する。
多様なシナリオにわたる大規模な実験は、AdvGraspの有効性を検証する一方で、実世界の検証は、その堅牢性と実用性を示す。
関連論文リスト
- Reinforced Embodied Active Defense: Exploiting Adaptive Interaction for Robust Visual Perception in Adversarial 3D Environments [26.37868865624549]
3次元環境における敵対的攻撃は、視覚知覚システムの信頼性に対する重要な脅威として現れてきた。
本稿では,環境への適応的探索と相互作用を活用する能動的防衛フレームワークであるReinforced Embodied Active Defense (Rein-EAD)を紹介する。
Rein-EADは、目に見えない、適応的な攻撃に対して堅牢な一般化を示し、現実世界の複雑なタスクに適している。
論文 参考訳(メタデータ) (2025-07-24T14:56:21Z) - Attention-Based Real-Time Defenses for Physical Adversarial Attacks in
Vision Applications [58.06882713631082]
ディープニューラルネットワークはコンピュータビジョンタスクにおいて優れたパフォーマンスを示すが、現実の敵攻撃に対する脆弱性は深刻なセキュリティ上の懸念を引き起こす。
本稿では、敵チャネルの注意力を利用して、浅いネットワーク層における悪意のある物体を素早く識別・追跡する、効果的な注意に基づく防御機構を提案する。
また、効率的な多フレーム防御フレームワークを導入し、防御性能と計算コストの両方を評価することを目的とした広範な実験を通じて、その有効性を検証した。
論文 参考訳(メタデータ) (2023-11-19T00:47:17Z) - Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - Mitigating Adversarial Vulnerability through Causal Parameter Estimation
by Adversarial Double Machine Learning [33.18197518590706]
視覚入力に対する故意に作られた摂動から導かれる敵の例は、ディープニューラルネットワークの決定プロセスに容易に害を与える可能性がある。
本稿では,adversarial Double Machine Learning (ADML) と呼ばれる因果的アプローチを導入する。
ADMLは, 対向的摂動の因果パラメータを直接推定し, 強靭性を損なう可能性のある負の効果を緩和することができる。
論文 参考訳(メタデータ) (2023-07-14T09:51:26Z) - On the Adversarial Robustness of Camera-based 3D Object Detection [21.091078268929667]
本研究では, カメラを用いた3次元物体検出手法の諸条件下でのロバスト性について検討する。
鳥眼ビューに基づく表現は, 局所攻撃に対する強い強靭性を示す。
深さ推定のないアプローチは、強い強靭性を示す可能性がある。
マルチフレームベニグインプットを組み込むことで、敵攻撃を効果的に軽減することができる。
論文 参考訳(メタデータ) (2023-01-25T18:59:15Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Physical Adversarial Attack meets Computer Vision: A Decade Survey [55.38113802311365]
本稿では,身体的敵意攻撃の概要を概観する。
本研究は,身体的敵意攻撃の性能を体系的に評価する第一歩を踏み出した。
提案する評価基準であるhiPAAは6つの視点から構成される。
論文 参考訳(メタデータ) (2022-09-30T01:59:53Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - Towards Understanding the Adversarial Vulnerability of Skeleton-based
Action Recognition [133.35968094967626]
骨格に基づく行動認識は、動的状況への強い適応性から注目を集めている。
ディープラーニング技術の助けを借りて、かなり進歩し、現在、良識のある環境で約90%の精度を達成している。
異なる対角的環境下での骨格に基づく行動認識の脆弱性に関する研究はいまだ研究されていない。
論文 参考訳(メタデータ) (2020-05-14T17:12:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。