論文の概要: Enhancing Robustness of Indoor Robotic Navigation with Free-Space
Segmentation Models Against Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2402.08763v1
- Date: Tue, 13 Feb 2024 19:57:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-15 17:58:15.797868
- Title: Enhancing Robustness of Indoor Robotic Navigation with Free-Space
Segmentation Models Against Adversarial Attacks
- Title(参考訳): 対向攻撃に対する自由空間分割モデルを用いた屋内ロボットナビゲーションのロバスト性向上
- Authors: Qiyuan An, Christos Sevastopoulos, Fillia Makedon
- Abstract要約: ディープラーニングモデルは敵の攻撃に弱い。
本研究では,ニューラルネットワークの隠れた層内の脆弱性を同定する。
提案手法は,クリーン画像と逆画像における隠蔽層間のギャップを最小限に抑え,新しい距離損失関数を組み込む。
- 参考スコア(独自算出の注目度): 0.695716108780627
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Endeavors in indoor robotic navigation rely on the accuracy of segmentation
models to identify free space in RGB images. However, deep learning models are
vulnerable to adversarial attacks, posing a significant challenge to their
real-world deployment. In this study, we identify vulnerabilities within the
hidden layers of neural networks and introduce a practical approach to
reinforce traditional adversarial training. Our method incorporates a novel
distance loss function, minimizing the gap between hidden layers in clean and
adversarial images. Experiments demonstrate satisfactory performance in
improving the model's robustness against adversarial perturbations.
- Abstract(参考訳): 屋内ロボットナビゲーションにおける取り組みは、RGB画像の自由空間を特定するためのセグメンテーションモデルの精度に依存する。
しかし、ディープラーニングモデルは敵の攻撃に対して脆弱であり、現実のデプロイメントにとって大きな課題となる。
本研究では,ニューラルネットワークの隠蔽層内の脆弱性を特定し,従来の対人訓練を強化するための実践的アプローチを提案する。
本手法では,新しい距離損失関数を導入し,クリーン画像と逆画像の隠れ層間のギャップを最小化する。
実験は、敵の摂動に対するモデルの堅牢性を改善するのに十分な性能を示す。
関連論文リスト
- Protecting Feed-Forward Networks from Adversarial Attacks Using Predictive Coding [0.20718016474717196]
逆の例は、機械学習(ML)モデルが誤りを犯すように設計された、修正された入力イメージである。
本研究では,敵防衛のための補助的なステップとして,予測符号化ネットワーク(PCnet)を用いた実用的で効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-10-31T21:38:05Z) - Revisiting Min-Max Optimization Problem in Adversarial Training [0.0]
現実世界のコンピュータビジョンアプリケーションは、ディープニューラルネットワークのセキュリティを危険にさらす。
最近の研究では、畳み込みニューラルネットワークは敵の例に影響を受けやすいことが示されている。
敵攻撃に対する堅牢なディープニューラルネットワークを構築するための新しい手法を提案する。
論文 参考訳(メタデータ) (2024-08-20T22:31:19Z) - Towards Improving Robustness Against Common Corruptions in Object
Detectors Using Adversarial Contrastive Learning [10.27974860479791]
本稿では, ニューラルネットワークの強靭性向上と, 対人攻撃と共通汚職の同時防止を目的とした, 革新的な対人的コントラスト学習フレームワークを提案する。
対戦型および実世界の条件下での性能向上に焦点を合わせることで、安全クリティカルなアプリケーションにおけるニューラルネットワークの堅牢性を高めることを目的としている。
論文 参考訳(メタデータ) (2023-11-14T06:13:52Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z) - On the Real-World Adversarial Robustness of Real-Time Semantic
Segmentation Models for Autonomous Driving [59.33715889581687]
現実世界の敵対的な例(通常はパッチの形で)の存在は、安全クリティカルなコンピュータビジョンタスクにおけるディープラーニングモデルの使用に深刻な脅威をもたらす。
本稿では,異なる種類の対立パッチを攻撃した場合のセマンティックセグメンテーションモデルのロバスト性を評価する。
画素の誤分類を誘導する攻撃者の能力を改善するために, 新たな損失関数を提案する。
論文 参考訳(メタデータ) (2022-01-05T22:33:43Z) - Combating Adversaries with Anti-Adversaries [118.70141983415445]
特に、我々の層は、逆の層とは反対の方向に入力摂動を生成します。
我々は,我々の階層と名目および頑健に訓練されたモデルを組み合わせることで,我々のアプローチの有効性を検証する。
我々の対向層は、クリーンな精度でコストを伴わずにモデルロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2021-03-26T09:36:59Z) - Social NCE: Contrastive Learning of Socially-aware Motion
Representations [87.82126838588279]
実験結果から, 提案手法は最近の軌道予測, 行動クローニング, 強化学習アルゴリズムの衝突速度を劇的に低減することがわかった。
本手法は,ニューラルネットワークの設計に関する仮定をほとんど示さないため,神経運動モデルのロバスト性を促進する汎用的手法として使用できる。
論文 参考訳(メタデータ) (2020-12-21T22:25:06Z) - Stylized Adversarial Defense [105.88250594033053]
逆行訓練は摂動パターンを生成し、モデルを堅牢化するためのトレーニングセットにそれらを含む。
我々は、より強力な敵を作るために、機能空間から追加情報を活用することを提案する。
我々の対人訓練アプローチは、最先端の防御と比べて強い堅牢性を示している。
論文 参考訳(メタデータ) (2020-07-29T08:38:10Z) - Learn2Perturb: an End-to-end Feature Perturbation Learning to Improve
Adversarial Robustness [79.47619798416194]
Learn2Perturbは、ディープニューラルネットワークの対角的堅牢性を改善するために、エンドツーエンドの機能摂動学習アプローチである。
予測最大化にインスパイアされ、ネットワークと雑音パラメータを連続的にトレーニングするために、交互にバックプロパゲーショントレーニングアルゴリズムが導入された。
論文 参考訳(メタデータ) (2020-03-02T18:27:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。