論文の概要: Vision-based Perimeter Defense via Multiview Pose Estimation
- arxiv url: http://arxiv.org/abs/2209.12136v1
- Date: Sun, 25 Sep 2022 03:41:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 17:36:26.772614
- Title: Vision-based Perimeter Defense via Multiview Pose Estimation
- Title(参考訳): マルチビューポーズ推定によるビジョンベース周辺防御
- Authors: Elijah S. Lee, Giuseppe Loianno, Dinesh Jayaraman, Vijay Kumar
- Abstract要約: 本研究では,写真実写シミュレータと実世界における周辺防御ゲームについて検討する。
我々は、ドメインランダム化を用いた侵入者ポーズ検出のためのディープラーニングベースのシステムを訓練する。
視覚に基づく周辺防御を評価するための性能指標を新たに導入する。
- 参考スコア(独自算出の注目度): 23.62649649982264
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Previous studies in the perimeter defense game have largely focused on the
fully observable setting where the true player states are known to all players.
However, this is unrealistic for practical implementation since defenders may
have to perceive the intruders and estimate their states. In this work, we
study the perimeter defense game in a photo-realistic simulator and the real
world, requiring defenders to estimate intruder states from vision. We train a
deep machine learning-based system for intruder pose detection with domain
randomization that aggregates multiple views to reduce state estimation errors
and adapt the defensive strategy to account for this. We newly introduce
performance metrics to evaluate the vision-based perimeter defense. Through
extensive experiments, we show that our approach improves state estimation, and
eventually, perimeter defense performance in both 1-defender-vs-1-intruder
games, and 2-defenders-vs-1-intruder games.
- Abstract(参考訳): 周辺防衛ゲームにおける以前の研究は、真のプレイヤー状態が全てのプレイヤーに知られる完全に観察可能な環境に主に焦点を合わせてきた。
しかし、攻撃者は侵入者を知覚し、その状態を見積もる必要があるため、実用的な実施には非現実的である。
本研究では,実世界とフォトリアリスティックシミュレータを用いて周囲防御ゲームについて検討し,ディフェンダーが視覚から侵入者状態を推定することを要求した。
我々は、複数のビューを集約して状態推定誤差を低減し、防御戦略を考慮に入れた、侵入者ポーズ検出のための深層機械学習ベースのシステムを訓練する。
視覚に基づく周辺防御を評価するための性能指標を新たに導入する。
広範な実験により,1-defender-vs-1-intruderゲームと2-defenders-vs-1-intruderゲームの両方における防御性能の向上が確認された。
関連論文リスト
- The VLLM Safety Paradox: Dual Ease in Jailbreak Attack and Defense [56.32083100401117]
本稿では,視覚大言語モデル (VLLM) がジェイルブレイク攻撃のリスクが高い理由を考察する。
既存の防御機構は、テキストバウンド・プルーデンスの問題に悩まされる。
ジェイルブレイクの2つの代表的な評価手法は、しばしばチャンス合意を示す。
論文 参考訳(メタデータ) (2024-11-13T07:57:19Z) - Hindering Adversarial Attacks with Multiple Encrypted Patch Embeddings [13.604830818397629]
効率性とロバスト性の両方に着目したキーベースの新たな防衛手法を提案する。
我々は,(1)効率的なトレーニングと(2)任意ランダム化という2つの大きな改善をともなう,以前の防衛基盤を構築した。
実験はImageNetデータセット上で行われ、提案された防御は最先端の攻撃兵器に対して評価された。
論文 参考訳(メタデータ) (2023-09-04T14:08:34Z) - Randomness in ML Defenses Helps Persistent Attackers and Hinders
Evaluators [49.52538232104449]
堅牢なMLディフェンスを設計することがますます重要になっている。
近年の研究では、当初最先端の攻撃に抵抗する多くの防衛は、適応的な敵によって破壊される可能性があることが判明している。
我々は、防御設計をシンプルにし、ホワイトボックスの防御は可能な限りランダム性を損なうべきだと論じる。
論文 参考訳(メタデータ) (2023-02-27T01:33:31Z) - Are Defenses for Graph Neural Networks Robust? [72.1389952286628]
グラフニューラルネットワーク(GNN)のディフェンスのほとんどは、未定義のベースラインに比べて、限界的な改善がまったく、あるいはのみであることを示す。
我々は、カスタムアダプティブアタックをゴールドスタンダードとして使用することを提唱し、そのようなアタックをうまく設計して学んだ教訓を概説する。
私たちの多彩な摂動グラフのコレクションは、モデルの堅牢性について一目でわかる(ブラックボックス)単体テストを形成します。
論文 参考訳(メタデータ) (2023-01-31T15:11:48Z) - Adversarial Classification of the Attacks on Smart Grids Using Game
Theory and Deep Learning [27.69899235394942]
本稿では,攻撃者によるパワー測定における変動を評価するためのゲーム理論的手法を提案する。
ゼロサムゲームは、攻撃者とディフェンダーの間の相互作用をモデル化するために使用される。
論文 参考訳(メタデータ) (2021-06-06T18:43:28Z) - Improving the Adversarial Robustness for Speaker Verification by Self-Supervised Learning [95.60856995067083]
この研究は、特定の攻撃アルゴリズムを知らずにASVの敵防衛を行う最初の試みの一つである。
本研究の目的は,1) 対向摂動浄化と2) 対向摂動検出の2つの視点から対向防御を行うことである。
実験の結果, 検出モジュールは, 約80%の精度で対向検体を検出することにより, ASVを効果的に遮蔽することがわかった。
論文 参考訳(メタデータ) (2021-06-01T07:10:54Z) - Game-Theoretic and Machine Learning-based Approaches for Defensive
Deception: A Survey [13.624968742674143]
本稿では,ゲーム理論と機械学習を中心とした防御的デセプション研究に焦点を当てる。
これは、現在の防衛詐欺研究の大きなギャップに取り組むためにいくつかの研究方向の概要で閉じます。
論文 参考訳(メタデータ) (2021-01-21T21:55:43Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Harnessing adversarial examples with a surprisingly simple defense [47.64219291655723]
敵の例に対抗して、非常に簡単な方法を紹介します。
基本的な考え方は、テスト時にReLU関数の傾きを上げることである。
MNISTとCIFAR-10データセットによる実験では、提案された防御の有効性が示されている。
論文 参考訳(メタデータ) (2020-04-26T03:09:42Z) - Certified Defenses for Adversarial Patches [72.65524549598126]
敵パッチ攻撃は、現実世界のコンピュータビジョンシステムに対する最も実用的な脅威モデルの一つである。
本稿では,パッチアタックに対する認証と実証的防御について検討する。
論文 参考訳(メタデータ) (2020-03-14T19:57:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。