論文の概要: Swarm Characteristic Classification using Robust Neural Networks with Optimized Controllable Inputs
- arxiv url: http://arxiv.org/abs/2502.03619v1
- Date: Wed, 05 Feb 2025 21:10:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-07 14:32:10.166940
- Title: Swarm Characteristic Classification using Robust Neural Networks with Optimized Controllable Inputs
- Title(参考訳): 最適制御可能な入力をもつロバストニューラルネットワークを用いた群分類
- Authors: Donald W. Peltier III, Isaac Kaminer, Abram Clark, Marko Orescanin,
- Abstract要約: 本稿では,ディフェンダーによってトレーニングされたNNを最適にデプロイするフレームワークを提案する。
強化されたデータセットでトレーニングされた堅牢なNNは、分類精度が向上し、運用の柔軟性がもたらされることを示す。
- 参考スコア(独自算出の注目度): 0.3749861135832073
- License:
- Abstract: Having the ability to infer characteristics of autonomous agents would profoundly revolutionize defense, security, and civil applications. Our previous work was the first to demonstrate that supervised neural network time series classification (NN TSC) could rapidly predict the tactics of swarming autonomous agents in military contexts, providing intelligence to inform counter-maneuvers. However, most autonomous interactions, especially military engagements, are fraught with uncertainty, raising questions about the practicality of using a pretrained classifier. This article addresses that challenge by leveraging expected operational variations to construct a richer dataset, resulting in a more robust NN with improved inference performance in scenarios characterized by significant uncertainties. Specifically, diverse datasets are created by simulating variations in defender numbers, defender motions, and measurement noise levels. Key findings indicate that robust NNs trained on an enriched dataset exhibit enhanced classification accuracy and offer operational flexibility, such as reducing resources required and offering adherence to trajectory constraints. Furthermore, we present a new framework for optimally deploying a trained NN by the defenders. The framework involves optimizing defender trajectories that elicit adversary responses that maximize the probability of correct NN tactic classification while also satisfying operational constraints imposed on the defenders.
- Abstract(参考訳): 自律的なエージェントの特徴を推測する能力を持つことは、防衛、セキュリティ、および民間の応用に大きく革命をもたらす。
我々の以前の研究は、教師付きニューラルネットワーク時系列分類(NN TSC)が、軍事的文脈で自律エージェントを群がらせる戦術を迅速に予測し、反マニアに情報を提供することを初めて実証した。
しかし、ほとんどの自律的相互作用、特に軍事的関与は不確実性に悩まされており、事前訓練された分類器の使用の実用性に関する疑問が提起されている。
本稿では、予測される運用変動を利用してよりリッチなデータセットを構築することによる課題に対処し、その結果、重要な不確実性を特徴とするシナリオにおける推論性能を改善した、より堅牢なNNを実現した。
具体的には、ディフェンダー数、ディフェンダー運動、測定ノイズレベルの変化をシミュレートすることで、多様なデータセットが生成される。
重要な発見は、強化されたデータセットでトレーニングされた堅牢なNNは、分類精度が向上し、必要なリソースの削減や軌道上の制約の遵守など、運用上の柔軟性を提供することを示している。
さらに,ディフェンダーによってトレーニングされたNNを最適にデプロイするための新しいフレームワークを提案する。
このフレームワークは、正しいNN戦術分類の確率を最大化する敵の反応を誘導するディフェンダー軌道の最適化と、ディフェンダーに課される運用上の制約を満たすことを含む。
関連論文リスト
- Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - Rapid Plug-in Defenders [17.553905911482655]
本稿では,Rapid Plug-in Defender(RaPiD)問題に焦点をあてる。
本稿では,RaPiDのためのCeTaD (Consideing Pre-trained Transformers as Defenders) という新しい手法を提案する。
評価の中心は,CeTaDの有効性,伝達性,および一発対向例を含むシナリオにおける異なるコンポーネントの影響を評価することである。
論文 参考訳(メタデータ) (2023-05-27T06:00:51Z) - Interpretable Self-Aware Neural Networks for Robust Trajectory
Prediction [50.79827516897913]
本稿では,意味概念間で不確実性を分散する軌道予測のための解釈可能なパラダイムを提案する。
実世界の自動運転データに対する我々のアプローチを検証し、最先端のベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-16T06:28:20Z) - Strength-Adaptive Adversarial Training [103.28849734224235]
対戦訓練(AT)は、敵データに対するネットワークの堅牢性を確実に改善することが証明されている。
所定の摂動予算を持つ現在のATは、堅牢なネットワークの学習に制限がある。
本稿では,これらの制限を克服するために,emphStrength-Adaptive Adversarial Training (SAAT)を提案する。
論文 参考訳(メタデータ) (2022-10-04T00:22:37Z) - Improved and Interpretable Defense to Transferred Adversarial Examples
by Jacobian Norm with Selective Input Gradient Regularization [31.516568778193157]
ディープニューラルネットワーク(DNN)の堅牢性を改善するために、AT(Adversarial Training)がよく用いられる。
本研究では,ジャコビアンノルムと選択的入力勾配正規化(J-SIGR)に基づくアプローチを提案する。
実験により、提案したJ-SIGRは、転送された敵攻撃に対するロバスト性を向上し、ニューラルネットワークからの予測が容易に解釈できることが示されている。
論文 参考訳(メタデータ) (2022-07-09T01:06:41Z) - Enhancing Adversarial Training with Feature Separability [52.39305978984573]
本稿では,特徴分離性を備えた対人訓練(ATFS)により,クラス内特徴の類似性を向上し,クラス間特徴分散を増大させることができる,新たな対人訓練グラフ(ATG)を提案する。
包括的な実験を通じて、提案したATFSフレームワークがクリーンかつロバストなパフォーマンスを著しく改善することを示した。
論文 参考訳(メタデータ) (2022-05-02T04:04:23Z) - Self-Ensemble Adversarial Training for Improved Robustness [14.244311026737666]
敵の訓練は、あらゆる種類の防衛方法において、様々な敵の攻撃に対する最強の戦略である。
最近の研究は主に新しい損失関数や正規化器の開発に重点を置いており、重み空間の特異な最適点を見つけようとしている。
我々は,歴史モデルの重みを平均化し,頑健な分類器を生成するための,単純だが強力なemphSelf-Ensemble Adversarial Training (SEAT)法を考案した。
論文 参考訳(メタデータ) (2022-03-18T01:12:18Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z) - Improving adversarial robustness of deep neural networks by using
semantic information [17.887586209038968]
対人訓練は、敵の堅牢性を改善するための主要な方法であり、対人攻撃に対する第一線である。
本稿では,ネットワーク全体から,あるクラスに対応する決定境界に近い領域の重要部分に焦点を移す,対向ロバスト性の問題に対する新たな視点を提供する。
MNISTとCIFAR-10データセットの実験的結果は、この手法がトレーニングデータから非常に小さなデータセットを使用しても、敵の堅牢性を大幅に向上することを示している。
論文 参考訳(メタデータ) (2020-08-18T10:23:57Z) - Optimizing Information Loss Towards Robust Neural Networks [0.0]
ニューラルネットワーク(NN)は、敵の例に対して脆弱である。
テクステントロピックリトレーニングと呼ばれる新しいトレーニング手法を提案する。
情報理論にインスパイアされた分析に基づいて、エントロピー的リトレーニングは敵の訓練の効果を模倣する。
論文 参考訳(メタデータ) (2020-08-07T10:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。