論文の概要: An Experimental Study of Trojan Vulnerabilities in UAV Autonomous Landing
- arxiv url: http://arxiv.org/abs/2510.20932v1
- Date: Thu, 23 Oct 2025 18:47:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 09:00:15.297563
- Title: An Experimental Study of Trojan Vulnerabilities in UAV Autonomous Landing
- Title(参考訳): UAV自律着陸におけるトロイの木馬の脆弱性に関する実験的研究
- Authors: Reza Ahmari, Ahmad Mohammadi, Vahid Hemmati, Mohammed Mynuddin, Mahmoud Nabil Mahmoud, Parham Kebria, Abdollah Homaifar, Mehrdad Saif,
- Abstract要約: トロイの木馬攻撃はCNNのようなディープラーニングモデルをターゲットにしている。
実験では、清潔なデータの96.4%からトロイの木馬の攻撃によって引き起こされたデータの73.3%に相当な精度が低下した。
- 参考スコア(独自算出の注目度): 2.3118067675920755
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study investigates the vulnerabilities of autonomous navigation and landing systems in Urban Air Mobility (UAM) vehicles. Specifically, it focuses on Trojan attacks that target deep learning models, such as Convolutional Neural Networks (CNNs). Trojan attacks work by embedding covert triggers within a model's training data. These triggers cause specific failures under certain conditions, while the model continues to perform normally in other situations. We assessed the vulnerability of Urban Autonomous Aerial Vehicles (UAAVs) using the DroNet framework. Our experiments showed a significant drop in accuracy, from 96.4% on clean data to 73.3% on data triggered by Trojan attacks. To conduct this study, we collected a custom dataset and trained models to simulate real-world conditions. We also developed an evaluation framework designed to identify Trojan-infected models. This work demonstrates the potential security risks posed by Trojan attacks and lays the groundwork for future research on enhancing the resilience of UAM systems.
- Abstract(参考訳): 本研究では,UAM(Urban Air Mobility)車両における自律走行・着陸システムの脆弱性について検討した。
具体的には、畳み込みニューラルネットワーク(CNN)のようなディープラーニングモデルをターゲットにしたトロイの木馬攻撃に焦点を当てている。
トロイの木馬攻撃は、モデルのトレーニングデータに隠蔽トリガーを埋め込むことで動作する。
これらのトリガーは特定の条件下で特定の障害を引き起こすが、他の状況ではモデルが正常に動作し続ける。
我々はDroNetフレームワークを用いて都市自律航空車両(UAAV)の脆弱性を評価した。
実験では、クリーンデータの96.4%から、トロイの木馬攻撃によって引き起こされたデータ73.3%まで、精度が大幅に低下した。
本研究では,実環境をシミュレートするカスタムデータセットとモデルを構築した。
また、トロイの木馬感染モデルを特定するための評価フレームワークを開発した。
本研究は、トロイア攻撃による潜在的なセキュリティリスクを実証し、将来のUAMシステムのレジリエンス向上に向けた基礎研究を行う。
関連論文リスト
- Poison Once, Control Anywhere: Clean-Text Visual Backdoors in VLM-based Mobile Agents [54.35629963816521]
この研究は、VLMベースのモバイルエージェントをターゲットにした最初のクリーンテキストバックドアアタックであるVIBMAを紹介する。
この攻撃は、視覚的な入力だけを変更することによって、悪意ある振る舞いをモデルに注入する。
クリーンタスクの動作を保ちながら高い成功率を達成できることを示す。
論文 参考訳(メタデータ) (2025-06-16T08:09:32Z) - Mellivora Capensis: A Backdoor-Free Training Framework on the Poisoned Dataset without Auxiliary Data [39.07360350023601]
本稿では,現実シナリオにおけるバックドア攻撃対策の課題について述べる。
本稿では,モデルトレーナーが有毒なデータセット上でクリーンなモデルをトレーニングできるようにする,堅牢でクリーンなデータのないバックドア防御フレームワークであるMellivora Capensis(textttMeCa)を提案する。
論文 参考訳(メタデータ) (2024-05-21T12:20:19Z) - Model Stealing Attack against Recommender System [85.1927483219819]
いくつかの敵攻撃は、レコメンデーターシステムに対するモデル盗難攻撃を成し遂げた。
本稿では、利用可能なターゲットデータとクエリの量を制限し、対象データとセットされたアイテムを共有する補助データを活用して、モデル盗難攻撃を促進する。
論文 参考訳(メタデータ) (2023-12-18T05:28:02Z) - Adversarial defense for automatic speaker verification by cascaded
self-supervised learning models [101.42920161993455]
ますます悪意のある攻撃者は、自動話者検証(ASV)システムで敵攻撃を仕掛けようとする。
本稿では,逐次的自己教師付き学習モデルに基づく標準的かつ攻撃非依存な手法を提案する。
実験により, 本手法は効果的な防御性能を実現し, 敵攻撃に対抗できることを示した。
論文 参考訳(メタデータ) (2021-02-14T01:56:43Z) - TAD: Trigger Approximation based Black-box Trojan Detection for AI [16.741385045881113]
ディープニューラルネットワーク(DNN)は、医療診断や自律運転など、さまざまな分野において前例のないパフォーマンスを示している。
トリガーによって制御され、活性化されるトロイの木馬攻撃(NT)に対して脆弱である。
我々は、事前訓練されたAIモデルがトロイの木馬に配備される前に検査されたかどうかを検査するロバストなトロイの木馬検出手法を提案する。
論文 参考訳(メタデータ) (2021-02-03T00:49:50Z) - Practical Detection of Trojan Neural Networks: Data-Limited and
Data-Free Cases [87.69818690239627]
本稿では,データスカース方式におけるトロイの木馬ネットワーク(トロイの木馬網)検出の問題点について検討する。
本稿では,データ限定型TrojanNet検出器(TND)を提案する。
さらに,データサンプルにアクセスせずにTrojanNetを検出できるデータフリーTNDを提案する。
論文 参考訳(メタデータ) (2020-07-31T02:00:38Z) - Cassandra: Detecting Trojaned Networks from Adversarial Perturbations [92.43879594465422]
多くの場合、事前トレーニングされたモデルは、トロイの木馬の振る舞いをモデルに挿入するためにトレーニングパイプラインを中断したかもしれないベンダーから派生している。
本稿では,事前学習したモデルがトロイの木馬か良馬かを検証する手法を提案する。
本手法は,ニューラルネットワークの指紋を,ネットワーク勾配から学習した逆方向の摂動の形でキャプチャする。
論文 参考訳(メタデータ) (2020-07-28T19:00:40Z) - Odyssey: Creation, Analysis and Detection of Trojan Models [91.13959405645959]
トロイの木馬攻撃は、一部のトレーニングサンプルにトリガーを挿入してトレーニングパイプラインを妨害し、トリガーを含むサンプルに対してのみ悪意ある動作をするようにモデルを訓練する。
既存のトロイの木馬検出器はトリガーの種類や攻撃について強い仮定をしている。
そこで本研究では,トロヤニング過程の影響を受け,本質的特性の分析に基づく検出器を提案する。
論文 参考訳(メタデータ) (2020-07-16T06:55:00Z) - The TrojAI Software Framework: An OpenSource tool for Embedding Trojans
into Deep Learning Models [4.8986598953553555]
TrojAIは、トリガデータセットと関連するディープラーニングモデルを大規模に生成できる、Pythonツールのオープンソースセットである。
トリガーの性質,訓練バッチサイズ,データセット中毒率はいずれもトロイの木馬の埋め込みの成功に影響を及ぼすことを示す。
我々は、トロイの木馬MNISTモデルに対してニューラルクリーンスを試験し、トレーニングされたモデルの異常を約18%の時間で検出することに成功した。
論文 参考訳(メタデータ) (2020-03-13T01:45:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。