論文の概要: The Effect of Hop-count Modification Attack on Random Walk-based SLP Schemes Developed forWSNs: a Study
- arxiv url: http://arxiv.org/abs/2502.20902v1
- Date: Fri, 28 Feb 2025 10:01:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-03 13:40:10.150877
- Title: The Effect of Hop-count Modification Attack on Random Walk-based SLP Schemes Developed forWSNs: a Study
- Title(参考訳): WSN向けに開発されたランダムウォークに基づくSLPスキームに対するホップ数修正攻撃の効果に関する研究
- Authors: Manjula Rajaa, Anirban Ghoshb, Chukkapalli Praveen Kumarc, Suleiman Samba, C N Shariff,
- Abstract要約: 我々は,アクティブアタックとパッシブアタックの両方からなる新しいハイブリッドアタックモデルを提案することによって,アクティブアタックの影響を理解することを試みる。
プライバシ指標のアルゴリズムの性能は、純粋な受動的攻撃や様々な強度のハイブリッド攻撃の場合と比較される。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Source location privacy (SLP) has been of great concern in WSNs when deployed for habitat monitoring applications. The issue is taken care of by employing privacy-preserving routing schemes. In the existing works, the attacker is assumed to be passive in nature and backtracks to the source of information by eavesdropping the message signals. In this work, we try to understand the impact of active attacks by proposing a new hybrid attack model consisting of both active and passive attacks. The proposed model is then applied to three existing TTL-based random walk SLP solutions: phantom routing scheme (PRS), source location privacy using randomized routes (SLP-R), and position-independent section-based scheme (PSSLP). The performance of the algorithms in terms of privacy metrics is compared in the case of pure passive attack and hybrid attack of varying intensity. The results indicate a significant degradation in the privacy protection performance of the reference algorithms in the face of the proposed hybrid attack model indicating the importance and relevance of such attacks. It is further observed that the hybrid attack can be optimized to increase the vulnerability of the existing solutions.
- Abstract(参考訳): ソース位置プライバシ(SLP)は、生息環境監視アプリケーションにデプロイされた場合、WSNにおいて大きな関心事となっている。
この問題は、プライバシ保護ルーティングスキームを採用することで対処される。
既存の作業では、攻撃者は本質的に受動的であり、メッセージ信号を盗聴することで情報ソースにバックトラックする。
本研究では,アクティブアタックとパッシブアタックの両方からなる新しいハイブリッドアタックモデルを提案することで,アクティブアタックの影響を理解することを試みる。
提案手法は,既存のTLLベースのランダムウォークSLPソリューションであるファントムルーティングスキーム(PRS),ランダム化ルート(SLP-R)を用いたソース位置のプライバシ,位置独立セクションベーススキーム(PSSLP)の3つに適用される。
プライバシ指標のアルゴリズムの性能は、純粋な受動的攻撃や様々な強度のハイブリッド攻撃の場合と比較される。
その結果,これらの攻撃の重要性と妥当性を示すハイブリッド攻撃モデルを用いて,参照アルゴリズムのプライバシ保護性能が著しく低下していることが示唆された。
さらに、ハイブリッド攻撃が既存のソリューションの脆弱性を増やすために最適化できることが観察された。
関連論文リスト
- Transferable Adversarial Attacks on SAM and Its Downstream Models [87.23908485521439]
本稿では,セグメント・アプライス・モデル(SAM)から微調整した様々な下流モデルに対する敵攻撃の可能性について検討する。
未知のデータセットを微調整したモデルに対する敵攻撃の有効性を高めるために,ユニバーサルメタ初期化(UMI)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-26T15:04:04Z) - Bayes-Nash Generative Privacy Against Membership Inference Attacks [24.330984323956173]
メンバーシップ推論攻撃(MIA)は、個人のデータがデータセットにあるかどうかを判断することで、重大なプライバシーリスクを露呈する。
本研究では,MIAのプライバシ保護をディフェンダーとアタッカー間のベイズゲームとしてモデル化するゲーム理論フレームワークを提案する。
そこで我々は,ベイズ・ナッシュ生成プライバシ(BNGP)を得たディフェンダーのデータ共有ポリシーを呼んだ。
論文 参考訳(メタデータ) (2024-10-09T20:29:04Z) - IBD-PSC: Input-level Backdoor Detection via Parameter-oriented Scaling Consistency [20.61046457594186]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
本稿では、悪意のあるテスト画像のフィルタリングを行うための、シンプルで効果的な入力レベルのバックドア検出(IBD-PSCと呼ばれる)を提案する。
論文 参考訳(メタデータ) (2024-05-16T03:19:52Z) - Privacy-Preserving Distributed Learning for Residential Short-Term Load
Forecasting [11.185176107646956]
電力システムの負荷データは、住宅ユーザの日常のルーチンを不注意に明らかにし、彼らの財産のセキュリティにリスクを及ぼす可能性がある。
我々はマルコフスイッチ方式の分散学習フレームワークを導入し、その収束は厳密な理論的解析によって実証される。
実世界の電力系統負荷データを用いたケーススタディにより,提案アルゴリズムの有効性を検証した。
論文 参考訳(メタデータ) (2024-02-02T16:39:08Z) - Transferable Attack for Semantic Segmentation [59.17710830038692]
敵が攻撃し、ソースモデルから生成された敵の例がターゲットモデルを攻撃するのに失敗するのを観察します。
本研究では, セマンティックセグメンテーションのためのアンサンブルアタックを提案する。
論文 参考訳(メタデータ) (2023-07-31T11:05:55Z) - Adversarial Attacks Neutralization via Data Set Randomization [3.655021726150369]
ディープラーニングモデルに対する敵対的な攻撃は、信頼性とセキュリティに深刻な脅威をもたらす。
本稿では,超空間射影に根ざした新しい防御機構を提案する。
提案手法は,敵対的攻撃に対するディープラーニングモデルの堅牢性を高めていることを示す。
論文 参考訳(メタデータ) (2023-06-21T10:17:55Z) - Privacy Inference-Empowered Stealthy Backdoor Attack on Federated
Learning under Non-IID Scenarios [7.161511745025332]
フェデレートラーニング(FL)は、現実のシナリオにおけるデータ不均一性の問題に自然に直面する。
本稿では,非IIDシナリオ下でのFLのプライバシ推論を利用したステルスなバックドア攻撃手法を提案する。
MNIST, CIFAR10, Youtube Aligned Faceデータセットをベースとした実験により, PI-SBA方式は非IIDFLやステルスに有効であることが示された。
論文 参考訳(メタデータ) (2023-06-13T11:08:30Z) - MAPS: A Noise-Robust Progressive Learning Approach for Source-Free
Domain Adaptive Keypoint Detection [76.97324120775475]
クロスドメインキーポイント検出方法は、常に適応中にソースデータにアクセスする必要がある。
本稿では、ターゲット領域に十分に訓練されたソースモデルのみを提供する、ソースフリーなドメイン適応キーポイント検出について考察する。
論文 参考訳(メタデータ) (2023-02-09T12:06:08Z) - Ada3Diff: Defending against 3D Adversarial Point Clouds via Adaptive
Diffusion [70.60038549155485]
ディープ3Dポイントクラウドモデルは敵攻撃に敏感であり、自律運転のような安全クリティカルなアプリケーションに脅威をもたらす。
本稿では,適応強度推定器と拡散モデルを用いて,プリスタンデータ分布を再構築できる新しい歪み認識型防衛フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-29T14:32:43Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。