論文の概要: Privacy-Preserving Hybrid Ensemble Model for Network Anomaly Detection: Balancing Security and Data Protection
- arxiv url: http://arxiv.org/abs/2502.09001v1
- Date: Thu, 13 Feb 2025 06:33:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-14 13:47:42.861082
- Title: Privacy-Preserving Hybrid Ensemble Model for Network Anomaly Detection: Balancing Security and Data Protection
- Title(参考訳): ネットワーク異常検出のためのプライバシ保護ハイブリッドアンサンブルモデル:セキュリティとデータ保護のバランス
- Authors: Shaobo Liu, Zihao Zhao, Weijie He, Jiren Wang, Jing Peng, Haoyuan Ma,
- Abstract要約: 本稿では,検出精度とデータ保護の両方に対処するために,プライバシー保護技術を組み込んだハイブリッドアンサンブルモデルを提案する。
我々のモデルは、K-Nearest Neighbors(KNN)、SVM(Support Vector Machines)、XGBoost(XGBoost)、Artificial Neural Networks(ANN)など、いくつかの機械学習アルゴリズムの長所を組み合わせる。
- 参考スコア(独自算出の注目度): 6.5920909061458355
- License:
- Abstract: Privacy-preserving network anomaly detection has become an essential area of research due to growing concerns over the protection of sensitive data. Traditional anomaly de- tection models often prioritize accuracy while neglecting the critical aspect of privacy. In this work, we propose a hybrid ensemble model that incorporates privacy-preserving techniques to address both detection accuracy and data protection. Our model combines the strengths of several machine learning algo- rithms, including K-Nearest Neighbors (KNN), Support Vector Machines (SVM), XGBoost, and Artificial Neural Networks (ANN), to create a robust system capable of identifying network anomalies while ensuring privacy. The proposed approach in- tegrates advanced preprocessing techniques that enhance data quality and address the challenges of small sample sizes and imbalanced datasets. By embedding privacy measures into the model design, our solution offers a significant advancement over existing methods, ensuring both enhanced detection performance and strong privacy safeguards.
- Abstract(参考訳): プライバシー保護ネットワークの異常検出は、機密データの保護に対する懸念が高まり、研究の不可欠な領域となっている。
従来の異常・デ・テクションモデルでは、プライバシの重要な側面を無視しながら精度を優先することが多い。
本研究では,検出精度とデータ保護の両方に対処するために,プライバシ保護技術を組み込んだハイブリッドアンサンブルモデルを提案する。
我々のモデルは、K-Nearest Neighbors(KNN)、SVM(Support Vector Machines)、XGBoost(XGBoost)、Artificial Neural Networks(ANN)など、いくつかの機械学習アルゴリズムの長所を組み合わせて、プライバシーを確保しながらネットワーク異常を識別できる堅牢なシステムを構築する。
提案手法は,データ品質を向上し,小さなサンプルサイズと不均衡なデータセットの課題に対処する,高度な前処理技術である。
プライバシ対策をモデル設計に組み込むことで,既存の手法を大幅に進歩させ,検出性能の向上と強力なプライバシ保護を実現する。
関連論文リスト
- Information Sifting Funnel: Privacy-preserving Collaborative Inference Against Model Inversion Attacks [9.092229145160763]
ニューラルネットワークと推論タスクの複雑さは、リソース制約されたエッジデバイスに重大な課題をもたらす。
コラボレーション推論は、エッジデバイスに浅い特徴抽出を割り当て、さらなる推論のために機能をクラウドにオフロードすることで、これを緩和する。
協調推論のためのプライバシー保護フレームワークSiftFunnelを提案する。
論文 参考訳(メタデータ) (2025-01-01T13:00:01Z) - Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Collaborative Inference over Wireless Channels with Feature Differential Privacy [57.68286389879283]
複数の無線エッジデバイス間の協調推論は、人工知能(AI)アプリケーションを大幅に強化する可能性がある。
抽出された特徴を抽出することは、プロセス中に機密性の高い個人情報が暴露されるため、重大なプライバシーリスクをもたらす。
本稿では,ネットワーク内の各エッジデバイスが抽出された機能のプライバシを保護し,それらを中央サーバに送信して推論を行う,新たなプライバシ保存協調推論機構を提案する。
論文 参考訳(メタデータ) (2024-10-25T18:11:02Z) - KiNETGAN: Enabling Distributed Network Intrusion Detection through Knowledge-Infused Synthetic Data Generation [0.0]
合成ネットワーク活動データ(KiNETGAN)を生成するための知識注入型ジェネレーティブ・アドバイサル・ネットワークを提案する。
弊社のアプローチは、プライバシー問題に対処しながら、分散侵入検知のレジリエンスを高める。
論文 参考訳(メタデータ) (2024-05-26T08:02:02Z) - PAC Privacy Preserving Diffusion Models [6.299952353968428]
拡散モデルは、高いプライバシーと視覚的品質の両方で画像を生成することができる。
しかし、特定のデータ属性の民営化において堅牢な保護を確保するといった課題が発生する。
PACプライバシー保護拡散モデル(PAC Privacy Preserving Diffusion Model)を導入する。
論文 参考訳(メタデータ) (2023-12-02T18:42:52Z) - Shielding the Unseen: Privacy Protection through Poisoning NeRF with
Spatial Deformation [59.302770084115814]
本稿では,Neural Radiance Fields(NeRF)モデルの生成機能に対して,ユーザのプライバシを保護する革新的な手法を提案する。
我々の新しい中毒攻撃法は、人間の目では認識できないが、NeRFが正確に3Dシーンを再構築する能力を損なうのに十分強力である観察ビューの変化を誘発する。
我々は、高品質の画像を含む29の現実世界シーンからなる2つの共通のNeRFベンチマークデータセットに対して、我々のアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2023-10-04T19:35:56Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - TeD-SPAD: Temporal Distinctiveness for Self-supervised
Privacy-preservation for video Anomaly Detection [59.04634695294402]
人間の監視のないビデオ異常検出(VAD)は複雑なコンピュータビジョンタスクである。
VADのプライバシー漏洩により、モデルは人々の個人情報に関連する不必要なバイアスを拾い上げ、増幅することができる。
本稿では,視覚的プライベート情報を自己管理的に破壊する,プライバシーに配慮したビデオ異常検出フレームワークTeD-SPADを提案する。
論文 参考訳(メタデータ) (2023-08-21T22:42:55Z) - Federated Intrusion Detection for IoT with Heterogeneous Cohort Privacy [0.0]
IoT(Internet of Things)デバイスはますます普及し、医療や輸送といった多くのアプリケーションドメインに影響を与える。
本研究では,このようなIoTデバイスのネットワーク上での侵入攻撃を検出するために,差分プライベート(DP)ニューラルネットワーク(NN)ベースのネットワーク侵入検出システム(NIDS)を検討する。
このドメインの既存のNNトレーニングソリューションは、プライバシの考慮を無視したり、すべてのユーザのプライバシー要件が均一であると仮定する。
クライアントのプライバシ要件が不均一である場合,非IDデータ分布を持つクライアントに対して,既存の差分プライベートメソッドの性能が低下することを示す。
論文 参考訳(メタデータ) (2021-01-25T03:33:27Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。