論文の概要: A Data Quarantine Model to Secure Data in Edge Computing
- arxiv url: http://arxiv.org/abs/2111.07672v1
- Date: Mon, 15 Nov 2021 11:04:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-20 01:59:10.534643
- Title: A Data Quarantine Model to Secure Data in Edge Computing
- Title(参考訳): エッジコンピューティングにおけるデータ保護のためのデータクォータモデル
- Authors: Poornima Mahadevappa, Raja Kumar Murugesan
- Abstract要約: エッジコンピューティングは、レイテンシに敏感で通信集約的なアプリケーションのためのアジャイルデータ処理プラットフォームを提供する。
データ整合性攻撃は一貫性のないデータにつながり、エッジデータ分析を邪魔する可能性がある。
本稿では,侵入者隔離によるデータ完全性攻撃を緩和するデータ隔離モデルを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Edge computing provides an agile data processing platform for
latency-sensitive and communication-intensive applications through a
decentralized cloud and geographically distributed edge nodes. Gaining
centralized control over the edge nodes can be challenging due to security
issues and threats. Among several security issues, data integrity attacks can
lead to inconsistent data and intrude edge data analytics. Further
intensification of the attack makes it challenging to mitigate and identify the
root cause. Therefore, this paper proposes a new concept of data quarantine
model to mitigate data integrity attacks by quarantining intruders. The
efficient security solutions in cloud, ad-hoc networks, and computer systems
using quarantine have motivated adopting it in edge computing. The data
acquisition edge nodes identify the intruders and quarantine all the suspected
devices through dimensionality reduction. During quarantine, the proposed
concept builds the reputation scores to determine the falsely identified
legitimate devices and sanitize their affected data to regain data integrity.
As a preliminary investigation, this work identifies an appropriate machine
learning method, Linear Discriminant Analysis (LDA), for dimensionality
reduction. The LDA results in 72.83% quarantine accuracy and 0.9 seconds
training time, which is efficient than other state-of-the-art methods. In
future, this would be implemented and validated with ground truth data.
- Abstract(参考訳): エッジコンピューティングは、分散クラウドと地理的に分散したエッジノードを介して、レイテンシセンシティブで通信集約的なアプリケーションのためのアジャイルデータ処理プラットフォームを提供する。
エッジノードに対する集中管理の獲得は、セキュリティ上の問題と脅威のために難しい場合がある。
いくつかのセキュリティ問題の中で、データの整合性攻撃は一貫性のないデータにつながり、エッジデータ分析を邪魔する可能性がある。
攻撃のさらなる強化は、根本原因の緩和と特定を困難にしている。
そこで本稿では,侵入者隔離によるデータ完全性攻撃を軽減するためのデータ隔離モデルを提案する。
クラウド、アドホックネットワーク、および隔離を用いたコンピュータシステムの効率的なセキュリティソリューションは、エッジコンピューティングでそれを採用する動機となっている。
データ取得エッジノードは侵入者を識別し、次元の減少を通じて疑わしいすべてのデバイスを隔離する。
検疫中、提案された概念は評判スコアを構築し、誤った正当性を判断し、影響したデータを衛生してデータの完全性を取り戻す。
予備的な調査として,次元削減のための機械学習手法であるLDA(Linear Discriminant Analysis)を同定した。
LDAは72.83%の検疫精度と0.9秒の訓練時間を達成し、他の最先端の方法よりも効率的である。
将来、これは実装され、真理のデータで検証される。
関連論文リスト
- Complete Security and Privacy for AI Inference in Decentralized Systems [14.526663289437584]
大規模なモデルは病気の診断のようなタスクには不可欠ですが、繊細でスケーラビリティに欠ける傾向があります。
Nesaはこれらの課題を、複数のテクニックを使って包括的なフレームワークで解決し、データとモデル出力を保護する。
ネサの最先端の証明と原則は、このフレームワークの有効性を実証している。
論文 参考訳(メタデータ) (2024-07-28T05:09:17Z) - EdgeLeakage: Membership Information Leakage in Distributed Edge Intelligence Systems [7.825521416085229]
分散エッジノードは、処理されていないデータを集約し、低送信レイテンシとリアルタイムデータ処理能力を維持できるようにデータ分析を容易にする。
近年,これらのエッジノードは分散機械学習モデルの実装を容易にするために進化している。
エッジインテリジェンスの世界では、機械学習モデルに対する多数のセキュリティとプライバシの脅威に対する感受性が明らかになっている。
本稿では,分散エッジインテリジェンスシステムにおけるメンバシップ推論リークの問題に対処する。
論文 参考訳(メタデータ) (2024-03-08T09:28:39Z) - DAD++: Improved Data-free Test Time Adversarial Defense [12.606555446261668]
本稿では,検出・修正フレームワークを含むDAD(Data-free Adversarial Defense)を提案する。
提案手法の有効性を示すため,いくつかのデータセットとネットワークアーキテクチャについて幅広い実験と改善を行った。
私たちのDAD++は、クリーンな精度を最小限に抑えながら、様々な敵攻撃に対して印象的なパフォーマンスを提供します。
論文 参考訳(メタデータ) (2023-09-10T20:39:53Z) - Adversarial training with informed data selection [53.19381941131439]
アドリアリトレーニングは、これらの悪意のある攻撃からネットワークを守るための最も効率的なソリューションである。
本研究では,ミニバッチ学習に適用すべきデータ選択戦略を提案する。
シミュレーションの結果,ロバスト性および標準精度に関して良好な妥協が得られることがわかった。
論文 参考訳(メタデータ) (2023-01-07T12:09:50Z) - FedCC: Robust Federated Learning against Model Poisoning Attacks [0.0]
フェデレートラーニング(Federated Learning)は、学習モデルにおけるプライバシの問題に対処するように設計されている。
新しい分散パラダイムは、データのプライバシを保護するが、サーバがローカルデータセットにアクセスできないため、攻撃面を区別する。
論文 参考訳(メタデータ) (2022-12-05T01:52:32Z) - Try to Avoid Attacks: A Federated Data Sanitization Defense for
Healthcare IoMT Systems [4.024567343465081]
IoMTの分布は、データ中毒攻撃から保護されるリスクがある。
処方されたデータは、医療データを偽造することによって製造することができる。
本稿では,フェデレーテッドデータ衛生防衛(Federated Data Sanitization Defense)について紹介する。
論文 参考訳(メタデータ) (2022-11-03T05:21:39Z) - Black-box Dataset Ownership Verification via Backdoor Watermarking [67.69308278379957]
我々は、リリースデータセットの保護を、(目立たしい)サードパーティモデルのトレーニングに採用されているかどうかの検証として定式化する。
バックドアの透かしを通じて外部パターンを埋め込んでオーナシップの検証を行い,保護することを提案する。
具体的には、有毒なバックドア攻撃(例えばBadNets)をデータセットのウォーターマーキングに利用し、データセット検証のための仮説テストガイダンスメソッドを設計する。
論文 参考訳(メタデータ) (2022-08-04T05:32:20Z) - Autoregressive Perturbations for Data Poisoning [54.205200221427994]
ソーシャルメディアからのデータスクレイピングは、不正なデータの使用に関する懸念が高まっている。
データ中毒攻撃は、スクラップ対策として提案されている。
より広範なデータセットにアクセスせずに有毒なデータを生成できる自動回帰(AR)中毒を導入する。
論文 参考訳(メタデータ) (2022-06-08T06:24:51Z) - DAAIN: Detection of Anomalous and Adversarial Input using Normalizing
Flows [52.31831255787147]
我々は、アウト・オブ・ディストリビューション(OOD)インプットと敵攻撃(AA)を検出する新しい手法であるDAINを導入する。
本手法は,ニューラルネットワークの内部動作を監視し,活性化分布の密度推定器を学習する。
当社のモデルは,特別なアクセラレータを必要とせずに,効率的な計算とデプロイが可能な単一のGPUでトレーニングすることが可能です。
論文 参考訳(メタデータ) (2021-05-30T22:07:13Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z) - Bayesian Optimization with Machine Learning Algorithms Towards Anomaly
Detection [66.05992706105224]
本稿では,ベイズ最適化手法を用いた効果的な異常検出フレームワークを提案する。
ISCX 2012データセットを用いて検討したアルゴリズムの性能を評価する。
実験結果から, 精度, 精度, 低コストアラームレート, リコールの観点から, 提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-08-05T19:29:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。