論文の概要: Sharing FANCI Features: A Privacy Analysis of Feature Extraction for DGA
Detection
- arxiv url: http://arxiv.org/abs/2110.05849v1
- Date: Tue, 12 Oct 2021 09:32:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-13 15:37:27.734042
- Title: Sharing FANCI Features: A Privacy Analysis of Feature Extraction for DGA
Detection
- Title(参考訳): FANCI機能共有:DGA検出のための特徴抽出のプライバシ分析
- Authors: Benedikt Holmes, Arthur Drichel, Ulrike Meyer
- Abstract要約: 特徴量に基づくDGA検出器FANCIの機能抽出器のプライバシ能力を測定することを目的としている。
攻撃の成功は、FANCIの機能表現を共有するためにプライバシー上の脅威となるが、その逆は、プライバシの懸念なしに、この表現を共有できるようにする。
- 参考スコア(独自算出の注目度): 0.6767885381740952
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The goal of Domain Generation Algorithm (DGA) detection is to recognize
infections with bot malware and is often done with help of Machine Learning
approaches that classify non-resolving Domain Name System (DNS) traffic and are
trained on possibly sensitive data. In parallel, the rise of privacy research
in the Machine Learning world leads to privacy-preserving measures that are
tightly coupled with a deep learning model's architecture or training routine,
while non deep learning approaches are commonly better suited for the
application of privacy-enhancing methods outside the actual classification
module. In this work, we aim to measure the privacy capability of the feature
extractor of feature-based DGA detector FANCI (Feature-based Automated Nxdomain
Classification and Intelligence). Our goal is to assess whether a data-rich
adversary can learn an inverse mapping of FANCI's feature extractor and thereby
reconstruct domain names from feature vectors. Attack success would pose a
privacy threat to sharing FANCI's feature representation, while the opposite
would enable this representation to be shared without privacy concerns. Using
three real-world data sets, we train a recurrent Machine Learning model on the
reconstruction task. Our approaches result in poor reconstruction performance
and we attempt to back our findings with a mathematical review of the feature
extraction process. We thus reckon that sharing FANCI's feature representation
does not constitute a considerable privacy leakage.
- Abstract(参考訳): ドメイン生成アルゴリズム(DGA)検出の目標は、ボットマルウェアによる感染を認識し、非解決型ドメイン名システム(DNS)トラフィックを分類し、潜在的に機密性の高いデータに基づいてトレーニングされる機械学習アプローチの助けを借りることである。
それと並行して、マシンラーニングの世界におけるプライバシ研究の台頭は、ディープラーニングモデルのアーキテクチャやトレーニングルーチンと密に結合した、プライバシ保護対策に繋がる一方で、非ディープラーニングアプローチは、実際の分類モジュール以外のプライバシ向上手法の適用に一般的に適している。
本研究では,機能ベースDGA検出器FANCI(Feature-based Automated Nx domain Classification and Intelligence)の機能抽出器のプライバシ能力を測定することを目的とする。
我々の目標は、データ豊富な敵がFANCIの特徴抽出器の逆写像を学習し、特徴ベクトルからドメイン名を再構築できるかどうかを評価することである。
攻撃の成功は、FANCIの機能表現を共有するためにプライバシー上の脅威となるが、その逆は、プライバシーの懸念なしにこの表現を共有できるようにする。
実世界の3つのデータセットを用いて、再構成タスクで繰り返し機械学習モデルをトレーニングする。
提案手法は復元性能の低下を招き,特徴抽出過程を数学的に検討して結果の裏付けを試みている。
したがって、FANCIの機能表現を共有することは、かなりのプライバシー漏洩にはならない。
関連論文リスト
- Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - Deep Variational Privacy Funnel: General Modeling with Applications in
Face Recognition [3.351714665243138]
エンド・ツー・エンド・トレーニング・フレームワークを用いたプライバシー保護表現学習手法を開発した。
我々はこのモデルを最先端の顔認識システムに適用する。
論文 参考訳(メタデータ) (2024-01-26T11:32:53Z) - Privacy Side Channels in Machine Learning Systems [87.53240071195168]
プライバシサイドチャネルは、システムレベルのコンポーネントを利用してプライベート情報を抽出する攻撃である。
例えば、差分プライベートなトレーニングを適用する前にトレーニングデータを重複させることで、保証可能なプライバシ保証を完全に無効にするサイドチャネルが生成されることを示す。
さらに,学習データセットに含まれる秘密鍵を抽出するために,言語モデルを学習データ再生からブロックするシステムを利用することを示す。
論文 参考訳(メタデータ) (2023-09-11T16:49:05Z) - TeD-SPAD: Temporal Distinctiveness for Self-supervised
Privacy-preservation for video Anomaly Detection [59.04634695294402]
人間の監視のないビデオ異常検出(VAD)は複雑なコンピュータビジョンタスクである。
VADのプライバシー漏洩により、モデルは人々の個人情報に関連する不必要なバイアスを拾い上げ、増幅することができる。
本稿では,視覚的プライベート情報を自己管理的に破壊する,プライバシーに配慮したビデオ異常検出フレームワークTeD-SPADを提案する。
論文 参考訳(メタデータ) (2023-08-21T22:42:55Z) - Your Room is not Private: Gradient Inversion Attack on Reinforcement
Learning [47.96266341738642]
プライバシーは、ロボットが実質的な個人情報にアクセスすることによって、具体化されたAIの領域における重要な関心事として浮上する。
本稿では, 状態, 行動, 監視信号の再構成に勾配インバージョンを利用する, 値ベースアルゴリズムと勾配ベースアルゴリズムに対する攻撃を提案する。
論文 参考訳(メタデータ) (2023-06-15T16:53:26Z) - Backdoor Attack Detection in Computer Vision by Applying Matrix
Factorization on the Weights of Deep Networks [6.44397009982949]
本稿では,事前訓練したDNNの重みから特徴を抽出するバックドア検出手法を提案する。
他の検出技術と比較して、これはトレーニングデータを必要としないなど、多くのメリットがある。
提案手法は, 競合するアルゴリズムよりも効率性が高く, より正確であり, 深層学習とAIの安全な適用を確実にするのに役立つ。
論文 参考訳(メタデータ) (2022-12-15T20:20:18Z) - PARTICUL: Part Identification with Confidence measure using Unsupervised
Learning [0.0]
PartICULは、きめ細かい認識に使われるデータセットから部分検出器を教師なしで学習するための新しいアルゴリズムである。
トレーニングセット内のすべての画像のマクロ類似性を利用して、事前訓練された畳み込みニューラルネットワークの特徴空間における繰り返しパターンをマイニングする。
我々の検出器は、その予測に対する信頼度を測りながら、物体の一部を一貫して強調することができることを示す。
論文 参考訳(メタデータ) (2022-06-27T13:44:49Z) - Feature Learning for Accelerometer based Gait Recognition [0.0]
オートエンコーダは、特徴学習能力に関して、差別的なエンドツーエンドモデルに非常に近い。
完全な畳み込みモデルは 訓練戦略に関係なく 優れた特徴表現を学べます
論文 参考訳(メタデータ) (2020-07-31T10:58:01Z) - AutoOD: Automated Outlier Detection via Curiosity-guided Search and
Self-imitation Learning [72.99415402575886]
外乱検出は重要なデータマイニングの課題であり、多くの実用的応用がある。
本稿では,最適なニューラルネットワークモデルを探すことを目的とした自動外乱検出フレームワークであるAutoODを提案する。
さまざまな実世界のベンチマークデータセットに対する実験結果から、AutoODが特定したディープモデルが最高のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2020-06-19T18:57:51Z) - TIPRDC: Task-Independent Privacy-Respecting Data Crowdsourcing Framework
for Deep Learning with Anonymized Intermediate Representations [49.20701800683092]
本稿では,匿名化中間表現を用いたタスク非依存型プライバシ参照データクラウドソーシングフレームワークTIPRDCを提案する。
このフレームワークの目的は、中間表現からプライバシー情報を隠蔽できる機能抽出器を学習することであり、データコレクターの生データに埋め込まれた元の情報を最大限に保持し、未知の学習タスクを達成することである。
論文 参考訳(メタデータ) (2020-05-23T06:21:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。