論文の概要: Self-Defense: Optimal QIF Solutions and Application to Website Fingerprinting
- arxiv url: http://arxiv.org/abs/2411.10059v1
- Date: Fri, 15 Nov 2024 09:22:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-18 15:36:51.582651
- Title: Self-Defense: Optimal QIF Solutions and Application to Website Fingerprinting
- Title(参考訳): Self-Defense: 最適なQIFソリューションとWebサイトフィンガープリントへの応用
- Authors: Andreas Athanasiou, Konstantinos Chatzikokolakis, Catuscia Palamidessi,
- Abstract要約: 量的情報フロー(QIF)は、情報漏洩を最小限に抑えたセキュアなシステムを設計するための堅牢な情報理論のフレームワークを提供する。
リークを最小限に抑えることを目的とした,未知の情報理論チャネルにおいて,新しい行を構築するための最適解を提案する。
我々は,サイト管理者が自身のサイトを変更できるが,他のサイトは変更できないシナリオを考慮して,ウェブサイトの指紋認証防衛の問題にアプローチを適用した。
- 参考スコア(独自算出の注目度): 8.227044921274494
- License:
- Abstract: Quantitative Information Flow (QIF) provides a robust information-theoretical framework for designing secure systems with minimal information leakage. While previous research has addressed the design of such systems under hard constraints (e.g. application limitations) and soft constraints (e.g. utility), scenarios often arise where the core system's behavior is considered fixed. In such cases, the challenge is to design a new component for the existing system that minimizes leakage without altering the original system. In this work we address this problem by proposing optimal solutions for constructing a new row, in a known and unmodifiable information-theoretic channel, aiming at minimizing the leakage. We first model two types of adversaries: an exact-guessing adversary, aiming to guess the secret in one try, and a s-distinguishing one, which tries to distinguish the secret s from all the other secrets.Then, we discuss design strategies for both fixed and unknown priors by offering, for each adversary, an optimal solution under linear constraints, using Linear Programming.We apply our approach to the problem of website fingerprinting defense, considering a scenario where a site administrator can modify their own site but not others. We experimentally evaluate our proposed solutions against other natural approaches. First, we sample real-world news websites and then, for both adversaries, we demonstrate that the proposed solutions are effective in achieving the least leakage. Finally, we simulate an actual attack by training an ML classifier for the s-distinguishing adversary and show that our approach decreases the accuracy of the attacker.
- Abstract(参考訳): 量的情報フロー(QIF)は、情報漏洩を最小限に抑えたセキュアなシステムを設計するための堅牢な情報理論のフレームワークを提供する。
従来の研究では、厳密な制約(アプリケーション制限など)とソフトな制約(ユーティリティなど)の下でそのようなシステムの設計に対処してきたが、コアシステムの振る舞いが固定されていると考えられるシナリオがしばしば発生している。
このような場合、元のシステムを変更することなくリークを最小限に抑える既存のシステムのための新しいコンポーネントを設計することが課題である。
本研究では,新しい行を構築するための最適解を,リークを最小限に抑えることを目的とした,未知の未知の情報理論チャネルで提案することで,この問題に対処する。
まず,各敵に対して,線形プログラミングを用いて,線形制約下での最適解を提供することにより,各サイト管理者が自身のサイトを変更できるが,他のサイトを変更できないシナリオを考慮し,その設計戦略を議論する。
提案手法を他の自然手法に対して実験的に評価した。
まず、実世界のニュースサイトをサンプルし、そして双方の敵に対して、提案手法が最小リークを達成するのに有効であることを実証する。
最後に、s-distinguishing敵に対するML分類器の訓練により実際の攻撃をシミュレートし、攻撃者の精度を低下させることを示す。
関連論文リスト
- Automated Phishing Detection Using URLs and Webpages [35.66275851732625]
LLMエージェントフレームワークの開発により,従来の参照型フィッシング検出の制約に対処する。
このエージェントは、Large Language Modelsを利用して、積極的にオンライン情報を取得し、活用する。
我々の手法は0.945の精度で達成され、既存の解(DynaPhish)を0.445で大幅に上回っている。
論文 参考訳(メタデータ) (2024-08-03T05:08:27Z) - PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - A Proactive Decoy Selection Scheme for Cyber Deception using MITRE ATT&CK [0.9831489366502301]
サイバー詐欺は、攻撃者の戦術、技術、手順(TTP)に対する守備隊の遅さを補うことができる。
本研究では,実世界の攻撃者の経験的観察に基づく敵モデルにより支援されたデコイ選択方式を設計する。
その結果,提案手法は最小のデコイを用いた攻撃経路のインターセプション率が最も高いことがわかった。
論文 参考訳(メタデータ) (2024-04-19T10:45:05Z) - Discriminative Adversarial Unlearning [40.30974185546541]
我々は、min-max最適化パラダイムの確立した原則に基づいて、新しい機械学習フレームワークを導入する。
我々は、訓練されたモデルから特定のサンプルの学習を容易にするために、強力なメンバーシップ推論攻撃(MIA)の能力を利用する。
提案アルゴリズムは,スクラッチから再学習する理想的なベンチマークを,ランダムサンプルの忘れ方とクラスワイドの忘れ方の両方に近似する。
論文 参考訳(メタデータ) (2024-02-10T03:04:57Z) - A Unified Framework for Adversarial Attack and Defense in Constrained
Feature Space [13.096022606256973]
本稿では、与えられたドメイン制約を満たす実行可能な逆例を生成するための統一的なフレームワークを提案する。
我々のフレームワークは、制約された敵攻撃の研究の出発点を形成し、研究が活用できる関連するベースラインとデータセットを提供します。
論文 参考訳(メタデータ) (2021-12-02T12:05:27Z) - Online Adversarial Attacks [57.448101834579624]
我々は、実世界のユースケースで見られる2つの重要な要素を強調し、オンライン敵攻撃問題を定式化する。
まず、オンライン脅威モデルの決定論的変種を厳格に分析する。
このアルゴリズムは、現在の最良の単一しきい値アルゴリズムよりも、$k=2$の競争率を確実に向上させる。
論文 参考訳(メタデータ) (2021-03-02T20:36:04Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z) - Topology-aware Differential Privacy for Decentralized Image
Classification [81.2202290003513]
Top-DPは、分散画像分類システムの差分プライバシー保護を最適化するための新しいソリューションである。
我々は、分散化された通信トポロジのユニークな特徴を活用し、ノイズスケールを小さくし、モデルのユーザビリティを向上させる。
論文 参考訳(メタデータ) (2020-06-14T06:42:21Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。