論文の概要: SoK: Come Together -- Unifying Security, Information Theory, and Cognition for a Mixed Reality Deception Attack Ontology & Analysis Framework
- arxiv url: http://arxiv.org/abs/2502.09763v1
- Date: Thu, 13 Feb 2025 20:45:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-17 18:06:13.136048
- Title: SoK: Come Together -- Unifying Security, Information Theory, and Cognition for a Mixed Reality Deception Attack Ontology & Analysis Framework
- Title(参考訳): SoK:Mixed Reality Deception Attack Ontology & Analysis Frameworkのためのセキュリティ、情報理論、認知の統合
- Authors: Ali Teymourian, Andrew M. Webb, Taha Gharaibeh, Arushi Ghildiyal, Ibrahim Baggili,
- Abstract要約: 複合現実感(MR)における騙し攻撃のための一次攻撃オントロジーと分析フレームワークを提案する。
これは、多分野の知識体系化(SoK)によって実現され、MRセキュリティ、情報理論、認知の概念を統合している。
情報通信と意思決定にMR偽装攻撃が及ぼす影響を評価するための2つのモデルを導出する。
- 参考スコア(独自算出の注目度): 0.9320657506524149
- License:
- Abstract: We present a primary attack ontology and analysis framework for deception attacks in Mixed Reality (MR). This is achieved through multidisciplinary Systematization of Knowledge (SoK), integrating concepts from MR security, information theory, and cognition. While MR grows in popularity, it presents many cybersecurity challenges, particularly concerning deception attacks and their effects on humans. In this paper, we use the Borden-Kopp model of deception to develop a comprehensive ontology of MR deception attacks. Further, we derive two models to assess impact of MR deception attacks on information communication and decision-making. The first, an information-theoretic model, mathematically formalizes the effects of attacks on information communication. The second, a decision-making model, details the effects of attacks on interlaced cognitive processes. Using our ontology and models, we establish the MR Deception Analysis Framework (DAF) to assess the effects of MR deception attacks on information channels, perception, and attention. Our SoK uncovers five key findings for research and practice and identifies five research gaps to guide future work.
- Abstract(参考訳): 複合現実感(MR)における偽装攻撃のための主要な攻撃オントロジーと分析フレームワークを提案する。
これは、多分野の知識体系化(SoK)によって実現され、MRセキュリティ、情報理論、認知の概念を統合している。
MRは人気が高いが、特に詐欺攻撃や人間に対する影響に関して、多くのサイバーセキュリティ上の課題が提示されている。
本稿では,Borden-Koppモデルを用いて,MRシークレット攻撃の包括的オントロジーを開発する。
さらに,情報通信と意思決定におけるMR偽装攻撃の影響を評価するための2つのモデルを導出する。
1つ目は情報理論モデルで、攻撃が情報通信に与える影響を数学的に定式化する。
第二に、意思決定モデルでは、インターレースされた認知プロセスに対する攻撃の影響について詳述している。
本研究のオントロジーとモデルを用いて,情報チャネル,知覚,注意に対するMR偽装攻撃の効果を評価するためのMR deception Analysis Framework(DAF)を構築した。
SoKは、研究と実践の5つの重要な発見を明らかにし、将来の研究を導くための5つの研究ギャップを特定します。
関連論文リスト
- Topic-FlipRAG: Topic-Orientated Adversarial Opinion Manipulation Attacks to Retrieval-Augmented Generation Models [22.296368955665475]
本稿では,関連するクエリに対する意見に影響を及ぼすために,敵の摂動を利用する2段階の操作攻撃パイプラインを提案する。
実験により、提案した攻撃は特定のトピックに対するモデルの出力の意見を効果的にシフトさせることが示されている。
論文 参考訳(メタデータ) (2025-02-03T14:21:42Z) - Unveiling the Unseen: Exploring Whitebox Membership Inference through the Lens of Explainability [10.632831321114502]
提案手法は, 生データの最も影響力のある特徴を識別し, メンバーシップ推論攻撃を成功に導くための, 攻撃駆動型説明可能なフレームワークを提案する。
提案したMIAは,最先端MIAの最大26%の改善を示す。
論文 参考訳(メタデータ) (2024-07-01T14:07:46Z) - Investigating and unmasking feature-level vulnerabilities of CNNs to adversarial perturbations [3.4530027457862]
本研究では,畳み込みニューラルネットワーク(CNN)に対する対向摂動の影響について検討する。
本稿では,CNNの脆弱性を逆方向の摂動に対して調査するために,逆方向干渉フレームワークを導入する。
論文 参考訳(メタデータ) (2024-05-31T08:14:44Z) - Singular Regularization with Information Bottleneck Improves Model's
Adversarial Robustness [30.361227245739745]
敵対的な例は、ディープラーニングモデルに対する最も深刻な脅威の1つです。
本研究では,非構造雑音として,明確なパターンを持たない逆情報について検討する。
本稿では,敵対情報を正規化し,情報ボトルネック理論を組み合わせるための新しいモジュールを提案する。
論文 参考訳(メタデータ) (2023-12-04T09:07:30Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Black-box Adversarial Attacks against Dense Retrieval Models: A
Multi-view Contrastive Learning Method [115.29382166356478]
本稿では,敵探索攻撃(AREA)タスクを紹介する。
DRモデルは、DRモデルによって取得された候補文書の初期セットの外側にあるターゲット文書を取得するように、DRモデルを騙すことを目的としている。
NRM攻撃で報告された有望な結果は、DRモデルに一般化されない。
マルチビュー表現空間における対照的な学習問題として,DRモデルに対する攻撃を形式化する。
論文 参考訳(メタデータ) (2023-08-19T00:24:59Z) - Neural Causal Models for Counterfactual Identification and Estimation [62.30444687707919]
本稿では,ニューラルモデルによる反事実文の評価について検討する。
まず、神経因果モデル(NCM)が十分に表現可能であることを示す。
第2に,反事実分布の同時同定と推定を行うアルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-09-30T18:29:09Z) - Confounder Identification-free Causal Visual Feature Learning [84.28462256571822]
本稿では,創始者を特定する必要性を排除した,創始者同定自由因果視覚特徴学習(CICF)手法を提案する。
CICFは、フロントドア基準に基づいて異なるサンプル間の介入をモデル化し、インスタンスレベルの介入に対するグローバルスコープ干渉効果を近似する。
我々は,CICFと一般的なメタラーニング戦略MAMLの関係を明らかにするとともに,MAMLが理論的観点から機能する理由を解釈する。
論文 参考訳(メタデータ) (2021-11-26T10:57:47Z) - Towards Unbiased Visual Emotion Recognition via Causal Intervention [63.74095927462]
本稿では,データセットバイアスによる負の効果を軽減するために,新しい感情認識ネットワーク(IERN)を提案する。
IERNの有効性を検証する一連の設計されたテストと、3つの感情ベンチマークの実験は、IERNが他の最先端のアプローチよりも優れていることを示した。
論文 参考訳(メタデータ) (2021-07-26T10:40:59Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。