論文の概要: PriMod4AI: Lifecycle-Aware Privacy Threat Modeling for AI Systems using LLM
- arxiv url: http://arxiv.org/abs/2602.04927v1
- Date: Wed, 04 Feb 2026 08:58:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:08.550158
- Title: PriMod4AI: Lifecycle-Aware Privacy Threat Modeling for AI Systems using LLM
- Title(参考訳): PriMod4AI: LLMを用いたAIシステムのためのライフサイクル対応プライバシ脅威モデリング
- Authors: Gautam Savaliya, Robert Aufschläger, Abhishek Subedi, Michael Heigl, Martin Schramm,
- Abstract要約: PriMod4AIは、2つの構造化された知識ソース、確立された分類を表すLINDDUN知識ベース、およびLINDDUN外の脅威を捉えるモデル中心のプライバシ攻撃知識ベースを統一するハイブリッドプライバシ脅威モデリングアプローチである。
このフレームワークは、古典的およびAI駆動の視点を統合した、正当化された分類に基づく脅威評価を生成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial intelligence systems introduce complex privacy risks throughout their lifecycle, especially when processing sensitive or high-dimensional data. Beyond the seven traditional privacy threat categories defined by the LINDDUN framework, AI systems are also exposed to model-centric privacy attacks such as membership inference and model inversion, which LINDDUN does not cover. To address both classical LINDDUN threats and additional AI-driven privacy attacks, PriMod4AI introduces a hybrid privacy threat modeling approach that unifies two structured knowledge sources, a LINDDUN knowledge base representing the established taxonomy, and a model-centric privacy attack knowledge base capturing threats outside LINDDUN. These knowledge bases are embedded into a vector database for semantic retrieval and combined with system level metadata derived from Data Flow Diagram. PriMod4AI uses retrieval-augmented and Data Flow specific prompt generation to guide large language models (LLMs) in identifying, explaining, and categorizing privacy threats across lifecycle stages. The framework produces justified and taxonomy-grounded threat assessments that integrate both classical and AI-driven perspectives. Evaluation on two AI systems indicates that PriMod4AI provides broad coverage of classical privacy categories while additionally identifying model-centric privacy threats. The framework produces consistent, knowledge-grounded outputs across LLMs, as reflected in agreement scores in the observed range.
- Abstract(参考訳): 人工知能システムは、特に機密データや高次元データを処理する際に、ライフサイクルを通して複雑なプライバシーリスクをもたらす。
LINDDUNフレームワークで定義された7つの従来のプライバシ脅威カテゴリ以外にも、AIシステムは、メンバシップ推論やモデルインバージョンのようなモデル中心のプライバシ攻撃にさらされている。
古典的なLINDDUNの脅威とAI駆動のプライバシ攻撃に対処するため、PriMod4AIは、2つの構造化された知識ソース、確立された分類を表すLINDDUNの知識ベース、LINDDUNの外で脅威を捕捉するモデル中心のプライバシ攻撃の知識ベースを統一するハイブリッドプライバシ脅威モデリングアプローチを導入した。
これらの知識ベースは、セマンティック検索のためのベクトルデータベースに埋め込まれ、Data Flow Diagramから派生したシステムレベルのメタデータと組み合わせられる。
PriMod4AIは、検索強化とデータフロー固有のプロンプト生成を使用して、ライフサイクルステージにわたるプライバシー脅威を特定し、説明し、分類する大きな言語モデル(LLM)を誘導する。
このフレームワークは、古典的およびAI駆動の視点を統合した、正当化された分類に基づく脅威評価を生成する。
2つのAIシステムの評価は、PriMod4AIが古典的なプライバシカテゴリを広範囲にカバーし、モデル中心のプライバシ脅威を識別していることを示している。
このフレームワークは、観測範囲の合意スコアに反映されるように、LLM全体で一貫した知識基底出力を生成する。
関連論文リスト
- SoK: Privacy Risks and Mitigations in Retrieval-Augmented Generation Systems [53.51921540246166]
Retrieval-Augmented Generation (RAG)技術は広く普及している。
RAGには、Large Language Models(LLM)とドメイン固有の知識ベースとの結合が含まれる。
RAGの普及は、データのプライバシに関する懸念を引き起こしている。
論文 参考訳(メタデータ) (2026-01-07T14:50:41Z) - Large Language Model Sourcing: A Survey [84.63438376832471]
大規模言語モデル(LLM)は人工知能に革命をもたらし、目的的タスクのサポートから主観的な意思決定の強化へと移行した。
LLMのブラックボックスの性質と生成したコンテンツの人間的品質のため、幻覚、偏見、不公平さ、著作権侵害などの問題が重要になる。
本研究は,4つの相互関連次元を中心に整理されたLCMによるコンテンツの出所追跡について,系統的研究を行った。
論文 参考訳(メタデータ) (2025-10-11T10:52:30Z) - RAG Security and Privacy: Formalizing the Threat Model and Attack Surface [4.823988025629304]
Retrieval-Augmented Generation (RAG) は、大規模言語モデル(LLM)と外部文書検索を組み合わせて、より正確で基礎的な応答を生成する自然言語処理における新興のアプローチである。
既存の研究では、RAGがトレーニングデータ記憶や敵対的プロンプトを通じて機密情報を漏洩し、RAGシステムがこれらの脆弱性の多くを継承していることが示されている。
これらのリスクにもかかわらず、現在、RAGシステムの脅威状況を定義する公式なフレームワークは存在しない。
論文 参考訳(メタデータ) (2025-09-24T17:11:35Z) - Modeling interdependent privacy threats [0.30693357740321775]
我々は、既存の脅威モデリングアプローチは、相互依存のプライバシー脅威を露呈することに制限されていると論じる。
i)現在の脅威モデリングフレームワークにおけるIDP固有の課題と制限を特定し、(ii)IDPAを作成し、(iii)WeChatのケーススタディを通じてアプローチを検証する。
論文 参考訳(メタデータ) (2025-05-23T21:22:49Z) - Machine Unlearning Doesn't Do What You Think: Lessons for Generative AI Policy and Research [186.53450963176968]
「マシーン・アンラーニング」は、法的・道徳的な理由から問題となるAIモデルにおけるコンテンツの存在を緩和するための解決策である。
ML研究者や政策立案者がこれらの課題について厳格に考えるためのフレームワークを提供する。
論文 参考訳(メタデータ) (2024-12-09T20:18:43Z) - PILLAR: an AI-Powered Privacy Threat Modeling Tool [2.2366638308792735]
PILLARは、Large Language ModelsとLINDDUNフレームワークを統合して、プライバシ脅威モデリングの合理化と強化を行う新しいツールである。
PILLARは、DFDの生成、脅威の分類、リスクの優先順位付けなど、LINDDUNプロセスの重要な部分を自動化する。
論文 参考訳(メタデータ) (2024-10-11T12:13:03Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - Targeted Unlearning with Single Layer Unlearning Gradient [15.374381635334897]
機械学習手法は、訓練されたモデルからセンシティブまたは望ましくないコンテンツを除去することを目的としている。
対象情報を学習するための効率的な手法として,SLUG(Single Layer Unlearning Gradient Computing)を提案する。
論文 参考訳(メタデータ) (2024-07-16T15:52:36Z) - Improved Membership Inference Attacks Against Language Classification Models [0.0]
分類モデルに対するメンバシップ推論攻撃を実行するための新しいフレームワークを提案する。
本手法は,単一攻撃モデルやクラスラベル毎の攻撃モデルよりも精度が高いことを示す。
論文 参考訳(メタデータ) (2023-10-11T06:09:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。