論文の概要: A LINDDUN-based Privacy Threat Modeling Framework for GenAI
- arxiv url: http://arxiv.org/abs/2603.06051v1
- Date: Fri, 06 Mar 2026 09:04:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 13:17:45.472784
- Title: A LINDDUN-based Privacy Threat Modeling Framework for GenAI
- Title(参考訳): LINDDUNベースのGenAIのためのプライバシ脅威モデリングフレームワーク
- Authors: Qianying Liao, Jonah Bellemans, Laurens Sion, Xue Jiang, Dmitrii Usynin, Xuebing Zhou, Dimitri Van Landuyt, Lieven Desmet, Wouter Joosen,
- Abstract要約: 我々は,GenAIベースのアプリケーションのプライバシ脅威分析を支援するために,ドメイン固有の新たなプライバシ脅威モデリングフレームワークを導入する。
新しいフレームワークは、LINDDUNの7つのプライバシ脅威タイプのうち3つに影響し、知識ベースに100の新しいGenAIサンプルを導入している。
その効果はAI Agentシステムで検証されており、新しいフレームワークによって包括的なプライバシー分析がサポート可能であることを実証している。
- 参考スコア(独自算出の注目度): 13.683645364910568
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As generative AI (GenAI) systems become increasingly prevalent across various technological stacks, the question of how such systems handle sensitive and personal data flows becomes increasingly important. Specifically, both the ability to harness and process large swaths of information as well as their stochastic nature raise key concerns related to both security and privacy. Unfortunately, while some of the traditional security threat modeling can effectively identify certain violations, privacy-related issues are often overlooked. To respond to these challenges, we introduce a novel domain-specific privacy threat modeling framework to support the privacy threat analysis of GenAI-based applications. This framework is constructed through a two-pronged approach: (1) a systematic review of the emerging literature on GenAI privacy threats, and (2) a case-driven application to a representative Chatbot system. These efforts yield a foundational GenAI privacy threat modeling framework built on LINDDUN. The new framework affects three out of the seven privacy threat types of LINDDUN and introduces 100 new GenAI examples to the knowledge base. Its effectiveness is validated on an AI Agent system, which demonstrates that a comprehensive privacy analysis can be supported by the new framework.
- Abstract(参考訳): 生成型AI(GenAI)システムがさまざまな技術スタックで普及するにつれて、このようなシステムが機密データや個人データフローをどのように扱うのかという問題はますます重要になってくる。
具体的には、大量の情報の活用と処理の能力と、その確率的な性質の両方が、セキュリティとプライバシの両方に関する重要な懸念を提起する。
残念ながら、従来のセキュリティ脅威モデリングのいくつかは、特定の違反を効果的に特定できるが、プライバシー関連の問題は見過ごされがちだ。
これらの課題に対応するために、我々はGenAIベースのアプリケーションのプライバシ脅威分析をサポートするために、ドメイン固有の新しいプライバシ脅威モデリングフレームワークを導入する。
この枠組みは,(1)GenAIプライバシの脅威に関する新興文献の体系的レビュー,(2)代表的チャットボットシステムへのケースドリブンな応用,という2つのアプローチによって構築される。
これらの取り組みにより、LINDDUN上に構築された基本的なGenAIプライバシー脅威モデリングフレームワークが得られる。
新しいフレームワークは、LINDDUNの7つのプライバシ脅威タイプのうち3つに影響し、知識ベースに100の新しいGenAIサンプルを導入している。
その効果はAI Agentシステムで検証されており、新しいフレームワークによって包括的なプライバシー分析がサポート可能であることを実証している。
関連論文リスト
- PriMod4AI: Lifecycle-Aware Privacy Threat Modeling for AI Systems using LLM [0.0]
PriMod4AIは、2つの構造化された知識ソース、確立された分類を表すLINDDUN知識ベース、およびLINDDUN外の脅威を捉えるモデル中心のプライバシ攻撃知識ベースを統一するハイブリッドプライバシ脅威モデリングアプローチである。
このフレームワークは、古典的およびAI駆動の視点を統合した、正当化された分類に基づく脅威評価を生成する。
論文 参考訳(メタデータ) (2026-02-04T08:58:19Z) - Generative AI for Biosciences: Emerging Threats and Roadmap to Biosecurity [56.331312963880215]
生物科学における生成人工知能(GenAI)は、バイオテクノロジー、医学、合成生物学を変革している。
この概要は、バイオサイエンスにおけるGenAIの現状と、脱獄攻撃やプライバシーリスクから、自律的なAIエージェントによって引き起こされるデュアルユースな課題まで、出現する脅威ベクターの概要を概説する。
我々は、厳格なデータフィルタリング、開発中の倫理原則との整合性、有害な要求をブロックするためのリアルタイム監視など、GenAIの安全性に対する多層的なアプローチを提唱する。
論文 参考訳(メタデータ) (2025-10-13T00:24:41Z) - Generative AI-Empowered Secure Communications in Space-Air-Ground Integrated Networks: A Survey and Tutorial [107.26005706569498]
宇宙航空地上統合ネットワーク(SAGIN)は、その特性上、前例のないセキュリティ上の課題に直面している。
Generative AI(GAI)は、データを合成し、セマンティクスを理解し、自律的な決定を行うことで、SAGINセキュリティを保護できる変革的アプローチである。
論文 参考訳(メタデータ) (2025-08-04T01:42:57Z) - An LLM-based Self-Evolving Security Framework for 6G Space-Air-Ground Integrated Networks [49.605335601285496]
6Gスペースエアグラウンド統合ネットワーク(SAGIN)は、様々なモバイルアプリケーションに対してユビキタスなカバレッジを提供する。
大規模言語モデル(LLM)に基づくSAGINの新しいセキュリティフレームワークを提案する。
当社のフレームワークは,さまざまな未知の攻撃に対して堅牢な,高精度なセキュリティ戦略を実現しています。
論文 参考訳(メタデータ) (2025-05-06T04:14:13Z) - Computational Safety for Generative AI: A Signal Processing Perspective [65.268245109828]
計算安全性は、GenAIにおける安全性の定量的評価、定式化、研究を可能にする数学的枠組みである。
ジェイルブレイクによる悪意のあるプロンプトを検出するために, 感度解析と損失景観解析がいかに有効かを示す。
我々は、AIの安全性における信号処理の鍵となる研究課題、機会、そして重要な役割について論じる。
論文 参考訳(メタデータ) (2025-02-18T02:26:50Z) - Security of and by Generative AI platforms [0.0]
このホワイトペーパーは、生成AI(genAI)プラットフォームを確保し、サイバーセキュリティにgenAIを活用することの2つの重要性を強調している。
genAI技術の普及に伴い、その誤用はデータ漏洩、モデル改ざん、悪意のあるコンテンツ生成など、重大なリスクをもたらす。
ホワイトペーパーでは、genAIシステムに関する堅牢なセキュリティフレームワークの戦略を探求するとともに、高度なサイバー脅威を予測、検出、緩和する組織にgenAIがどのように力を与えるかを説明している。
論文 参考訳(メタデータ) (2024-10-15T15:27:05Z) - Deepfakes, Misinformation, and Disinformation in the Era of Frontier AI, Generative AI, and Large AI Models [7.835719708227145]
ディープフェイクとm/disinformationの拡散は、世界中の情報エコシステムの整合性に対する恐ろしい脅威として現れている。
我々は,大規模モデル(LM-based GenAI)をベースとした生成AIの仕組みを強調した。
我々は、高度な検出アルゴリズム、クロスプラットフォームのコラボレーション、ポリシー駆動のイニシアチブを組み合わせた統合フレームワークを導入する。
論文 参考訳(メタデータ) (2023-11-29T06:47:58Z) - GenAIPABench: A Benchmark for Generative AI-based Privacy Assistants [1.2642388972233845]
本稿では、ジェネレーティブAIベースのプライバシアシスタント(GenAIPA)の評価ベンチマークであるGenAIPABenchを紹介する。
GenAIPABench には,1) プライバシポリシやデータ保護規則に関する一連の質問,2) さまざまな組織や規制に対する注釈付き回答,2) 応答の正確性,関連性,一貫性を評価するメトリクス,3) プライバシドキュメントの導入や,システムの堅牢性をテストするためのさまざまなプライバシ質問などを生成するためのプロンプトを生成するツールなどが含まれている。
我々は、GenAIPABenchを用いて、ChatGPT-4、Bard、Bing AIの3つの主要なGenAIシステムを評価し、その効果をGenAIPAとして評価した。
論文 参考訳(メタデータ) (2023-09-10T21:15:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。