論文の概要: Cross-Service Threat Intelligence in LLM Services using Privacy-Preserving Fingerprints
- arxiv url: http://arxiv.org/abs/2509.05608v1
- Date: Sat, 06 Sep 2025 05:57:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.610191
- Title: Cross-Service Threat Intelligence in LLM Services using Privacy-Preserving Fingerprints
- Title(参考訳): プライバシ保護フィンガープリントを用いたLCMサービスにおけるクロスサービス脅威インテリジェンス
- Authors: Waris Gill, Natalie Isak, Matthew Dressman,
- Abstract要約: BinaryShieldは疑わしいプロンプトを、PIIの再作用、セマンティック埋め込み、バイナリ量子化、ランダム化応答機構を組み合わせたユニークなパイプラインを通じて変換する。
評価の結果,BinaryShieldのF1スコアは0.94であり,SimHashよりも優れていた。
- 参考スコア(独自算出の注目度): 1.6058099298620423
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The widespread deployment of LLMs across enterprise services has created a critical security blind spot. Organizations operate multiple LLM services handling billions of queries daily, yet regulatory compliance boundaries prevent these services from sharing threat intelligence about prompt injection attacks, the top security risk for LLMs. When an attack is detected in one service, the same threat may persist undetected in others for months, as privacy regulations prohibit sharing user prompts across compliance boundaries. We present BinaryShield, the first privacy-preserving threat intelligence system that enables secure sharing of attack fingerprints across compliance boundaries. BinaryShield transforms suspicious prompts through a unique pipeline combining PII redaction, semantic embedding, binary quantization, and randomized response mechanism to potentially generate non-invertible fingerprints that preserve attack patterns while providing privacy. Our evaluations demonstrate that BinaryShield achieves an F1-score of 0.94, significantly outperforming SimHash (0.77), the privacy-preserving baseline, while achieving 64x storage reduction and 38x faster similarity search compared to dense embeddings.
- Abstract(参考訳): エンタープライズサービスにまたがるLLMの広範な展開は、重要なセキュリティ盲点を生み出している。
組織は毎日数十億のクエリを処理する複数のLLMサービスを運用していますが、規制のコンプライアンス境界によって、LSMの最大のセキュリティリスクであるインジェクション攻撃に関する脅威情報を共有できないのです。
あるサービスで攻撃が検出された場合、同じ脅威が数ヶ月間他のサービスで検出されない可能性がある。
我々は、コンプライアンス境界を越えた攻撃指紋の安全な共有を可能にする、最初のプライバシ保護脅威情報システムであるBinaryShieldを紹介する。
BinaryShieldは、PIIのリアクション、セマンティック埋め込み、バイナリ量子化、ランダム化応答機構を組み合わせたユニークなパイプラインを通じて不審なプロンプトを変換し、プライバシを提供しながら攻撃パターンを保存する非可逆指紋を生成する。
評価の結果、BinaryShieldはF1スコア0.94を達成し、プライバシー保護ベースラインであるSimHash(0.77)を著しく上回り、64倍のストレージ削減と38倍の類似性検索を実現した。
関連論文リスト
- Searching for Privacy Risks in LLM Agents via Simulation [60.22650655805939]
本稿では、プライバシクリティカルなエージェントインタラクションをシミュレートすることで、攻撃者の改善とディフェンダーの指示を交互に行う検索ベースのフレームワークを提案する。
攻撃戦略は、単純な直接要求から、偽造や同意偽造といった高度な多ターン戦術へとエスカレートする。
発見された攻撃と防御は、さまざまなシナリオやバックボーンモデルにまたがって伝達され、プライバシーに配慮したエージェントを構築するための強力な実用性を示している。
論文 参考訳(メタデータ) (2025-08-14T17:49:09Z) - Seven Security Challenges That Must be Solved in Cross-domain Multi-agent LLM Systems [16.838103835766066]
大規模言語モデル(LLM)は、組織の境界を越えて協調する自律エージェントへと急速に進化している。
本稿では、クロスドメインマルチエージェントLLMシステムのセキュリティアジェンダをマッピングする。
論文 参考訳(メタデータ) (2025-05-28T18:19:03Z) - Deploying Privacy Guardrails for LLMs: A Comparative Analysis of Real-World Applications [3.1810537478232406]
OneShieldは、エンタープライズおよびオープンソース環境でのユーザ入力とLLM出力のプライバシーリスクを軽減するために設計されたフレームワークである。
企業規模のデータガバナンスに焦点をあてて、2つの実世界のデプロイメントを分析します。
OneShieldは26言語にわたるセンシティブなエンティティの検出で0.95 F1スコアを獲得し、最先端のツールを上回った。
論文 参考訳(メタデータ) (2025-01-21T19:04:53Z) - Global Challenge for Safe and Secure LLMs Track 1 [57.08717321907755]
LLM(Global Challenge for Safe and Secure Large Language Models)は、AI Singapore(AISG)とCyberSG R&D Programme Office(CRPO)が主催する先駆的イニシアチブである。
本稿では,AI Singapore(AISG)とCyberSG R&D Programme Office(CRPO)が組織した先駆的イニシアチブであるLLM(Global Challenge for Safe and Secure Large Language Models)を紹介する。
論文 参考訳(メタデータ) (2024-11-21T08:20:31Z) - LLM Safeguard is a Double-Edged Sword: Exploiting False Positives for Denial-of-Service Attacks [7.013820690538764]
本研究は,セーフガード手法のエンファルス陰性を利用した攻撃について検討する。
悪意のある攻撃者は、セキュリティ保護の偽陽性を悪用する可能性もあり、ユーザーに影響を与えるDoS(DoS)が否定された。
論文 参考訳(メタデータ) (2024-10-03T19:07:53Z) - Secure Aggregation is Not Private Against Membership Inference Attacks [66.59892736942953]
フェデレーション学習におけるSecAggのプライバシーへの影響について検討する。
SecAggは、単一のトレーニングラウンドであっても、メンバシップ推論攻撃に対して弱いプライバシを提供します。
以上の結果から,ノイズ注入などの付加的なプライバシー強化機構の必要性が浮き彫りになった。
論文 参考訳(メタデータ) (2024-03-26T15:07:58Z) - Benchmarking and Defending Against Indirect Prompt Injection Attacks on Large Language Models [79.0183835295533]
我々は,このような脆弱性のリスクを評価するために,BIPIAと呼ばれる間接的インジェクション攻撃のための最初のベンチマークを導入した。
我々の分析では、LLMが情報コンテキストと動作可能な命令を区別できないことと、外部コンテンツ内での命令の実行を回避できないことの2つの主要な要因を同定した。
ブラックボックスとホワイトボックスという2つの新しい防御機構と、これらの脆弱性に対処するための明確なリマインダーを提案する。
論文 参考訳(メタデータ) (2023-12-21T01:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。