論文の概要: Burn-After-Use for Preventing Data Leakage through a Secure Multi-Tenant Architecture in Enterprise LLM
- arxiv url: http://arxiv.org/abs/2601.06627v1
- Date: Sat, 10 Jan 2026 17:24:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.906313
- Title: Burn-After-Use for Preventing Data Leakage through a Secure Multi-Tenant Architecture in Enterprise LLM
- Title(参考訳): エンタープライズLLMにおけるセキュアなマルチテナントアーキテクチャによるデータ漏洩防止のためのバーン・アフタ・ユース
- Authors: Qiang Zhang, Elena Emma Wang, Jiaming Li, Xichun Wang,
- Abstract要約: 本研究は, 安全なマルチテナントアーキテクチャ (SMTA) と新しい概念であるバーン・アフター・ユース (BAU) を組み合わせたものである。
BAUは、使用後に自動的に破棄される短命な会話コンテキストを強制することによって、データの機密性を導入する。
その結果,SMTAとBAUが連携して厳密な隔離,セッションの短命性,強い機密性保証,非永続性,企業LLMの政策整合性などを実施できることが示唆された。
- 参考スコア(独自算出の注目度): 11.475329947433217
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study presents a Secure Multi-Tenant Architecture (SMTA) combined with a novel concept Burn-After-Use (BAU) mechanism for enterprise LLM environments to effectively prevent data leakage. As institutions increasingly adopt LLMs across departments, the risks of data leakage have become a critical security and compliance concern. The proposed SMTA isolates LLM instances across departments and enforces rigorous context ownership boundaries within an internally deployed infrastructure. The BAU mechanism introduces data confidentiality by enforcing ephemeral conversational contexts that are automatically destroyed after use, preventing cross-session or cross-user inference. The evaluation to SMTA and BAU is through two sets of realistic and reproducible experiments comprising of 127 test iterations. One aspect of this experiment is to assess prompt-based and semantic leakage attacks in a multi-tenant architecture (Appendix A) across 55 infrastructure-level attack tests, including vector-database credential compromise and shared logging pipeline exposure. SMTA achieves 92% defense success rate, demonstrating strong semantic isolation while highlighting residual risks from credential misconfiguration and observability pipelines. Another aspect is to evaluate the robustness of BAU under realistic failure scenarios (Appendix B) using four empirical metrics: Local Residual Persistence Rate (LRPR), Remote Residual Persistence Rate (RRPR), Image Frame Exposure Rate (IFER), and Burn Timer Persistence Rate (BTPR). Across 72 test iterations, BAU achieves a 76.75% success rate in mitigating post-session leakage threats across the client, server, application, infrastructure, and cache layers. These results show that SMTA and BAU together enforce strict isolation, complete session ephemerality, strong confidentiality guarantees, non-persistence, and policy-aligned behavior for enterprise LLMs.
- Abstract(参考訳): 本研究では,企業LCM環境におけるSMTA(Secure Multi-Tenant Architecture)とBAU(Burn-After-Use)機構を組み合わせて,データ漏洩を効果的に防止する手法を提案する。
機関が部署間でLSMを採用するようになるにつれ、データ漏洩のリスクはセキュリティとコンプライアンスの重大な問題となっている。
提案したSMTAは、部門全体でLLMインスタンスを分離し、内部にデプロイされたインフラストラクチャ内で厳密なコンテキストオーナシップ境界を強制する。
BAUメカニズムは、使用後に自動的に破棄される短命な会話コンテキストを強制することにより、データの機密性を導入し、クロスセッションやクロスユーザ推論を防ぐ。
SMTAとBAUの評価は、127回の試行からなる現実的で再現可能な2つの実験を通して行われる。
この実験の1つの側面は、55のインフラストラクチャレベルのアタックテストにおいて、マルチテナントアーキテクチャ(Appendix A)におけるプロンプトベースおよびセマンティックリーク攻撃を評価することである。
SMTAは防御成功率92%を達成し、強いセマンティックアイソレーションを示しながら、クレデンシャルな設定ミスや可観測性パイプラインからの残留リスクを強調している。
もうひとつの側面は, 現実的な障害シナリオ (Appendix B) 下でのBAUの堅牢性を評価するために, ローカル残留率 (LRPR), リモート残留率 (RRPR), イメージフレーム露出率 (IFER), バーニングタイマー持続率 (BTPR) の4つの経験的指標を用いた。
72回のテストを繰り返し、BAUはクライアント、サーバ、アプリケーション、インフラストラクチャ、キャッシュ層にわたるセッション後リークの脅威を軽減するために76.75%の成功率を達成した。
これらの結果から,SMTAとBAUはともに厳密な隔離,セッションの短命性,強い機密性保証,非永続性,企業LLMの政策整合性などを強制することが示唆された。
関連論文リスト
- Illusions of Confidence? Diagnosing LLM Truthfulness via Neighborhood Consistency [78.91846841708586]
完全な自己整合性で答えられた事実でさえ、軽微な文脈干渉の下で急速に崩壊することを示します。
本研究では,概念的近傍における応答コヒーレンスを評価する信念の構造尺度であるNighbor-Consistency Belief(NCB)を提案する。
また、文脈不変の信念構造を最適化し、長い知識の脆さを約30%低減する構造意識訓練(SAT)を提案する。
論文 参考訳(メタデータ) (2026-01-09T16:23:21Z) - Reliable LLM-Based Edge-Cloud-Expert Cascades for Telecom Knowledge Systems [54.916243942641444]
大規模言語モデル(LLM)は、通信などの分野において、自動化の鍵となる存在として浮上している。
本研究では,問合せパイプラインによる意思決定を支援する,エッジクラウドに精通したLLMベースの知識システムについて検討する。
論文 参考訳(メタデータ) (2025-12-23T03:10:09Z) - SAFENLIDB: A Privacy-Preserving Safety Alignment Framework for LLM-based Natural Language Database Interfaces [12.135290721799421]
NLIDBのための新しいプライバシセキュリティアライメントフレームワークであるtextscSafeNlidbを提案する。
このフレームワークは、スクラッチからハイブリッドチェーンのインタラクションデータを生成する自動化パイプラインを備えている。
提案手法は,大規模LCMと理想設定ベースラインより優れる。
論文 参考訳(メタデータ) (2025-11-10T07:05:59Z) - CORTEX: Collaborative LLM Agents for High-Stakes Alert Triage [10.088447487211893]
SOC(Security Operations Centers)は、毎日何万ものアラートに圧倒されている。
この過負荷は警告の疲労を引き起こし、見過ごされた脅威やアナリストのバーンアウトにつながる。
警告トリアージのためのマルチエージェントLLMアーキテクチャであるCORTEXを提案する。
論文 参考訳(メタデータ) (2025-09-30T22:09:31Z) - Federated Learning-Enabled Hybrid Language Models for Communication-Efficient Token Transmission [87.68447072141402]
ハイブリッド言語モデル(HLM)は、エッジデバイス上でのSLM(Small Language Model)の低レイテンシ効率と、集中型サーバ上でのLLM(Large Language Model)の高精度を組み合わせたものである。
我々は、不確実性を考慮した推論とフェデレートラーニング(FL)を統合する通信効率の高いHLMフレームワークであるFedHLMを提案する。
論文 参考訳(メタデータ) (2025-06-30T02:56:11Z) - Defending the Edge: Representative-Attention for Mitigating Backdoor Attacks in Federated Learning [7.808916974942399]
不均一エッジデバイスは、多種多様で非独立で、同一に分散された(非IID)データを生成する。
本稿では, 悪意のあるクライアントと良識を区別するための, FeRA という, 表現力に基づく防衛機構を提案する。
本評価では,エッジデバイスに典型的な非IIDデータ分散に挑戦するなど,さまざまなFLシナリオにおけるFeRAの堅牢性を示す。
論文 参考訳(メタデータ) (2025-05-15T13:44:32Z) - LATTEO: A Framework to Support Learning Asynchronously Tempered with Trusted Execution and Obfuscation [6.691450146654845]
本稿では,ネットワークエッジにおける非同期FLアグリゲーションをセキュアにするための,勾配難読化機構とTEE(Trusted Execution Environments)を組み合わせたプライバシー保護フレームワークを提案する。
我々のメカニズムは、クライアントが暗黙的にTEEベースのアグリゲーションサービスを確認し、オンデマンドのクライアント参加を効果的に処理し、非同期接続の増加とともにシームレスにスケールできるようにする。
論文 参考訳(メタデータ) (2025-02-07T01:21:37Z) - Confident or Seek Stronger: Exploring Uncertainty-Based On-device LLM Routing From Benchmarking to Generalization [61.02719787737867]
大規模言語モデル(LLM)はますますエッジデバイスにデプロイされ、民主化されている。
1つの有望な解決策は不確実性に基づくSLMルーティングであり、SLM上での低信頼応答が発生すると、高い要求を強いLCMにオフロードする。
我々は1500以上の設定でSLMからLLMへの不確実性駆動型ルーティング戦略のベンチマークと一般化を包括的に調査する。
論文 参考訳(メタデータ) (2025-02-06T18:59:11Z) - Aligning Large Language Models for Faithful Integrity Against Opposing Argument [71.33552795870544]
大規模言語モデル(LLM)は複雑な推論タスクにおいて印象的な機能を示している。
原文が正しい場合でも、会話中に不誠実な議論によって容易に誤解される。
本稿では,信頼度と信頼度を両立させる新しい枠組みを提案する。
論文 参考訳(メタデータ) (2025-01-02T16:38:21Z) - Exploring Automatic Cryptographic API Misuse Detection in the Era of LLMs [60.32717556756674]
本稿では,暗号誤用の検出において,大規模言語モデルを評価するための体系的評価フレームワークを提案する。
11,940個のLCM生成レポートを詳細に分析したところ、LSMに固有の不安定性は、報告の半数以上が偽陽性になる可能性があることがわかった。
最適化されたアプローチは、従来の手法を超え、確立されたベンチマークでこれまで知られていなかった誤用を明らかにすることで、90%近い顕著な検出率を達成する。
論文 参考訳(メタデータ) (2024-07-23T15:31:26Z) - FedCoT: Federated Chain-of-Thought Distillation for Large Language Models [24.624093188197126]
大規模言語モデル (LLMs) は、人工知能においてトランスフォーメーション・フォースとして登場し、様々なタスクにまたがる卓越した習熟を実証している。
小型言語モデル(SLM)は計算効率を提供するが、しばしば性能が低下する。
我々は,LLMからSLMへの知識の蒸留を目的としたフレームワークであるFedCoTを提案する。
論文 参考訳(メタデータ) (2024-06-18T08:48:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。