論文の概要: SAFENLIDB: A Privacy-Preserving Safety Alignment Framework for LLM-based Natural Language Database Interfaces
- arxiv url: http://arxiv.org/abs/2511.06778v1
- Date: Mon, 10 Nov 2025 07:05:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.126623
- Title: SAFENLIDB: A Privacy-Preserving Safety Alignment Framework for LLM-based Natural Language Database Interfaces
- Title(参考訳): SAFENLIDB: LLMベースの自然言語データベースインタフェースのためのプライバシー保護安全アライメントフレームワーク
- Authors: Ruiheng Liu, XiaoBing Chen, Jinyu Zhang, Qiongwen Zhang, Yu Zhang, Bailong Yang,
- Abstract要約: NLIDBのための新しいプライバシセキュリティアライメントフレームワークであるtextscSafeNlidbを提案する。
このフレームワークは、スクラッチからハイブリッドチェーンのインタラクションデータを生成する自動化パイプラインを備えている。
また、直接選好最適化の多重選好振動を克服するために、推論ウォームアップと交互選好最適化を導入する。
- 参考スコア(独自算出の注目度): 12.135290721799421
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid advancement of Large Language Models (LLMs) has driven significant progress in Natural Language Interface to Database (NLIDB). However, the widespread adoption of LLMs has raised critical privacy and security concerns. During interactions, LLMs may unintentionally expose confidential database contents or be manipulated by attackers to exfiltrate data through seemingly benign queries. While current efforts typically rely on rule-based heuristics or LLM agents to mitigate this leakage risk, these methods still struggle with complex inference-based attacks, suffer from high false positive rates, and often compromise the reliability of SQL queries. To address these challenges, we propose \textsc{SafeNlidb}, a novel privacy-security alignment framework for LLM-based NLIDB. The framework features an automated pipeline that generates hybrid chain-of-thought interaction data from scratch, seamlessly combining implicit security reasoning with SQL generation. Additionally, we introduce reasoning warm-up and alternating preference optimization to overcome the multi-preference oscillations of Direct Preference Optimization (DPO), enabling LLMs to produce security-aware SQL through fine-grained reasoning without the need for human-annotated preference data. Extensive experiments demonstrate that our method outperforms both larger-scale LLMs and ideal-setting baselines, achieving significant security improvements while preserving high utility.WARNING: This work may contain content that is offensive and harmful!
- Abstract(参考訳): LLM(Large Language Models)の急速な進歩は、NLIDB(Natural Language Interface to Database)に大きな進歩をもたらした。
しかし、LLMの普及はプライバシーとセキュリティの重大な懸念を引き起こしている。
インタラクションの間、LLMは意図せず秘密のデータベースコンテンツを公開したり、攻撃者が不正なクエリを通じてデータを流出させたりすることができる。
現在の取り組みは通常、このリークリスクを軽減するためにルールベースのヒューリスティックスやLLMエージェントに依存しているが、これらのメソッドは複雑な推論ベースの攻撃に苦慮し、高い偽陽性率に悩まされ、しばしばSQLクエリの信頼性を損なう。
これらの課題に対処するために、LLMベースのNLIDBのための新しいプライバシセキュリティアライメントフレームワークである‘textsc{SafeNlidb} を提案する。
このフレームワークは、スクラッチからハイブリッドチェーンのインタラクションデータを生成する自動化パイプラインを備えており、暗黙のセキュリティ推論とSQL生成をシームレスに組み合わせている。
また,提案手法では,人手による嗜好データを必要としない微粒な推論により,LLMがセキュリティを意識したSQLを生成できるように,直接選好最適化(DPO)のマルチ参照振動を克服するために,推論ウォームアップと交互選好最適化を導入する。
大規模な実験により,本手法は大規模LCMと理想設定ベースラインの両方に優れた性能を示し,高い実用性を維持しつつ,大幅なセキュリティ向上を実現している。
関連論文リスト
- MaskSQL: Safeguarding Privacy for LLM-Based Text-to-SQL via Abstraction [9.405530537180129]
大規模言語モデル(LLM)は推論を必要とするタスクに対して有望なパフォーマンスを示す。
最先端のLCMもプロプライエタリであり、コストがかかり、リソース集約であり、ローカルなデプロイメントを非現実的にしている。
プライバシー保護機構として抽象化を利用するテキスト・ツー・アクション・フレームワークであるMaskを紹介する。
論文 参考訳(メタデータ) (2025-09-27T19:07:50Z) - When Safe Unimodal Inputs Collide: Optimizing Reasoning Chains for Cross-Modal Safety in Multimodal Large Language Models [50.66979825532277]
我々は、クロスモーダルチャレンジに適した解釈可能な推論パスを備えた最初のデータセットであるSSUI(Safe-Semantics-but-Unsafe-Interpretation)を紹介した。
新たなトレーニングフレームワークであるSRPO(Safety-Aware Reasoning Path Optimization)も、SSUIデータセットに基づいて設計されている。
実験の結果, SRPO学習モデルでは, キーセーフティベンチマークで最先端の結果が得られた。
論文 参考訳(メタデータ) (2025-09-15T15:40:58Z) - FedShield-LLM: A Secure and Scalable Federated Fine-Tuned Large Language Model [0.48342038441006796]
Federated Learning (FL)は、LLM(Large Language Models)のトレーニングと微調整のための分散フレームワークを提供する。
FLはプライバシとセキュリティの懸念に対処し、LLMの相当な計算要求に関連する課題をナビゲートする。
ローランド適応 (LoRA) パラメータに対して, 完全同型暗号化 (FHE) を用いたプルーニングを用いた新しいFedShield-LLMを提案する。
論文 参考訳(メタデータ) (2025-06-06T00:05:05Z) - FedDTPT: Federated Discrete and Transferable Prompt Tuning for Black-Box Large Language Models [14.719919025265224]
特定のシナリオからのデータを調整した大きな言語モデル(LLM)は、プライバシリークのリスクを引き起こす。
ブラックボックス大言語モデルに対して,フェデレートされた離散的かつ転送可能なプロンプトチューニングであるFedDTPTを初めて提案する。
提案手法は,ブラックボックス設定における非IDデータに対する高い精度,通信オーバーヘッドの低減,ロバスト性を実現する。
論文 参考訳(メタデータ) (2024-11-01T19:19:23Z) - Relational Database Augmented Large Language Model [59.38841050766026]
大規模言語モデル(LLM)は多くの自然言語処理(NLP)タスクに優れる。
彼らは、トレーニングや教師付き微調整プロセスを通じてのみ、新しい知識を取り入れることができる。
この正確で最新のプライベート情報は、通常リレーショナルデータベースに格納される。
論文 参考訳(メタデータ) (2024-07-21T06:19:10Z) - Robust Utility-Preserving Text Anonymization Based on Large Language Models [80.5266278002083]
機密情報を含む匿名化は、幅広いアプリケーションにとって不可欠である。
既存の技術は、大規模言語モデルの再識別能力の新たな課題に直面している。
本稿では,プライバシ評価器,ユーティリティ評価器,最適化コンポーネントの3つの重要なコンポーネントで構成されるフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T14:28:56Z) - Dialectical Alignment: Resolving the Tension of 3H and Security Threats of LLMs [9.624124576891075]
既存のアライメント手法は、外部エビデンスとパラメトリックメモリが競合する場合、大きな言語モデル(LLM)をアダプティブ・シャメレオン(Adaptive Chameleon)に導くことができる。
我々は、AIフィードバックを利用してLLMの最適戦略を特定し、コンテキスト間の競合をナビゲートする新しいフレームワーク、Dialectical Alignment(DA)を提案する。
実験の結果,DAは有毒なデータ攻撃防御を20倍に改善し,追加のプロンプトエンジニアリングを必要としないことがわかった。
論文 参考訳(メタデータ) (2024-03-30T22:41:05Z) - RigorLLM: Resilient Guardrails for Large Language Models against Undesired Content [62.685566387625975]
現在の緩和戦略は効果はあるものの、敵の攻撃下では弾力性がない。
本稿では,大規模言語モデルのための弾力性ガードレール(RigorLLM)について紹介する。
論文 参考訳(メタデータ) (2024-03-19T07:25:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。