論文の概要: MaskSQL: Safeguarding Privacy for LLM-Based Text-to-SQL via Abstraction
- arxiv url: http://arxiv.org/abs/2509.23459v1
- Date: Sat, 27 Sep 2025 19:07:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.238897
- Title: MaskSQL: Safeguarding Privacy for LLM-Based Text-to-SQL via Abstraction
- Title(参考訳): MaskSQL: 抽象化によるLLMベースのテキストからSQLへのプライバシ保護
- Authors: Sepideh Abedini, Shubhankar Mohapatra, D. B. Emerson, Masoumeh Shafieinejad, Jesse C. Cresswell, Xi He,
- Abstract要約: 大規模言語モデル(LLM)は推論を必要とするタスクに対して有望なパフォーマンスを示す。
最先端のLCMもプロプライエタリであり、コストがかかり、リソース集約であり、ローカルなデプロイメントを非現実的にしている。
プライバシー保護機構として抽象化を利用するテキスト・ツー・アクション・フレームワークであるMaskを紹介する。
- 参考スコア(独自算出の注目度): 9.405530537180129
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) have shown promising performance on tasks that require reasoning, such as text-to-SQL, code generation, and debugging. However, regulatory frameworks with strict privacy requirements constrain their integration into sensitive systems. State-of-the-art LLMs are also proprietary, costly, and resource-intensive, making local deployment impractical. Consequently, utilizing such LLMs often requires sharing data with third-party providers, raising privacy concerns and risking noncompliance with regulations. Although fine-tuned small language models (SLMs) can outperform LLMs on certain tasks and be deployed locally to mitigate privacy concerns, they underperform on more complex tasks such as text-to-SQL translation. In this work, we introduce MaskSQL, a text-to-SQL framework that utilizes abstraction as a privacy protection mechanism to mask sensitive information in LLM prompts. Unlike redaction, which removes content entirely, or generalization, which broadens tokens, abstraction retains essential information while discarding unnecessary details, striking an effective privacy-utility balance for the text-to-SQL task. Moreover, by providing mechanisms to control the privacy-utility tradeoff, MaskSQL facilitates adoption across a broader range of use cases. Our experimental results show that MaskSQL outperforms leading SLM-based text-to-SQL models and achieves performance approaching state-of-the-art LLM-based models, while preserving privacy.
- Abstract(参考訳): 大規模言語モデル(LLM)は、テキストからSQL、コード生成、デバッグなど、推論を必要とするタスクで有望なパフォーマンスを示している。
しかし、厳格なプライバシー要件を持つ規制フレームワークは、機密システムへの統合を制限している。
最先端のLLMもプロプライエタリであり、コストがかかり、リソース集約であり、ローカルなデプロイメントを非現実的にしている。
そのため、このようなLCMを利用することで、サードパーティプロバイダとデータを共有し、プライバシー上の懸念を高め、規制に従わないリスクを負うことが少なくない。
微調整された小さな言語モデル(SLM)は特定のタスクにおいてLLMよりも優れ、プライバシー上の懸念を軽減するためにローカルにデプロイできるが、テキストからSQLへの変換のようなより複雑なタスクではパフォーマンスが劣る。
本研究では,LLMプロンプト内の機密情報を隠蔽するプライバシ保護機構として抽象化を利用するテキスト-SQLフレームワークであるMaskSQLを紹介する。
コンテンツを完全に削除するリアクションやトークンを広げる一般化とは異なり、抽象化は不要な詳細を破棄しながら必須情報を保持し、テキストからSQLタスクの効果的なプライバシとユーティリティのバランスを損なう。
さらに、プライバシとユーティリティのトレードオフを制御するメカニズムを提供することで、MaskSQLは幅広いユースケースにまたがって採用を促進する。
実験の結果、MaskSQLはSLMベースのテキスト-SQLモデルよりも優れており、プライバシを保ちながら最先端のLCMベースのモデルに近づくパフォーマンスを実現していることがわかった。
関連論文リスト
- A Multi-agent Text2SQL Framework using Small Language Models and Execution Feedback [40.19592881059662]
LLM(Large Language Models)は、Text2sqlクエリを生成する上で優れたパフォーマンスを示している。
プライバシとコストの考慮により、企業はサービスとして提供される外部LLMに基づいたText2ソリューションを使用することができない。
SLM向けに設計された新しいText2フレームワークであるMATSを提案する。
論文 参考訳(メタデータ) (2025-12-21T06:43:47Z) - When Privacy Meets Recovery: The Overlooked Half of Surrogate-Driven Privacy Preservation for MLLM Editing [61.80513991207956]
この研究は、さまざまなMLLMシナリオでサロゲート駆動の保護されたデータを復元する方法の課題に焦点を当てている。
私たちはまず、SPPE(Surrogate Privacy Protected Editable)データセットの提供によって、この研究ギャップを埋めます。
MLLM生成編集の忠実さを保ちながら、プライベートコンテンツを確実に再構築する統一的な手法を提案する。
論文 参考訳(メタデータ) (2025-12-08T04:59:03Z) - SAFENLIDB: A Privacy-Preserving Safety Alignment Framework for LLM-based Natural Language Database Interfaces [12.135290721799421]
NLIDBのための新しいプライバシセキュリティアライメントフレームワークであるtextscSafeNlidbを提案する。
このフレームワークは、スクラッチからハイブリッドチェーンのインタラクションデータを生成する自動化パイプラインを備えている。
提案手法は,大規模LCMと理想設定ベースラインより優れる。
論文 参考訳(メタデータ) (2025-11-10T07:05:59Z) - The Double-edged Sword of LLM-based Data Reconstruction: Understanding and Mitigating Contextual Vulnerability in Word-level Differential Privacy Text Sanitization [53.51921540246166]
我々は,言語大モデル (LLM) がDP対応テキストの文脈的脆弱性を活用可能であることを示す。
LLM再建の二重刃剣効果がプライバシーと実用性に与える影響を実験的に明らかにした。
本稿では,データ再構成を後処理のステップとして使用するための推奨事項を提案する。
論文 参考訳(メタデータ) (2025-08-26T12:22:45Z) - Agentic Privacy-Preserving Machine Learning [5.695349155812586]
プライバシ保護機械学習(PPML)は、AIにおけるデータのプライバシを保証するために重要である。
本稿では,LPMにおけるPPMLの実現を目的として,Agentic-PPMLという新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-30T08:20:45Z) - Controlling What You Share: Assessing Language Model Adherence to Privacy Preferences [73.5779077857545]
ローカルモデルがこれらの命令を使ってクエリを書き換えるフレームワークを構築します。
軽量なローカルLCMを用いた実験では、微調整後、はるかに大きなゼロショットモデルの性能を著しく上回った。
同時に、このシステムは、ユーザー定義プライバシの好みをよりよく理解したモデルの必要性を強調し、ユーザー指示に完全に準拠するという課題に直面している。
論文 参考訳(メタデータ) (2025-07-07T18:22:55Z) - Enhancing LLMs with Smart Preprocessing for EHR Analysis [3.5839042822277585]
大規模言語モデル (LLM) は自然言語処理において顕著な熟練性を示している。
本稿では,厳密なプライバシ要件を持つ環境におけるローカルデプロイメントに最適化されたコンパクトなLLMフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-03T22:06:55Z) - Relational Database Augmented Large Language Model [59.38841050766026]
大規模言語モデル(LLM)は多くの自然言語処理(NLP)タスクに優れる。
彼らは、トレーニングや教師付き微調整プロセスを通じてのみ、新しい知識を取り入れることができる。
この正確で最新のプライベート情報は、通常リレーショナルデータベースに格納される。
論文 参考訳(メタデータ) (2024-07-21T06:19:10Z) - FedCoT: Federated Chain-of-Thought Distillation for Large Language Models [24.624093188197126]
大規模言語モデル (LLMs) は、人工知能においてトランスフォーメーション・フォースとして登場し、様々なタスクにまたがる卓越した習熟を実証している。
小型言語モデル(SLM)は計算効率を提供するが、しばしば性能が低下する。
我々は,LLMからSLMへの知識の蒸留を目的としたフレームワークであるFedCoTを提案する。
論文 参考訳(メタデータ) (2024-06-18T08:48:14Z) - Federated Domain-Specific Knowledge Transfer on Large Language Models Using Synthetic Data [53.70870879858533]
フェデレートされたドメイン固有の知識伝達フレームワークを紹介する。
クライアントのデータプライバシを保護しながら、LLMからSLMへのドメイン固有の知識転送を可能にする。
提案されたFDKTフレームワークは、プライバシー予算が10未満のSLMのタスクパフォーマンスを約5%改善する。
論文 参考訳(メタデータ) (2024-05-23T06:14:35Z) - SecureLLM: Using Compositionality to Build Provably Secure Language Models for Private, Sensitive, and Secret Data [12.873248205613827]
従来のセキュリティメカニズムは、アクセスすべきでないユーザからリソースを分離する。
我々は、このようなセキュリティ機構の構成特性をLLMの構造に反映し、確実にセキュアなLLMを構築する。
SecureLLMは、アクセスセキュリティと微調整メソッドをブレンドする。
我々は、難易度の高い新しい自然言語翻訳タスクと、今日安全な環境にモデルをデプロイできるLLMセキュリティに関する新しい視点の両方に貢献する。
論文 参考訳(メタデータ) (2024-05-16T04:25:53Z) - UNDIAL: Self-Distillation with Adjusted Logits for Robust Unlearning in Large Language Models [12.45822383965784]
本稿では,UnDIAL(Unlearning via Self-Distillation on Adjusted Logits)を紹介する。
本手法では, 自己蒸留を利用してロジットを調整し, ターゲットトークンの影響を選択的に低減する。
論文 参考訳(メタデータ) (2024-02-15T16:21:14Z) - Text-to-SQL Empowered by Large Language Models: A Benchmark Evaluation [76.76046657162306]
大規模言語モデル(LLM)はテキスト・ツー・タスクの新しいパラダイムとして登場した。
大規模言語モデル(LLM)はテキスト・ツー・タスクの新しいパラダイムとして登場した。
論文 参考訳(メタデータ) (2023-08-29T14:59:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。