論文の概要: MaskSQL: Safeguarding Privacy for LLM-Based Text-to-SQL via Abstraction
- arxiv url: http://arxiv.org/abs/2509.23459v1
- Date: Sat, 27 Sep 2025 19:07:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.238897
- Title: MaskSQL: Safeguarding Privacy for LLM-Based Text-to-SQL via Abstraction
- Title(参考訳): MaskSQL: 抽象化によるLLMベースのテキストからSQLへのプライバシ保護
- Authors: Sepideh Abedini, Shubhankar Mohapatra, D. B. Emerson, Masoumeh Shafieinejad, Jesse C. Cresswell, Xi He,
- Abstract要約: 大規模言語モデル(LLM)は推論を必要とするタスクに対して有望なパフォーマンスを示す。
最先端のLCMもプロプライエタリであり、コストがかかり、リソース集約であり、ローカルなデプロイメントを非現実的にしている。
プライバシー保護機構として抽象化を利用するテキスト・ツー・アクション・フレームワークであるMaskを紹介する。
- 参考スコア(独自算出の注目度): 9.405530537180129
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) have shown promising performance on tasks that require reasoning, such as text-to-SQL, code generation, and debugging. However, regulatory frameworks with strict privacy requirements constrain their integration into sensitive systems. State-of-the-art LLMs are also proprietary, costly, and resource-intensive, making local deployment impractical. Consequently, utilizing such LLMs often requires sharing data with third-party providers, raising privacy concerns and risking noncompliance with regulations. Although fine-tuned small language models (SLMs) can outperform LLMs on certain tasks and be deployed locally to mitigate privacy concerns, they underperform on more complex tasks such as text-to-SQL translation. In this work, we introduce MaskSQL, a text-to-SQL framework that utilizes abstraction as a privacy protection mechanism to mask sensitive information in LLM prompts. Unlike redaction, which removes content entirely, or generalization, which broadens tokens, abstraction retains essential information while discarding unnecessary details, striking an effective privacy-utility balance for the text-to-SQL task. Moreover, by providing mechanisms to control the privacy-utility tradeoff, MaskSQL facilitates adoption across a broader range of use cases. Our experimental results show that MaskSQL outperforms leading SLM-based text-to-SQL models and achieves performance approaching state-of-the-art LLM-based models, while preserving privacy.
- Abstract(参考訳): 大規模言語モデル(LLM)は、テキストからSQL、コード生成、デバッグなど、推論を必要とするタスクで有望なパフォーマンスを示している。
しかし、厳格なプライバシー要件を持つ規制フレームワークは、機密システムへの統合を制限している。
最先端のLLMもプロプライエタリであり、コストがかかり、リソース集約であり、ローカルなデプロイメントを非現実的にしている。
そのため、このようなLCMを利用することで、サードパーティプロバイダとデータを共有し、プライバシー上の懸念を高め、規制に従わないリスクを負うことが少なくない。
微調整された小さな言語モデル(SLM)は特定のタスクにおいてLLMよりも優れ、プライバシー上の懸念を軽減するためにローカルにデプロイできるが、テキストからSQLへの変換のようなより複雑なタスクではパフォーマンスが劣る。
本研究では,LLMプロンプト内の機密情報を隠蔽するプライバシ保護機構として抽象化を利用するテキスト-SQLフレームワークであるMaskSQLを紹介する。
コンテンツを完全に削除するリアクションやトークンを広げる一般化とは異なり、抽象化は不要な詳細を破棄しながら必須情報を保持し、テキストからSQLタスクの効果的なプライバシとユーティリティのバランスを損なう。
さらに、プライバシとユーティリティのトレードオフを制御するメカニズムを提供することで、MaskSQLは幅広いユースケースにまたがって採用を促進する。
実験の結果、MaskSQLはSLMベースのテキスト-SQLモデルよりも優れており、プライバシを保ちながら最先端のLCMベースのモデルに近づくパフォーマンスを実現していることがわかった。
関連論文リスト
- The Double-edged Sword of LLM-based Data Reconstruction: Understanding and Mitigating Contextual Vulnerability in Word-level Differential Privacy Text Sanitization [53.51921540246166]
我々は,言語大モデル (LLM) がDP対応テキストの文脈的脆弱性を活用可能であることを示す。
LLM再建の二重刃剣効果がプライバシーと実用性に与える影響を実験的に明らかにした。
本稿では,データ再構成を後処理のステップとして使用するための推奨事項を提案する。
論文 参考訳(メタデータ) (2025-08-26T12:22:45Z) - Agentic Privacy-Preserving Machine Learning [5.695349155812586]
プライバシ保護機械学習(PPML)は、AIにおけるデータのプライバシを保証するために重要である。
本稿では,LPMにおけるPPMLの実現を目的として,Agentic-PPMLという新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-30T08:20:45Z) - Enhancing LLMs with Smart Preprocessing for EHR Analysis [3.5839042822277585]
大規模言語モデル (LLM) は自然言語処理において顕著な熟練性を示している。
本稿では,厳密なプライバシ要件を持つ環境におけるローカルデプロイメントに最適化されたコンパクトなLLMフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-03T22:06:55Z) - Relational Database Augmented Large Language Model [59.38841050766026]
大規模言語モデル(LLM)は多くの自然言語処理(NLP)タスクに優れる。
彼らは、トレーニングや教師付き微調整プロセスを通じてのみ、新しい知識を取り入れることができる。
この正確で最新のプライベート情報は、通常リレーショナルデータベースに格納される。
論文 参考訳(メタデータ) (2024-07-21T06:19:10Z) - SecureLLM: Using Compositionality to Build Provably Secure Language Models for Private, Sensitive, and Secret Data [12.873248205613827]
従来のセキュリティメカニズムは、アクセスすべきでないユーザからリソースを分離する。
我々は、このようなセキュリティ機構の構成特性をLLMの構造に反映し、確実にセキュアなLLMを構築する。
SecureLLMは、アクセスセキュリティと微調整メソッドをブレンドする。
我々は、難易度の高い新しい自然言語翻訳タスクと、今日安全な環境にモデルをデプロイできるLLMセキュリティに関する新しい視点の両方に貢献する。
論文 参考訳(メタデータ) (2024-05-16T04:25:53Z) - UNDIAL: Self-Distillation with Adjusted Logits for Robust Unlearning in Large Language Models [12.45822383965784]
本稿では,UnDIAL(Unlearning via Self-Distillation on Adjusted Logits)を紹介する。
本手法では, 自己蒸留を利用してロジットを調整し, ターゲットトークンの影響を選択的に低減する。
論文 参考訳(メタデータ) (2024-02-15T16:21:14Z) - Text-to-SQL Empowered by Large Language Models: A Benchmark Evaluation [76.76046657162306]
大規模言語モデル(LLM)はテキスト・ツー・タスクの新しいパラダイムとして登場した。
大規模言語モデル(LLM)はテキスト・ツー・タスクの新しいパラダイムとして登場した。
論文 参考訳(メタデータ) (2023-08-29T14:59:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。