論文の概要: AC-LoRA: (Almost) Training-Free Access Control-Aware Multi-Modal LLMs
- arxiv url: http://arxiv.org/abs/2505.11557v1
- Date: Thu, 15 May 2025 23:19:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:10.701044
- Title: AC-LoRA: (Almost) Training-Free Access Control-Aware Multi-Modal LLMs
- Title(参考訳): AC-LoRA:(ほとんど)トレーニングフリーアクセス制御対応多モードLCM
- Authors: Lara Magdalena Lazier, Aritra Dhar, Vasilije Stambolic, Lukas Cavigelli,
- Abstract要約: AC-LoRAは、アクセス制御を意識した企業LLMのためのエンドツーエンドシステムである。
AC-LoRAは、許可されたデータセットのための別々のLoRAアダプタと、それらに微調整されたドキュメントを埋め込む。
AC-LoRAは、ユーザクエリとパーミッションとの類似性スコアに基づいて、LoRAアダプタの正確なセットを検索する。
- 参考スコア(独自算出の注目度): 1.8633238548765558
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Corporate LLMs are gaining traction for efficient knowledge dissemination and management within organizations. However, as current LLMs are vulnerable to leaking sensitive information, it has proven difficult to apply them in settings where strict access control is necessary. To this end, we design AC-LoRA, an end-to-end system for access control-aware corporate LLM chatbots that maintains a strong information isolation guarantee. AC-LoRA maintains separate LoRA adapters for permissioned datasets, along with the document embedding they are finetuned on. AC-LoRA retrieves a precise set of LoRA adapters based on the similarity score with the user query and their permission. This similarity score is later used to merge the responses if more than one LoRA is retrieved, without requiring any additional training for LoRA routing. We provide an end-to-end prototype of AC-LoRA, evaluate it on two datasets, and show that AC-LoRA matches or even exceeds the performance of state-of-the-art LoRA mixing techniques while providing strong isolation guarantees. Furthermore, we show that AC-LoRA design can be directly applied to different modalities.
- Abstract(参考訳): 企業LSMは、組織内の効率的な知識の普及と管理のために勢いを増している。
しかし、現在のLLMは機密情報の漏洩に弱いため、厳密なアクセス制御が必要な設定では適用が困難であることが証明されている。
この目的のために我々は、強力な情報分離保証を維持できるアクセス制御対応企業LLMチャットボットのエンドツーエンドシステムであるAC-LoRAを設計する。
AC-LoRAは、許可されたデータセットのための別々のLoRAアダプタと、それらに微調整されたドキュメントを埋め込む。
AC-LoRAは、ユーザクエリとパーミッションとの類似性スコアに基づいて、LoRAアダプタの正確なセットを検索する。
この類似度スコアは、後で複数のLoRAが検索された場合、LoRAルーティングのための追加のトレーニングを必要とせずに、レスポンスをマージするために使用される。
本稿では、AC-LoRAのエンドツーエンドプロトタイプを2つのデータセットで評価し、AC-LoRAが最先端のLoRAミキシング技術の性能に適合し、強力なアイソレーション保証を提供することを示す。
さらに、AC-LoRA設計は、異なるモダリティに対して直接適用可能であることを示す。
関連論文リスト
- ZKLoRA: Efficient Zero-Knowledge Proofs for LoRA Verification [0.20482269513546458]
Low-Rank Adaptation (LoRA)は、大規模言語モデルをカスタマイズするための広く採用されている手法である。
分散型で信頼できないトレーニング環境では、オープンソースのベースモデルユーザは、外部コントリビュータによって生成されたLoRAウェイトを使いたいかもしれません。
ZKLoRAは,簡潔な証明と新しいマルチパーティ推論手法に依存するゼロ知識検証プロトコルである。
論文 参考訳(メタデータ) (2025-01-21T23:20:33Z) - Retrieval-Augmented Mixture of LoRA Experts for Uploadable Machine Learning [57.36978335727009]
Low-Rank Adaptation (LoRA)は、大規模言語モデル(LLM)を微調整する効率的な方法を提供する。
本稿では,入力プロンプトに基づいて複数のLoRAを適応的に検索・構成するフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-24T05:24:41Z) - Compress then Serve: Serving Thousands of LoRA Adapters with Little Overhead [41.31302904190149]
低ランク適応 (LoRA) を持つ細調整の大型言語モデルは一般的な慣行となり、LoRA更新でのみ同じLLMのコピーを多数生成する。
このパラダイムは、異なるLoRAを含むクエリに対するリアルタイム応答を提供するシステムの課題を示す。
本稿では,LoRA固有のスケーリング行列と組み合わせた共有ベースにLoRAを共同圧縮する手法を提案する。
論文 参考訳(メタデータ) (2024-06-17T15:21:35Z) - Safe LoRA: the Silver Lining of Reducing Safety Risks when Fine-tuning Large Language Models [51.20476412037321]
提案するSafe LoRAは,選択した層からのLoRA重みの投影を安全に整合した部分空間に導入することにより,オリジナルのLoRA実装に対する単純なワンライナーパッチである。
我々の実験は、純粋に悪意のあるデータに対して微調整を行う場合、Safe LoRAは元のアライメントモデルと同様の安全性を保っていることを示した。
論文 参考訳(メタデータ) (2024-05-27T05:04:05Z) - LoRATK: LoRA Once, Backdoor Everywhere in the Share-and-Play Ecosystem [55.2986934528672]
タスク強化型LORAにバックドアを注入する方法を検討する。
シンプルで効率的で具体的なレシピで、バックドアのLoRAを一度トレーニングして、シームレスに複数のLoRAとマージできることが分かりました。
我々の研究は、下流の可搬性イットバックドア注入型LORAのトレーニング不要分布の新しい脅威モデルを研究する最初のものである。
論文 参考訳(メタデータ) (2024-02-29T20:25:16Z) - LoraRetriever: Input-Aware LoRA Retrieval and Composition for Mixed
Tasks in the Wild [76.67343971195267]
Low-Rank Adaptation (LoRA)は、大規模言語モデル(LLM)を微調整するための効率的なソリューションを提供する。
LoraRetrieverは、入力プロンプトに従って複数のLoRAを適応的に検索して構成する検索テーマ構成フレームワークである。
実験結果から、LoraRetrieverは一貫してベースラインを上回っていることが示唆された。
論文 参考訳(メタデータ) (2024-02-15T15:02:46Z) - CA-LoRA: Adapting Existing LoRA for Compressed LLMs to Enable Efficient Multi-Tasking on Personal Devices [78.16679232748196]
本稿では,Large Language Models (LLM) を他のタスクに転送するための圧縮対応 LoRA (CA-LoRA) フレームワークを提案する。
実験の結果,CA-LoRAは圧縮LDMに適用したバニラロラ法よりも優れていた。
CA-LoRAのソースコードはhttps://github.com/thunlp/CA-LoRAで公開されている。
論文 参考訳(メタデータ) (2023-07-15T04:37:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。