論文の概要: ICLGuard: Controlling In-Context Learning Behavior for Applicability Authorization
- arxiv url: http://arxiv.org/abs/2407.06955v1
- Date: Tue, 9 Jul 2024 15:35:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-10 17:37:36.942171
- Title: ICLGuard: Controlling In-Context Learning Behavior for Applicability Authorization
- Title(参考訳): ICLGuard: 適用性認証のための文脈内学習動作の制御
- Authors: Wai Man Si, Michael Backes, Yang Zhang,
- Abstract要約: In-context Learning (ICL)は、大規模言語モデル(LLM)の能力の最近の進歩である。
モデル所有者が異なるデータ上でのICLの挙動を制御できるようにするための微調整フレームワークを提案する。
ICLGuard はオリジナルの LLM とファインチューンを保存しており、LLM を"ガード"するための最小限のトレーニング可能なパラメータセットのみである。
- 参考スコア(独自算出の注目度): 26.49760698664831
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In-context learning (ICL) is a recent advancement in the capabilities of large language models (LLMs). This feature allows users to perform a new task without updating the model. Concretely, users can address tasks during the inference time by conditioning on a few input-label pair demonstrations along with the test input. It is different than the conventional fine-tuning paradigm and offers more flexibility. However, this capability also introduces potential issues. For example, users may use the model on any data without restriction, such as performing tasks with improper or sensitive content, which might violate the model policy or conflict with the model owner's interests. As a model owner, it is crucial to establish a mechanism to control the model's behavior under ICL, depending on the model owner's requirements for various content. To this end, we introduce the concept of "applicability authorization" tailored for LLMs, particularly for ICL behavior, and propose a simple approach, ICLGuard. It is a fine-tuning framework designed to allow the model owner to regulate ICL behavior on different data. ICLGuard preserves the original LLM and fine-tunes only a minimal set of additional trainable parameters to "guard" the LLM. Empirical results show that the guarded LLM can deactivate its ICL ability on target data without affecting its ICL ability on other data and its general functionality across all data.
- Abstract(参考訳): In-context Learning (ICL)は、大規模言語モデル(LLM)の能力の最近の進歩である。
この機能により、ユーザーはモデルを更新することなく新しいタスクを実行できる。
具体的には、いくつかのインプットラベルペアデモとテスト入力を条件にすることで、推論時間中のタスクに対処することができる。
従来の微調整パラダイムと異なり、柔軟性が向上している。
しかし、この能力は潜在的な問題も引き起こす。
例えば、ユーザーは、モデルポリシーに違反したり、モデル所有者の利益と矛盾する可能性のある不適切なまたは機密性の高いコンテンツでタスクを実行するなど、制限のない任意のデータでモデルを使用することができる。
モデルオーナとして、さまざまなコンテンツに対するモデルオーナの要求に応じて、ICLの下でモデルの振る舞いを制御するメカニズムを確立することが不可欠である。
そこで本研究では,LSM,特にICL動作に適した"応用可能性認可"の概念を導入し,シンプルなアプローチであるICLGuardを提案する。
これは、モデル所有者が異なるデータ上でのICLの振る舞いを規制できるように設計された微調整フレームワークである。
ICLGuard はオリジナルの LLM とファインチューンを保存しており、LLM を"ガードする"ために、最小限のトレーニング可能なパラメータセットのみを付加している。
実験の結果,保護されたLSMは,他のデータに対するICL能力や全データに対する一般機能に影響を与えることなく,目標データ上でのICL能力を失活させることができることがわかった。
関連論文リスト
- DOMBA: Double Model Balancing for Access-Controlled Language Models via Minimum-Bounded Aggregation [28.49407031366749]
データセット上での大規模言語モデル(LLM)のトレーニングは、無許可のユーザに機密情報を暴露する可能性がある。
DOMBA - 二重モデルバランシング - LLMのトレーニングとデプロイのためのシンプルなアプローチを提案する。
論文 参考訳(メタデータ) (2024-08-20T18:23:38Z) - Lifelong Personalized Low-Rank Adaptation of Large Language Models for Recommendation [50.837277466987345]
我々は、推奨のために大規模言語モデル(LLM)の分野に焦点を当てる。
ユーザ毎に独立したLoRAを管理するPersonalized LoRAモジュールを組み込んだRecLoRAを提案する。
また、Few2Many Learning Strategyを設計し、従来のレコメンデーションモデルをレンズとして使用して、小さなトレーニングスペースをフルスペースに拡大する。
論文 参考訳(メタデータ) (2024-08-07T04:20:28Z) - SELF-GUIDE: Better Task-Specific Instruction Following via Self-Synthetic Finetuning [70.21358720599821]
大規模言語モデル(LLM)は、適切な自然言語プロンプトを提供する際に、多様なタスクを解決するという約束を持っている。
学生LLMからタスク固有の入出力ペアを合成する多段階メカニズムであるSELF-GUIDEを提案する。
ベンチマークの指標から,分類タスクに約15%,生成タスクに18%の絶対的な改善を報告した。
論文 参考訳(メタデータ) (2024-07-16T04:41:58Z) - Crayon: Customized On-Device LLM via Instant Adapter Blending and Edge-Server Hybrid Inference [20.666893617591136]
オンデバイス LLM カスタマイズのための新しいアプローチである Crayon を提案する。
我々は,より要求の多いクエリや非カスタマイズタスクをサーバ上のより大きな,より有能なLDMに確実に割り当てるデバイスサーバハイブリッド推論戦略を開発する。
論文 参考訳(メタデータ) (2024-06-11T07:00:08Z) - One Token Can Help! Learning Scalable and Pluggable Virtual Tokens for Retrieval-Augmented Large Language Models [67.49462724595445]
Retrieval-augmented Generation (RAG)は、大規模言語モデル(LLM)を改善するための有望な方法である。
本稿では,RAGのためのスケーラブルでプラガブルな仮想トークンを学習する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-30T03:44:54Z) - Small LLMs Are Weak Tool Learners: A Multi-LLM Agent [73.54562551341454]
大規模言語モデル(LLM)エージェントはスタンドアロンのLLMの機能を大幅に拡張する。
本稿では、上記の機能をプランナー、呼び出し元、要約器に分解する新しい手法を提案する。
このモジュール化されたフレームワークは、個々の更新と、それぞれの機能を構築するための小さなLLMの潜在的な使用を容易にする。
論文 参考訳(メタデータ) (2024-01-14T16:17:07Z) - Self-Play Fine-Tuning Converts Weak Language Models to Strong Language Models [52.98743860365194]
本稿では,SPIN(Self-Play fIne-tuNing)と呼ばれるファインチューニング手法を提案する。
SPINの中心には自己再生機構があり、LLMは自身のインスタンスと対戦することでその能力を洗練させる。
このことは、自己プレイの約束に光を当て、熟練した相手を必要とせずに、LSMにおける人間レベルのパフォーマンスの達成を可能にする。
論文 参考訳(メタデータ) (2024-01-02T18:53:13Z) - CRaSh: Clustering, Removing, and Sharing Enhance Fine-tuning without
Full Large Language Model [22.870512676002463]
本稿では,集中型LCMと下流エミュレータ間でトランスフォーマブロックを転送する代表的手法であるOffsite-Tuning(OFT)に焦点を当てる。
これらの観測にインスパイアされたCRaShは、LCMから改善エミュレータを導出するトレーニングフリー戦略であるClustering、Removing、Sharingを含む。
以上の結果から,CRaShとOFTの有効性が明らかとなった。
論文 参考訳(メタデータ) (2023-10-24T03:08:58Z) - LLM-Pruner: On the Structural Pruning of Large Language Models [65.02607075556742]
大規模言語モデル(LLM)は、言語理解と生成において顕著な能力を示している。
タスク非依存であり、元のトレーニングデータセットへの依存を最小限に抑えるという2つの制約の範囲内でLLMの圧縮に取り組む。
LLM-Prunerという名前のこの手法は、非臨界結合構造を選択的に除去する構造プルーニングを採用する。
論文 参考訳(メタデータ) (2023-05-19T12:10:53Z) - On the Effectiveness of Equivariant Regularization for Robust Online
Continual Learning [17.995662644298974]
継続的な学習(CL)アプローチは、このギャップを埋めるために、以前のタスクと将来のタスクの両方への知識の伝達を容易にする。
近年の研究では、多種多様な下流タスクをうまく一般化できる多目的モデルを作成することができることが示されている。
等変正則化(CLER)による連続学習を提案する。
論文 参考訳(メタデータ) (2023-05-05T16:10:31Z) - ModelCI-e: Enabling Continual Learning in Deep Learning Serving Systems [21.37434583546624]
本稿では,この問題を解決するために,ModelCI-e(継続的インテグレーションと進化)と呼ばれる軽量MLOpsプラグインを実装した。
ModelCI-eは継続学習(CL)とMLデプロイメント技術を採用し、モデルの更新と検証をエンドツーエンドでサポートする。
予備的な結果は、ModelCI-eのユーザビリティを示し、モデル更新と推論ワークロード間の干渉を取り除くことが、システム効率の向上に不可欠であることを示している。
論文 参考訳(メタデータ) (2021-06-06T13:28:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。