論文の概要: SudoLM: Learning Access Control of Parametric Knowledge with Authorization Alignment
- arxiv url: http://arxiv.org/abs/2410.14676v1
- Date: Fri, 18 Oct 2024 17:59:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-21 14:26:57.060705
- Title: SudoLM: Learning Access Control of Parametric Knowledge with Authorization Alignment
- Title(参考訳): SudoLM: 認証アライメントを用いたパラメトリック知識のアクセス制御学習
- Authors: Qin Liu, Fei Wang, Chaowei Xiao, Muhao Chen,
- Abstract要約: 我々は,特定のパラメトリック知識のアクセス制御をLLMが学べるフレームワークであるSudoLMを提案する。
2つのアプリケーションシナリオの実験は、SudoLMがユーザのパラメトリック知識へのアクセスを効果的に制御し、その汎用性を維持することを実証している。
- 参考スコア(独自算出の注目度): 51.287157951953226
- License:
- Abstract: Existing preference alignment is a one-size-fits-all alignment mechanism, where the part of the large language model (LLM) parametric knowledge with non-preferred features is uniformly blocked to all the users. However, this part of knowledge can be useful to advanced users whose expertise qualifies them to handle these information. The one-size-fits-all alignment mechanism undermines LLM's utility for these qualified users. To address this problem, we propose SudoLM, a framework that lets LLMs learn access control over specific parametric knowledge for users with different credentials via authorization alignment. SudoLM allows authorized users to unlock their access to all the parametric knowledge with an assigned SUDO key while blocking access to non-qualified users. Experiments on two application scenarios demonstrate that SudoLM effectively controls the user's access to the parametric knowledge and maintains its general utility.
- Abstract(参考訳): 既存の嗜好アライメントは、大きな言語モデル(LLM)のパラメトリック知識の一部が、非推奨の機能を持つため、すべてのユーザに対して一様にブロックされる、一様対応のアライメントメカニズムである。
しかし、知識のこの部分は、これらの情報を扱う専門知識を持つ上級ユーザーにとって有用である。
ワンサイズのアライメント機構は、これらの資格のあるユーザにとってLLMの実用性を損なう。
この問題に対処するために,認証アライメントを通じて異なる資格を持つユーザに対して,LCMが特定のパラメトリック知識のアクセス制御を学習することを可能にするフレームワークであるSudoLMを提案する。
SudoLMは、許可されたユーザが、割り当てられたSUDOキーですべてのパラメトリック知識へのアクセスをアンロックすると同時に、資格のないユーザへのアクセスをブロックすることを可能にする。
2つのアプリケーションシナリオの実験は、SudoLMがユーザのパラメトリック知識へのアクセスを効果的に制御し、その汎用性を維持することを実証している。
関連論文リスト
- Steering Knowledge Selection Behaviours in LLMs via SAE-Based Representation Engineering [23.96385393039587]
大規模言語モデル(LLM)は、そのパラメータに大量の事実知識を格納することができる。
LLMは、中間層における知識衝突のシグナルを内部的に登録することができる。
我々は,事前訓練されたスパースオートエンコーダを用いた表現工学手法であるtextscSpAREを提案する。
論文 参考訳(メタデータ) (2024-10-21T13:30:47Z) - CUTE: Measuring LLMs' Understanding of Their Tokens [54.70665106141121]
大きな言語モデル(LLM)は、様々なタスクにおいて顕著なパフォーマンスを示す。
LLMはどの程度の間、正書法情報を学ぶことができるのか?
LLMの正書法知識をテストするために設計されたタスクの集合を特徴とする新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2024-09-23T18:27:03Z) - Learning to Ask: When LLMs Meet Unclear Instruction [49.256630152684764]
大きな言語モデル(LLM)は、言語スキルだけでは達成不可能なタスクに対処するための外部ツールを活用することができる。
我々は、不完全な命令下でのLLMツールの使用性能を評価し、エラーパターンを分析し、Noisy ToolBenchと呼ばれる挑戦的なツール使用ベンチマークを構築した。
Ask-when-Needed (AwN) という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-31T23:06:12Z) - Human-Centered LLM-Agent User Interface: A Position Paper [8.675534401018407]
大規模言語モデル (LLM) - ループ内でのアプリケーションは、人間のコマンドを効果的に解釈できることが示されている。
基盤となるツールやシステムにほとんど無知なユーザは、LAUIを使って創発的なワークフローを見つけることができるべきです。
論文 参考訳(メタデータ) (2024-05-19T13:02:45Z) - User-LLM: Efficient LLM Contextualization with User Embeddings [23.226164112909643]
User-LLMは、ユーザ埋め込みを利用して、大きな言語モデルとユーザ履歴の相互作用を直接コンテキスト化する新しいフレームワークである。
提案手法では,ユーザタイムラインを直接埋め込みとして表現することで,最大78.1倍の高速化を実現している。
論文 参考訳(メタデータ) (2024-02-21T08:03:27Z) - LLMCheckup: Conversational Examination of Large Language Models via Interpretability Tools and Self-Explanations [26.340786701393768]
対話の形で説明を提供する解釈可能性ツールは,ユーザの理解を高める上で有効であることを示す。
しかしながら、対話ベースの説明のための現在のソリューションは、しばしば外部ツールやモジュールを必要とし、設計されていないタスクに簡単に転送できない。
ユーザがその振る舞いについて,最先端の大規模言語モデル(LLM)とチャットできる,アクセスしやすいツールを提案する。
論文 参考訳(メタデータ) (2024-01-23T09:11:07Z) - Knowledge Plugins: Enhancing Large Language Models for Domain-Specific
Recommendations [50.81844184210381]
本稿では,大規模言語モデルをDOmain固有のKnowledgEで拡張し,実践的アプリケーション,すなわちDOKEの性能を向上させるためのパラダイムを提案する。
このパラダイムはドメイン知識抽出器に依存し,1)タスクに効果的な知識を準備すること,2)特定のサンプルごとに知識を選択すること,3)LLMで理解可能な方法で知識を表現すること,の3つのステップで動作する。
論文 参考訳(メタデータ) (2023-11-16T07:09:38Z) - Augmented Large Language Models with Parametric Knowledge Guiding [72.71468058502228]
大規模言語モデル(LLM)は、言語理解と生成能力に優れた自然言語処理(NLP)を備えています。
それらのパフォーマンスは、関連するデータへの限られた露出のために専門的な知識を必要とするドメイン固有のタスクに最適であるかもしれない。
本稿では,LLMに関連知識にアクセスするための知識誘導モジュールを組み込んだ新しいPKGフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-08T15:05:16Z) - KGRGRL: A User's Permission Reasoning Method Based on Knowledge Graph
Reward Guidance Reinforcement Learning [13.26410704945674]
我々は、複数のドメインサイバースペースの知識グラフ(KG)を作成し、サイバースペースの標準的な意味記述を提供する。
サイバースペース内のすべてのパーミッションはノードとして表現され、エージェントは、ユーザの初期パーミッションとサイバースペースKGに従って、ユーザが保持できるすべてのパーミッションを見つけるように訓練される。
実験の結果,提案手法はユーザのパーミッションを推論し,ユーザのパーミッション推論手法のインテリジェンスレベルを向上することができることがわかった。
論文 参考訳(メタデータ) (2022-05-16T08:28:23Z) - Federated Learning of User Authentication Models [69.93965074814292]
機械学習モデルのプライバシー保護のためのフレームワークであるFederated User Authentication (FedUA)を提案する。
FedUAは、フェデレートされた学習フレームワークを採用して、ユーザが生の入力を共有することなく、共同でモデルをトレーニングできるようにする。
提案手法はプライバシ保護であり,多数のユーザに対してスケーラブルであることを示し,出力層を変更することなく,新たなユーザをトレーニングに追加できるようにした。
論文 参考訳(メタデータ) (2020-07-09T08:04:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。