論文の概要: Collaborative Development of NLP models
- arxiv url: http://arxiv.org/abs/2305.12219v1
- Date: Sat, 20 May 2023 15:55:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 23:48:00.331937
- Title: Collaborative Development of NLP models
- Title(参考訳): NLPモデルの協調開発
- Authors: Fereshte Khani, Marco Tulio Ribeiro
- Abstract要約: 我々は,NLPモデルとのマルチユーザインタラクションを実現するフレームワークであるCoDevを紹介する。
CoDevは、ユーザーが大規模言語モデルを使って概念を運用するのを助ける。
次に、大きな言語モデルを使って、ローカルとグローバルの意見が一致しない概念境界内のインスタンスを生成します。
- 参考スコア(独自算出の注目度): 6.22933818252838
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite substantial advancements, Natural Language Processing (NLP) models
often require post-training adjustments to enforce business rules, rectify
undesired behavior, and align with user values. These adjustments involve
operationalizing "concepts"--dictating desired model responses to certain
inputs. However, it's difficult for a single entity to enumerate and define all
possible concepts, indicating a need for a multi-user, collaborative model
alignment framework. Moreover, the exhaustive delineation of a concept is
challenging, and an improper approach can create shortcuts or interfere with
original data or other concepts.
To address these challenges, we introduce CoDev, a framework that enables
multi-user interaction with the model, thereby mitigating individual
limitations. CoDev aids users in operationalizing their concepts using Large
Language Models, and relying on the principle that NLP models exhibit simpler
behaviors in local regions. Our main insight is learning a \emph{local} model
for each concept, and a \emph{global} model to integrate the original data with
all concepts. We then steer a large language model to generate instances within
concept boundaries where local and global disagree. Our experiments show CoDev
is effective at helping multiple users operationalize concepts and avoid
interference for a variety of scenarios, tasks, and models.
- Abstract(参考訳): 実質的な進歩にもかかわらず、自然言語処理(nlp)モデルは、しばしばビジネスルールを強制し、望ましくない振る舞いを正し、ユーザー価値に合わせるためにトレーニング後の調整を必要とする。
これらの調整には、特定の入力に対する望ましいモデル応答を指示する「概念」の運用が含まれる。
しかし、単一のエンティティがすべての可能な概念を列挙し定義することは困難であり、マルチユーザーで協調的なモデルアライメントフレームワークの必要性を示している。
さらに、概念の徹底的な記述は困難であり、不適切なアプローチは、ショートカットを作成したり、オリジナルのデータや他の概念に干渉することができる。
これらの課題に対処するために,モデルとのマルチユーザインタラクションを可能にするフレームワークであるCoDevを導入する。
CoDevは、ユーザがLarge Language Modelsを使って概念を運用するのを支援し、NLPモデルはローカルリージョンでより単純な振る舞いを示すという原則に依存している。
私たちのおもな洞察は,各概念に対する \emph{local} モデルと,元のデータをすべての概念に統合するための \emph{global} モデルを学ぶことです。
次に、大きな言語モデルを使って、ローカルとグローバルの意見が一致しない概念境界内のインスタンスを生成します。
実験の結果,CoDevは複数のユーザが概念を運用し,さまざまなシナリオやタスク,モデルに対する干渉を避けるのに有効であることがわかった。
関連論文リスト
- Conditional Language Policy: A General Framework for Steerable Multi-Objective Finetuning [72.46388818127105]
Conditional Language Policy (CLP) は、複数の目的に対して言語モデルを微調整するためのフレームワークである。
CLPは、推論時に競合する目的を効果的にトレードオフするステアブルモデルを学ぶ。
論文 参考訳(メタデータ) (2024-07-22T16:13:38Z) - MAP: Low-compute Model Merging with Amortized Pareto Fronts via Quadratic Approximation [80.47072100963017]
Amortized Pareto Front (MAP) を用いた新しい低演算アルゴリズム Model Merging を導入する。
MAPは、複数のモデルをマージするためのスケーリング係数のセットを効率的に識別し、関連するトレードオフを反映する。
また,タスク数が比較的少ないシナリオではベイジアンMAP,タスク数の多い状況ではNested MAPを導入し,計算コストを削減した。
論文 参考訳(メタデータ) (2024-06-11T17:55:25Z) - Improving Intervention Efficacy via Concept Realignment in Concept Bottleneck Models [57.86303579812877]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、人間の理解可能な概念に基づいて、解釈可能なモデル決定を可能にする画像分類である。
既存のアプローチは、強いパフォーマンスを達成するために、画像ごとに多数の人間の介入を必要とすることが多い。
本稿では,概念関係を利用した学習型概念認識介入モジュールについて紹介する。
論文 参考訳(メタデータ) (2024-05-02T17:59:01Z) - Orthogonal Adaptation for Modular Customization of Diffusion Models [39.62438974450659]
我々は、カスタマイズされたモデルを効率的にマージすることを目的として、Modular Customizationと呼ばれる新しい問題に対処する。
直交適応(Orthogonal Adaptation, Orthogonal Adaptation)は,微調整時に相互にアクセスできないカスタマイズモデルを支援する手法である。
提案手法は単純かつ汎用的であり,モデルアーキテクチャのほぼすべての最適化可能な重みに適用可能である。
論文 参考訳(メタデータ) (2023-12-05T02:17:48Z) - Auxiliary Losses for Learning Generalizable Concept-based Models [5.4066453042367435]
コンセプト・ボトルネック・モデル (Concept Bottleneck Models, CBM) は導入以来人気を集めている。
CBMは基本的に、モデルの潜在空間を人間に理解可能な高レベルな概念に制限する。
本稿では,協調型コンセプション・ボトルネックモデル(coop-CBM)を提案し,性能トレードオフを克服する。
論文 参考訳(メタデータ) (2023-11-18T15:50:07Z) - Mix-of-Show: Decentralized Low-Rank Adaptation for Multi-Concept
Customization of Diffusion Models [72.67967883658957]
低ランク適応(LoRA)を用いた新しい概念に対して、公共の大規模テキスト・画像拡散モデルを簡単にカスタマイズできる。
複数のカスタマイズされた概念を共同でサポートするために複数の概念LoRAを利用することは、課題である。
我々は、分散化されたマルチコンセプトカスタマイズの課題に対処するMix-of-Showと呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-29T17:58:16Z) - Concept-Centric Transformers: Enhancing Model Interpretability through
Object-Centric Concept Learning within a Shared Global Workspace [1.6574413179773757]
概念中心変換器は、解釈可能性のための共有グローバルワークスペースの単純かつ効果的な構成である。
本モデルでは,すべての問題に対して,すべてのベースラインの分類精度が向上することを示す。
論文 参考訳(メタデータ) (2023-05-25T06:37:39Z) - eP-ALM: Efficient Perceptual Augmentation of Language Models [70.47962271121389]
本稿では,既存モデルの適応性を向上するための直接的な取り組みを提案し,認識を伴う言語モデルの拡張を提案する。
視覚言語タスクに事前訓練されたモデルを適用するための既存のアプローチは、その効率を妨げているいくつかの重要なコンポーネントに依存している。
総パラメータの99%以上を凍結し,1つの直線射影層のみをトレーニングし,1つのトレーニング可能なトークンのみを予測することにより,我々のアプローチ(eP-ALM)は,VQAとCaptioningの他のベースラインよりも有意に優れていることを示す。
論文 参考訳(メタデータ) (2023-03-20T19:20:34Z) - Concept-modulated model-based offline reinforcement learning for rapid
generalization [5.512991103610139]
本研究では,環境概念や非教師付き手法で学習したダイナミックスに制約されたシナリオを自己生成する手法を提案する。
特に、エージェントの環境の内部モデルは、エージェントの動作に敏感な入力空間の低次元概念表現に条件付けされる。
モデルベースおよびモデルフリーアプローチと比較して,特定の障害事例の異なるインスタンスに対するワンショット一般化の劇的な改善と,同様のバリエーションに対するゼロショット一般化を示す。
論文 参考訳(メタデータ) (2022-09-07T15:06:38Z) - Conditional Generative Modeling via Learning the Latent Space [54.620761775441046]
マルチモーダル空間における条件生成のための新しい枠組みを提案する。
潜在変数を使って一般化可能な学習パターンをモデル化する。
推論では、潜伏変数は複数の出力モードに対応する最適解を見つけるために最適化される。
論文 参考訳(メタデータ) (2020-10-07T03:11:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。