論文の概要: MOPO: Multi-Objective Prompt Optimization for Affective Text Generation
- arxiv url: http://arxiv.org/abs/2412.12948v1
- Date: Tue, 17 Dec 2024 14:28:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-18 13:59:27.087202
- Title: MOPO: Multi-Objective Prompt Optimization for Affective Text Generation
- Title(参考訳): MOPO: 影響のあるテキスト生成のための多目的プロンプト最適化
- Authors: Yarik Menchaca Resendiz, Roman Klinger,
- Abstract要約: 感情がどのように表現されるかは、文脈や領域によって異なる。
マルチオブジェクト・プロンプト最適化手法であるMOPOを紹介する。
様々なドメイン固有感情分類器によって決定される3つの目的を用いてMOPOを評価する。
- 参考スコア(独自算出の注目度): 9.088303226909277
- License:
- Abstract: How emotions are expressed depends on the context and domain. On X (formerly Twitter), for instance, an author might simply use the hashtag #anger, while in a news headline, emotions are typically written in a more polite, indirect manner. To enable conditional text generation models to create emotionally connotated texts that fit a domain, users need to have access to a parameter that allows them to choose the appropriate way to express an emotion. To achieve this, we introduce MOPO, a Multi-Objective Prompt Optimization methodology. MOPO optimizes prompts according to multiple objectives (which correspond here to the output probabilities assigned by emotion classifiers trained for different domains). In contrast to single objective optimization, MOPO outputs a set of prompts, each with a different weighting of the multiple objectives. Users can then choose the most appropriate prompt for their context. We evaluate MOPO using three objectives, determined by various domain-specific emotion classifiers. MOPO improves performance by up to 15 pp across all objectives with a minimal loss (1-2 pp) for any single objective compared to single-objective optimization. These minor performance losses are offset by a broader generalization across multiple objectives - which is not possible with single-objective optimization. Additionally, MOPO reduces computational requirements by simultaneously optimizing for multiple objectives, eliminating separate optimization procedures for each objective.
- Abstract(参考訳): 感情がどのように表現されるかは、文脈や領域によって異なる。
例えば、X(以前のTwitter)では、著者は単に#angerというハッシュタグを使うが、ニュースの見出しでは、感情はより丁寧で間接的な方法で書かれる。
条件付きテキスト生成モデルによって、ドメインに適合する感情的な意味のあるテキストを作成するためには、ユーザーは感情を表現する適切な方法を選択するパラメータにアクセスする必要がある。
そこで本研究では,MOPO(Multi-Objective Prompt Optimization Method)を紹介する。
MOPOは複数の目的に応じてプロンプトを最適化する(これは異なるドメインで訓練された感情分類器によって割り当てられた出力確率に対応する)。
単目的最適化とは対照的に、MOPOは複数の目的の異なる重み付けを持つ一連のプロンプトを出力する。
ユーザーはコンテキストに対して最も適切なプロンプトを選択することができる。
様々なドメイン固有感情分類器によって決定される3つの目的を用いてMOPOを評価する。
MOPOは、単一目的の最適化と比較して、任意の目的に対して最小の損失(1-2 pp)で、すべての目的に対して最大15ppの性能を改善する。
これらの小さなパフォーマンス損失は、複数の目的にまたがるより広範な一般化によって相殺される。
さらに、MOPOは複数の目的を同時に最適化することで計算要求を減らし、目的ごとに個別の最適化手順を廃止する。
関連論文リスト
- MetaAlign: Align Large Language Models with Diverse Preferences during Inference Time [50.41806216615488]
大規模言語モデル(LLM)は、広範なテキストコーパスから広範な知識と顕著な能力を取得する。
LLMをより使いやすくするためには、それらを人間の好みに合わせることが不可欠である。
提案手法は,LLMが推論時に指定される様々な明示的あるいは暗黙的な選好と動的に整合するのを支援することを目的としている。
論文 参考訳(メタデータ) (2024-10-18T05:31:13Z) - Decoding-Time Language Model Alignment with Multiple Objectives [116.42095026960598]
既存の手法は主に、1つの報酬関数に対してLMを最適化することに集中し、それらの適応性は様々な目的に制限される。
本稿では,予測の線形結合から次のトークンを出力する復号時間アルゴリズムである$textbfmulti-objective decoding (MOD)$を提案する。
提案手法は, 自然条件下であっても, 既存のアプローチが準最適であることを示すとともに, 提案手法の最適性を保証する。
論文 参考訳(メタデータ) (2024-06-27T02:46:30Z) - mDPO: Conditional Preference Optimization for Multimodal Large Language Models [52.607764280030196]
直接選好最適化(DPO)は,大規模言語モデル(LLM)のアライメントに有効な手法であることが示されている。
最近の研究は、DPOをマルチモーダルシナリオに適用しようと試みているが、一貫した改善を達成することは困難である。
画像の嗜好を最適化することで、言語のみの嗜好の過度な優先順位付けを防止するマルチモーダルDPOであるmDPOを提案する。
論文 参考訳(メタデータ) (2024-06-17T17:59:58Z) - Meta-Task Prompting Elicits Embeddings from Large Language Models [54.757445048329735]
本稿では,新しい教師なしテキスト埋め込み手法であるMeta-Task Prompting with Explicit One-Word Limitationを紹介する。
モデル微調整を必要とせずに,大規模言語モデルから高品質な文埋め込みを生成する。
提案法は,多種多様なシナリオにまたがって生成を組み込む汎用的で資源効率のよい手法を提供する。
論文 参考訳(メタデータ) (2024-02-28T16:35:52Z) - Evolutionary Multi-Objective Optimization of Large Language Model
Prompts for Balancing Sentiments [0.0]
EMO-Promptsと呼ばれる迅速な最適化に適した進化的多目的(EMO)アプローチを提案する。
EMO-Prompts は,2つの矛盾する感情を同時に表わしたテキストを生成するために LLM を誘導できるプロンプトを効果的に生成することを示した。
論文 参考訳(メタデータ) (2024-01-18T10:21:15Z) - Beyond One-Preference-Fits-All Alignment: Multi-Objective Direct Preference Optimization [76.09576643028362]
複数のアライメント目的に対してMODPO(Multi-Objective Direct Preference Optimization)を提案する。
MODPOは、言語モデリングを直接報酬モデルに折り畳み、暗黙の集団報酬モデルとして言語モデルを訓練する。
理論的には MORLHF と同じ最適解が得られるが、実質的にはより安定で効率的である。
論文 参考訳(メタデータ) (2023-10-05T17:35:26Z) - Parallel Multi-Objective Hyperparameter Optimization with Uniform
Normalization and Bounded Objectives [5.94867851915494]
これらの問題に対処する多目的ベイズ最適化(MoBO)アルゴリズムを提案する。
不要な構成の探索を避けるため、目的に制約を課すことで、アプローチの効率を向上する。
最後に、MoBOを並列化するアプローチを活用し、16倍のワーカーを使用する場合、5倍のスピードアップをもたらす。
論文 参考訳(メタデータ) (2023-09-26T13:48:04Z) - Multi-Objective Quality Diversity Optimization [2.4608515808275455]
MOME(Multi-Objective MAP-Elites)の多目的設定におけるMAP-Elitesアルゴリズムの拡張を提案する。
すなわち、MAP-Elitesグリッドアルゴリズムから受け継いだ多様性と、多目的最適化の強みを組み合わせる。
本手法は,標準的な最適化問題からロボットシミュレーションまで,いくつかのタスクで評価する。
論文 参考訳(メタデータ) (2022-02-07T10:48:28Z) - Practical Bayesian Optimization of Objectives with Conditioning
Variables [1.0497128347190048]
ユーザが複数の問題に直面している場合、状態変数に対してそれぞれを条件付きで最適化する必要がある場合を考える。
目的間の類似性は、それぞれの目的を2つの方法で最適化する。
本稿では条件最適化のためのフレームワークであるConBOを提案する。
論文 参考訳(メタデータ) (2020-02-23T22:06:26Z) - Optimized Generic Feature Learning for Few-shot Classification across
Domains [96.4224578618561]
我々は、ハイパーパラメータ最適化(HPO)の検証対象として、クロスドメイン、クロスタスクデータを用いることを提案する。
本手法は,領域内および領域内における少数ショット画像分類における有効性を示す。
学習した機能は、以前の数ショットとメタラーニングのアプローチよりも優れています。
論文 参考訳(メタデータ) (2020-01-22T09:31:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。