論文の概要: MOPO: Multi-Objective Prompt Optimization for Affective Text Generation
- arxiv url: http://arxiv.org/abs/2412.12948v1
- Date: Tue, 17 Dec 2024 14:28:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-18 13:59:27.087202
- Title: MOPO: Multi-Objective Prompt Optimization for Affective Text Generation
- Title(参考訳): MOPO: 影響のあるテキスト生成のための多目的プロンプト最適化
- Authors: Yarik Menchaca Resendiz, Roman Klinger,
- Abstract要約: 感情がどのように表現されるかは、文脈や領域によって異なる。
マルチオブジェクト・プロンプト最適化手法であるMOPOを紹介する。
様々なドメイン固有感情分類器によって決定される3つの目的を用いてMOPOを評価する。
- 参考スコア(独自算出の注目度): 9.088303226909277
- License:
- Abstract: How emotions are expressed depends on the context and domain. On X (formerly Twitter), for instance, an author might simply use the hashtag #anger, while in a news headline, emotions are typically written in a more polite, indirect manner. To enable conditional text generation models to create emotionally connotated texts that fit a domain, users need to have access to a parameter that allows them to choose the appropriate way to express an emotion. To achieve this, we introduce MOPO, a Multi-Objective Prompt Optimization methodology. MOPO optimizes prompts according to multiple objectives (which correspond here to the output probabilities assigned by emotion classifiers trained for different domains). In contrast to single objective optimization, MOPO outputs a set of prompts, each with a different weighting of the multiple objectives. Users can then choose the most appropriate prompt for their context. We evaluate MOPO using three objectives, determined by various domain-specific emotion classifiers. MOPO improves performance by up to 15 pp across all objectives with a minimal loss (1-2 pp) for any single objective compared to single-objective optimization. These minor performance losses are offset by a broader generalization across multiple objectives - which is not possible with single-objective optimization. Additionally, MOPO reduces computational requirements by simultaneously optimizing for multiple objectives, eliminating separate optimization procedures for each objective.
- Abstract(参考訳): 感情がどのように表現されるかは、文脈や領域によって異なる。
例えば、X(以前のTwitter)では、著者は単に#angerというハッシュタグを使うが、ニュースの見出しでは、感情はより丁寧で間接的な方法で書かれる。
条件付きテキスト生成モデルによって、ドメインに適合する感情的な意味のあるテキストを作成するためには、ユーザーは感情を表現する適切な方法を選択するパラメータにアクセスする必要がある。
そこで本研究では,MOPO(Multi-Objective Prompt Optimization Method)を紹介する。
MOPOは複数の目的に応じてプロンプトを最適化する(これは異なるドメインで訓練された感情分類器によって割り当てられた出力確率に対応する)。
単目的最適化とは対照的に、MOPOは複数の目的の異なる重み付けを持つ一連のプロンプトを出力する。
ユーザーはコンテキストに対して最も適切なプロンプトを選択することができる。
様々なドメイン固有感情分類器によって決定される3つの目的を用いてMOPOを評価する。
MOPOは、単一目的の最適化と比較して、任意の目的に対して最小の損失(1-2 pp)で、すべての目的に対して最大15ppの性能を改善する。
これらの小さなパフォーマンス損失は、複数の目的にまたがるより広範な一般化によって相殺される。
さらに、MOPOは複数の目的を同時に最適化することで計算要求を減らし、目的ごとに個別の最適化手順を廃止する。
関連論文リスト
- Self-Improvement Towards Pareto Optimality: Mitigating Preference Conflicts in Multi-Objective Alignment [74.25832963097658]
マルチオブジェクトアライメント(MOA)は、応答を複数の人間の嗜好目標に合わせることを目的としている。
DPOをベースとしたMOAアプローチは、データに広範囲にわたる優先的対立に悩まされている。
論文 参考訳(メタデータ) (2025-02-20T08:27:00Z) - Multi-Objective Planning with Contextual Lexicographic Reward Preferences [5.207917381770368]
本稿では,コンテキストに応じて,様々な語彙的対象順序で計画を可能にする枠組みを提案する。
CLMDPでは、状態における目的順序と関連する報酬関数の両方がコンテキストによって決定される。
CLMDPを解くアルゴリズムは、まず、目的の注文ごとにポリシーを計算し、それらを単一のコンテキスト対応ポリシーに結合する。
論文 参考訳(メタデータ) (2025-02-13T19:04:22Z) - CHiP: Cross-modal Hierarchical Direct Preference Optimization for Multimodal LLMs [107.21334626890713]
MLLM(Multimodal Large Language Models)は、その優れた能力にもかかわらず、幻覚に苦しむ。
本稿では,これらの制約に対処するクロスモーダル階層型直接選好最適化(CHiP)を提案する。
定量的および定性的な分析によってCHiPを評価し,幻覚の低減効果を複数のベンチマークで実証した。
論文 参考訳(メタデータ) (2025-01-28T02:05:38Z) - MM-PoE: Multiple Choice Reasoning via. Process of Elimination using Multi-Modal Models [0.0]
本稿では,マルチモーダルモデルを用いた除去プロセスについて述べる。
この手法は、視覚的多面的推論タスクにおける視覚言語モデル(VLM)の有効性を高めるために設計されている。
3つのベンチマークデータセットで実施した経験的評価の結果,MM-PoEはゼロショットと少数ショットの両方のパフォーマンスを著しく改善することがわかった。
論文 参考訳(メタデータ) (2024-12-10T03:13:41Z) - Decoding-Time Language Model Alignment with Multiple Objectives [116.42095026960598]
既存の手法は主に、1つの報酬関数に対してLMを最適化することに集中し、それらの適応性は様々な目的に制限される。
本稿では,予測の線形結合から次のトークンを出力する復号時間アルゴリズムである$textbfmulti-objective decoding (MOD)$を提案する。
提案手法は, 自然条件下であっても, 既存のアプローチが準最適であることを示すとともに, 提案手法の最適性を保証する。
論文 参考訳(メタデータ) (2024-06-27T02:46:30Z) - Meta-Task Prompting Elicits Embeddings from Large Language Models [54.757445048329735]
本稿では,新しい教師なしテキスト埋め込み手法であるMeta-Task Prompting with Explicit One-Word Limitationを紹介する。
モデル微調整を必要とせずに,大規模言語モデルから高品質な文埋め込みを生成する。
提案法は,多種多様なシナリオにまたがって生成を組み込む汎用的で資源効率のよい手法を提供する。
論文 参考訳(メタデータ) (2024-02-28T16:35:52Z) - Beyond One-Preference-Fits-All Alignment: Multi-Objective Direct Preference Optimization [76.09576643028362]
複数のアライメント目的に対してMODPO(Multi-Objective Direct Preference Optimization)を提案する。
MODPOは、言語モデリングを直接報酬モデルに折り畳み、暗黙の集団報酬モデルとして言語モデルを訓練する。
理論的には MORLHF と同じ最適解が得られるが、実質的にはより安定で効率的である。
論文 参考訳(メタデータ) (2023-10-05T17:35:26Z) - Parallel Multi-Objective Hyperparameter Optimization with Uniform
Normalization and Bounded Objectives [5.94867851915494]
これらの問題に対処する多目的ベイズ最適化(MoBO)アルゴリズムを提案する。
不要な構成の探索を避けるため、目的に制約を課すことで、アプローチの効率を向上する。
最後に、MoBOを並列化するアプローチを活用し、16倍のワーカーを使用する場合、5倍のスピードアップをもたらす。
論文 参考訳(メタデータ) (2023-09-26T13:48:04Z) - Optimized Generic Feature Learning for Few-shot Classification across
Domains [96.4224578618561]
我々は、ハイパーパラメータ最適化(HPO)の検証対象として、クロスドメイン、クロスタスクデータを用いることを提案する。
本手法は,領域内および領域内における少数ショット画像分類における有効性を示す。
学習した機能は、以前の数ショットとメタラーニングのアプローチよりも優れています。
論文 参考訳(メタデータ) (2020-01-22T09:31:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。