論文の概要: MODP: Multi Objective Directional Prompting
- arxiv url: http://arxiv.org/abs/2504.18722v1
- Date: Fri, 25 Apr 2025 22:20:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:53.960729
- Title: MODP: Multi Objective Directional Prompting
- Title(参考訳): MODP:多目的指向型プロンプティング
- Authors: Aashutosh Nema, Samaksh Gulati, Evangelos Giakoumakis, Bipana Thapaliya,
- Abstract要約: MODP -- Multi Objective Directional Prompting -- は、2つの主要な概念に基づいたフレームワークである。
合成データセットを用いて要約作業における提案手法の有効性を実証する。
我々は,DellのNext Best Action支援ツールのプロンプト開発にMODPを適用した。
- 参考スコア(独自算出の注目度): 0.5999777817331317
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in large language models (LLMs) have led to their popularity across multiple use-cases. However, prompt engineering, the process for optimally utilizing such models, remains approximation-driven and subjective. Most of the current research on prompt engineering focuses on task-specific optimization, while neglecting the behavior of the LLM under consideration during prompt development. This paper introduces MODP -- Multi Objective Directional Prompting, a framework based on two key concepts: 1) multi-objectivity: the importance of considering an LLM's intrinsic behavior as an additional objective in prompt development, and 2) directional prompting: a metrics-driven method for prompt engineering to ensure development of robust and high-precision prompts. We demonstrate the effectiveness of our proposed ideas on a summarization task, using a synthetically created dataset, achieving a 26% performance gain over initial prompts. Finally, we apply MODP to develop prompts for Dell's Next Best Action support tool, which is now in production and is used by more than 10,000 internal support agents and serving millions of customers worldwide.
- Abstract(参考訳): 大規模言語モデル(LLM)の最近の進歩は、複数のユースケースで人気を博している。
しかし、そのようなモデルを最適に活用するプロセスであるプロンプトエンジニアリングは、近似駆動的で主観的のままである。
プロンプトエンジニアリングに関する現在の研究のほとんどはタスク固有の最適化に重点を置いており、即時開発において考慮されたLCMの挙動を無視している。
本稿では2つの主要な概念に基づくフレームワークであるMODP-Multi Objective Directional Promptingを紹介する。
1)多目的性:発達促進のための追加目的としてLLMの本質的な行動を考えることの重要性、
2)指向性プロンプト:ロバストで高精度なプロンプトの開発を保証するために,エンジニアリングをプロンプトするメトリクス駆動方式。
合成データセットを用いて,提案手法の要約作業における有効性を示し,初期プロンプトよりも26%の性能向上を実現した。
最後に、MODPを適用して、DellのNext Best Actionサポートツールのプロンプトを作成します。
関連論文リスト
- Collaborative Expert LLMs Guided Multi-Objective Molecular Optimization [51.104444856052204]
我々は,多目的分子最適化のための協調型大規模言語モデル(LLM)システムであるMultiMolを提案する。
6つの多目的最適化タスクに対する評価において、MultiMolは既存の手法を著しく上回り、82.30%の成功率を達成した。
論文 参考訳(メタデータ) (2025-03-05T13:47:55Z) - Multi2: Multi-Agent Test-Time Scalable Framework for Multi-Document Processing [35.686125031177234]
MDS(Multi-Document Summarization)は,複数の文書から有用な情報を抽出・合成することに焦点を当てた課題である。
本稿では,このタスクに推論時間スケーリングを利用する新しいフレームワークを提案する。
また,新しい評価指標として Consistency-Aware Preference (CAP) スコアと LLM Atom-Content-Unit (ACU) スコアがある。
論文 参考訳(メタデータ) (2025-02-27T23:34:47Z) - Forecasting Application Counts in Talent Acquisition Platforms: Harnessing Multimodal Signals using LMs [5.7623855432001445]
本稿では,採用領域における新たな課題,すなわちアプリケーション数予測について論じる。
本稿では,既存の自己回帰型時系列予測手法が,この課題に対して不十分であることを示す。
簡単なエンコーダを用いて,様々なモダリティの求人メタデータを融合したマルチモーダルLMモデルを提案する。
論文 参考訳(メタデータ) (2024-11-19T01:18:32Z) - Enhancing the Reasoning Ability of Multimodal Large Language Models via Mixed Preference Optimization [65.64108848398696]
我々は、MLLMのマルチモーダル推論能力を高めるために、選好最適化(PO)プロセスを導入する。
具体的には、自動選好データ構築パイプラインを設計し、高品質で大規模なマルチモーダル推論選好データセットであるMMPRを作成する。
マルチモーダルCoT性能を向上するMPO(Mixed Preference Optimization)と呼ばれるシンプルな手法を開発した。
論文 参考訳(メタデータ) (2024-11-15T18:59:27Z) - QPO: Query-dependent Prompt Optimization via Multi-Loop Offline Reinforcement Learning [58.767866109043055]
クエリ依存型プロンプト最適化(QPO)を導入し、入力クエリに合わせて最適なプロンプトを生成するために、小さな事前訓練された言語モデルを反復的に微調整する。
我々は、オープンソースのタスクに様々なプロンプトをベンチマークする副産物として、すでに大量に存在するオフラインのプロンプトデータから洞察を得る。
様々なLLMスケールと多様なNLPおよび数学タスクの実験は、ゼロショットと少数ショットの両方のシナリオにおいて、我々の手法の有効性とコスト効率を実証している。
論文 参考訳(メタデータ) (2024-08-20T03:06:48Z) - MAPO: Boosting Large Language Model Performance with Model-Adaptive Prompt Optimization [73.7779735046424]
異なるプロンプトを異なるLarge Language Models (LLM) に適応させることで,NLP の様々な下流タスクにまたがる機能の向上が期待できる。
次に、下流タスクにおける各LLMに対して、元のプロンプトを最適化するモデル適応プロンプト(MAPO)手法を提案する。
論文 参考訳(メタデータ) (2024-07-04T18:39:59Z) - Intuition-aware Mixture-of-Rank-1-Experts for Parameter Efficient Finetuning [50.73666458313015]
大規模言語モデル(LLM)はマルチメディアアプリケーションで複数のタスクを実行する上で大きな可能性を証明している。
MoEは、効率的なタスクデカップリングのためのスパースアーキテクチャによる有望なソリューションとして登場した。
Intuition-MoR1Eは14のパブリックデータセットで優れた効率と2.15%の全体的な精度向上を実現している。
論文 参考訳(メタデータ) (2024-04-13T12:14:58Z) - Efficient Prompting Methods for Large Language Models: A Survey [50.82812214830023]
効率的なプロンプティング手法は幅広い注目を集めている。
本稿では,異なるプロンプト成分に対する自動プロンプトエンジニアリングと連続空間および離散空間におけるプロンプト圧縮について論じる。
論文 参考訳(メタデータ) (2024-04-01T12:19:08Z) - Towards Generalist Prompting for Large Language Models by Mental Models [105.03747314550591]
大規模言語モデル(LLM)は多くのタスクにおいて素晴らしいパフォーマンスを示している。
最適な性能を達成するには、特別に設計されたプロンプト法が必要である。
本稿では,最適あるいは準最適性能を実現する設計原理に基づくジェネラリストプロンプトの概念を紹介する。
論文 参考訳(メタデータ) (2024-02-28T11:29:09Z) - PRompt Optimization in Multi-Step Tasks (PROMST): Integrating Human Feedback and Heuristic-based Sampling [20.0605311279483]
マルチステップタスク(PROMST)におけるPRompt Optimizationを導入する。
人間が設計したフィードバックルールを組み込んで、改善のための直接提案を自動的に提供する。
これは、人間工学的なプロンプトと、他のいくつかのプロンプト最適化手法の両方において、11の代表的なマルチステップタスクよりも大幅に優れている。
論文 参考訳(メタデータ) (2024-02-13T16:38:01Z) - LAMM: Language-Assisted Multi-Modal Instruction-Tuning Dataset,
Framework, and Benchmark [81.42376626294812]
本稿では,Language-Assisted Multi-Modalインストラクションチューニングデータセット,フレームワーク,ベンチマークを提案する。
我々の目標は、MLLMのトレーニングと評価のための成長するエコシステムとしてLAMMを確立することです。
本稿では,2次元および3次元視覚のための広範囲な視覚タスクをカバーする包括的データセットとベンチマークを提案する。
論文 参考訳(メタデータ) (2023-06-11T14:01:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。