論文の概要: LISTEN to Your Preferences: An LLM Framework for Multi-Objective Selection
- arxiv url: http://arxiv.org/abs/2510.25799v1
- Date: Wed, 29 Oct 2025 03:17:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.494036
- Title: LISTEN to Your Preferences: An LLM Framework for Multi-Objective Selection
- Title(参考訳): LISTEN to your preferences: a LLM Framework for Multi-Objective Selection
- Authors: Adam S. Jovine, Tinghan Ye, Francis Bahk, Jingjing Wang, David B. Shmoys, Peter I. Frazier,
- Abstract要約: LISTENは、Large Language Model(LLM)をゼロショットの選好オラクルとして活用するフレームワークである。
LISTEN-Uは嗜好がパラメトリックに一致している場合に優れ、LISTEN-Tはより堅牢な性能を提供する。
この研究は、複雑な多目的決定を直接自然言語で操るための有望な方向を探究する。
- 参考スコア(独自算出の注目度): 8.355352653283516
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human experts often struggle to select the best option from a large set of items with multiple competing objectives, a process bottlenecked by the difficulty of formalizing complex, implicit preferences. To address this, we introduce LISTEN, a framework that leverages a Large Language Model (LLM) as a zero-shot preference oracle, guided only by an expert's high-level priorities in natural language. To operate within LLM constraints like context windows and inference costs, we propose two iterative algorithms: LISTEN-U, which uses the LLM to refine a parametric utility function, and LISTEN-T, a non-parametric method that performs tournament-style selections over small batches of solutions. Evaluated on diverse tasks including flight booking, shopping, and exam scheduling, our results show LISTEN-U excels when preferences are parametrically aligned (a property we measure with a novel concordance metric), while LISTEN-T offers more robust performance. This work explores a promising direction for steering complex multi-objective decisions directly with natural language, reducing the cognitive burden of traditional preference elicitation.
- Abstract(参考訳): 人間の専門家は、複雑な暗黙の選好を形式化することの難しさに悩まされるプロセスである、複数の競合する目的を持つ大きな項目から、最良の選択肢を選択するのに苦労することが多い。
これを解決するために、LISTENは、Large Language Model(LLM)をゼロショットの選好オラクルとして活用するフレームワークであり、専門家の自然言語における高レベルの優先順位によってのみガイドされる。
コンテクストウィンドウや推論コストといった LLM 制約内での動作には,LLM を用いて並列効用関数を洗練させる LISTEN-U と,小型のソリューションに対してトーナメントスタイルの選択を行う LISTEN-T という2つの反復アルゴリズムを提案する。
フライト予約,ショッピング,試験スケジュールなどの多種多様なタスクを評価した結果,LISTEN-Uは嗜好がパラメトリックに整合している場合(新しいコンコータンス基準で測定した特性)に優れ,LISTEN-Tはより堅牢な性能を提供することがわかった。
この研究は、複雑な多目的決定を直接自然言語で操る上で有望な方向を探究し、従来の嗜好誘発の認知的負担を軽減する。
関連論文リスト
- LLMAP: LLM-Assisted Multi-Objective Route Planning with User Preferences [31.10423199218523]
大規模言語モデル(LLM)の台頭により、リッチなユーザ目標を含む新たな研究領域を自然言語駆動で計画するルートが生まれている。
本稿では,自然言語を理解し,タスクを識別し,ユーザの好みを抽出するLLM-asタスクを提案する。
世界中の14の国と27の都市で、様々な複雑さでサンプリングされた1000のルーティングプロンプトを用いて広範な実験を行っている。
論文 参考訳(メタデータ) (2025-09-14T02:30:19Z) - LLM-Lasso: A Robust Framework for Domain-Informed Feature Selection and Regularization [59.75242204923353]
LLM-Lassoは大規模言語モデル(LLM)を利用してラッソ回帰における特徴選択を導くフレームワークである。
LLMは各特徴に対してペナルティ因子を生成し、単純でチューニング可能なモデルを用いてラスソペナルティの重みに変換される。
LLMによりより関連づけられた特徴は、より低い罰を受け、最終モデルに保持される可能性を高める。
論文 参考訳(メタデータ) (2025-02-15T02:55:22Z) - Few-shot Steerable Alignment: Adapting Rewards and LLM Policies with Neural Processes [50.544186914115045]
大きな言語モデル(LLM)は、日々のアプリケーションにますます組み込まれています。
個人ユーザの多様な嗜好との整合性を確保することは、重要な課題となっている。
数発のステアライメントのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-18T16:14:59Z) - MetaAlign: Align Large Language Models with Diverse Preferences during Inference Time [50.41806216615488]
大規模言語モデル(LLM)は、広範なテキストコーパスから広範な知識と顕著な能力を取得する。
LLMをより使いやすくするためには、それらを人間の好みに合わせることが不可欠である。
提案手法は,LLMが推論時に指定される様々な明示的あるいは暗黙的な選好と動的に整合するのを支援することを目的としている。
論文 参考訳(メタデータ) (2024-10-18T05:31:13Z) - SelectLLM: Query-Aware Efficient Selection Algorithm for Large Language Models [8.558834738072363]
大規模言語モデル(LLM)は、様々なアプリケーションにまたがる顕著な性能のために広く採用されている。
これらの個々のLCMは、固有のトレーニングバイアス、モデルサイズ制約、トレーニング前のデータセットの品質や多様性による、複雑なタスクの一般化とパフォーマンスの制限を示す。
本稿では,入力クエリをLLMの最も適切なサブセットに効率的に誘導するSelectLLMを紹介する。
論文 参考訳(メタデータ) (2024-08-16T06:11:21Z) - Sample Efficient Preference Alignment in LLMs via Active Exploration [63.84454768573154]
良い政策を最も効率的に特定するために、人間のフィードバックを得るコンテキストをしばしば選択できるという事実を活用します。
本稿では,データを効率的に選択する能動的探索アルゴリズムを提案する。
提案手法は,複数の言語モデルと4つの実世界のデータセットに対する人間の嗜好の限られたサンプルを用いて,ベースラインよりも優れる。
論文 参考訳(メタデータ) (2023-12-01T00:54:02Z) - PALR: Personalization Aware LLMs for Recommendation [7.407353565043918]
PALRは、ユーザ履歴の振る舞い(クリック、購入、評価など)と大きな言語モデル(LLM)を組み合わせることで、ユーザの好むアイテムを生成することを目的としている。
我々のソリューションは、様々なシーケンシャルなレコメンデーションタスクにおいて最先端のモデルよりも優れています。
論文 参考訳(メタデータ) (2023-05-12T17:21:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。