論文の概要: Pathways of Thoughts: Multi-Directional Thinking for Long-form Personalized Question Answering
- arxiv url: http://arxiv.org/abs/2509.19094v1
- Date: Tue, 23 Sep 2025 14:44:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.903095
- Title: Pathways of Thoughts: Multi-Directional Thinking for Long-form Personalized Question Answering
- Title(参考訳): 思考の道--長文パーソナライズされた質問回答のための多方向思考
- Authors: Alireza Salemi, Cheng Li, Mingyang Zhang, Qiaozhu Mei, Zhuowan Li, Spurthi Amba Hombaiah, Weize Kong, Tao Chen, Hamed Zamani, Michael Bendersky,
- Abstract要約: ユーザ固有の情報ニーズに質問応答システムを適用するためには,パーソナライゼーションが不可欠である。
本稿では,タスク固有の微調整を必要とせず,任意の大規模言語モデル (LLM) に適用可能な推論段階の方法として,思考の経路 (PoT) を提案する。
PoTは競争ベースラインを一貫して上回り、13.1%の相対的な改善を達成している。
- 参考スコア(独自算出の注目度): 57.12316804290369
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Personalization is essential for adapting question answering (QA) systems to user-specific information needs, thereby improving both accuracy and user satisfaction. However, personalized QA remains relatively underexplored due to challenges such as inferring preferences from long, noisy, and implicit contexts, and generating responses that are simultaneously correct, contextually appropriate, and aligned with user expectations and background knowledge. To address these challenges, we propose Pathways of Thoughts (PoT), an inference-stage method that applies to any large language model (LLM) without requiring task-specific fine-tuning. The approach models the reasoning of an LLM as an iterative decision process, where the model dynamically selects among cognitive operations such as reasoning, revision, personalization, and clarification. This enables exploration of multiple reasoning trajectories, producing diverse candidate responses that capture different perspectives. PoT then aggregates and reweights these candidates according to inferred user preferences, yielding a final personalized response that benefits from the complementary strengths of diverse reasoning paths. Experiments on the LaMP-QA benchmark for personalized QA show that PoT consistently outperforms competitive baselines, achieving up to a 13.1% relative improvement. Human evaluation corroborates these results, with annotators preferring outputs from PoT in 66% of cases and reporting ties in only 15% of cases.
- Abstract(参考訳): 質問応答システム(QA)をユーザ固有の情報ニーズに適応させるためには,パーソナライゼーションが不可欠である。
しかし、パーソナライズされたQAは、長い、騒々しい、暗黙的なコンテキストからの好みの推測や、同時に正しい、文脈的に適切で、ユーザの期待やバックグラウンド知識に適合する応答の生成といった課題のために、比較的過小評価されている。
これらの課題に対処するために,タスク固有の微調整を必要とせず,任意の大規模言語モデル(LLM)に適用可能な推論段階の方法であるPoT(Pathways of Thoughts)を提案する。
アプローチは、LCMの推論を反復的決定プロセスとしてモデル化し、モデルが推論、リビジョン、パーソナライゼーション、明確化などの認知操作を動的に選択する。
これにより、複数の推論軌道の探索が可能となり、異なる視点を捉える様々な候補応答が生成される。
次にPoTは、これらの候補を推測されたユーザの好みに応じて集約し、再重み付けし、さまざまな推論パスの相補的な長所から、最終的なパーソナライズされた応答をもたらす。
パーソナライズされたQAのためのLaMP-QAベンチマークの実験では、PoTは競争ベースラインを一貫して上回り、13.1%の相対的な改善を達成している。
人間の評価はこれらの結果を裏付けるものであり、アノテーションはPoTからの出力を66%で好んでおり、15%しか報告していない。
関連論文リスト
- LaMP-QA: A Benchmark for Personalized Long-form Question Answering [37.909483957959715]
パーソナライズされた長文回答生成を評価するために設計されたベンチマークであるLaMP-QAを紹介する。
本ベンチマークでは,(1)芸術・エンターテイメント,(2)ライフスタイル・アンド・パーソナル・デベロップメント,(3)社会・文化の3つのカテゴリーを対象とし,45以上のサブカテゴリを対象とする。
その結果、パーソナライズされたコンテキストを組み込むことで、最大で39%のパフォーマンス改善が達成された。
論文 参考訳(メタデータ) (2025-05-30T18:16:03Z) - Dancing with Critiques: Enhancing LLM Reasoning with Stepwise Natural Language Self-Critique [66.94905631175209]
我々は、段階的に自然言語の自己批判(PANEL)を行う新しい推論時間スケーリング手法を提案する。
ステップレベルの探索プロセスのガイドとして、自己生成の自然言語批判をフィードバックとして採用している。
このアプローチは、タスク固有の検証と関連するトレーニングオーバーヘッドの必要性を回避します。
論文 参考訳(メタデータ) (2025-03-21T17:59:55Z) - From Guessing to Asking: An Approach to Resolving the Persona Knowledge Gap in LLMs during Multi-Turn Conversations [11.958380211411386]
本研究では,ペルソナの知識ギャップ,モデルの内的理解と一貫性とパーソナライズされた会話に必要な知識との相違について紹介する。
本稿では,ペルソナの知識ギャップを動的に検出・解決する新しいフレームワークであるCPER(Conversation Preference Elicitation and Recommendation)を提案する。
CPERは、嗜好抽出のためのコンテキスト理解モジュール、不確実性を計測し、ペルソナアライメントを精製する動的フィードバックモジュール、蓄積されたユーザコンテキストに基づいて応答を適応するペルソナ駆動応答生成モジュールの3つの主要なモジュールで構成されている。
論文 参考訳(メタデータ) (2025-03-16T15:55:29Z) - Query Performance Prediction using Relevance Judgments Generated by Large Language Models [53.97064615557883]
自動生成関連判定(QPP-GenRE)を用いた新しいクエリ性能予測(QPP)フレームワークを提案する。
QPP-GenREは、QPPを独立したサブタスクに分解し、ランクリスト内の各項目の関連性を所定のクエリに予測する。
我々は,オープンソースの大規模言語モデル (LLM) を用いて,科学的妥当性を確保することにより,項目の関連性を予測する。
論文 参考訳(メタデータ) (2024-04-01T09:33:05Z) - Representing and Reasoning with Multi-Stakeholder Qualitative Preference
Queries [9.768677073327423]
マルチステークホルダーの質的嗜好による推論に関する最初の公式な処置を提供する。
本稿では,特定の基準を満たす結果の集合に対して,そのような嗜好に対してクエリを表現するクエリを提案する。
提案手法の有効性を示す実験結果について述べる。
論文 参考訳(メタデータ) (2023-07-30T19:52:59Z) - Improving Selective Visual Question Answering by Learning from Your
Peers [74.20167944693424]
VQA(Visual Question Answering)モデルは、間違っていた場合の回答を控えるのに苦労する可能性がある。
本稿では,複数モーダル選択関数の学習におけるLearning from Your Peers (LYP) アプローチを提案する。
提案手法では,学習データの異なるサブセットに基づいて訓練されたモデルの予測を,選択的VQAモデルの最適化のターゲットとして利用する。
論文 参考訳(メタデータ) (2023-06-14T21:22:01Z) - Generative Context Pair Selection for Multi-hop Question Answering [60.74354009152721]
マルチホップ質問応答のための生成コンテキスト選択モデルを提案する。
提案した生成経路選択モデルは,対向保留集合上でのより良い性能(ベースラインより4.9%高い)を有する。
論文 参考訳(メタデータ) (2021-04-18T07:00:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。