論文の概要: SUMFORU: An LLM-Based Review Summarization Framework for Personalized Purchase Decision Support
- arxiv url: http://arxiv.org/abs/2512.11755v1
- Date: Fri, 12 Dec 2025 18:05:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-15 15:48:11.8623
- Title: SUMFORU: An LLM-Based Review Summarization Framework for Personalized Purchase Decision Support
- Title(参考訳): SUMFORU:パーソナライズされた購入決定支援のためのLLMベースのレビュー要約フレームワーク
- Authors: Yuming Feng, Xinrui Jiang,
- Abstract要約: オンライン製品レビューには、ユーザを圧倒し、効果的な意思決定を妨げるリッチだがノイズの多いシグナルが含まれている。
本稿では,個人別購入決定を支援するために,アウトプットを明示的なユーザペルソナと整合させる,評価可能な要約フレームワークを提案する。
本結果は,次世代の個人化意思決定支援システム構築における多元的アライメントの実現性を強調した。
- 参考スコア(独自算出の注目度): 3.755588097509539
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Online product reviews contain rich but noisy signals that overwhelm users and hinder effective decision-making. Existing LLM-based summarizers remain generic and fail to account for individual preferences, limiting their practical utility. We propose SUMFORU, a steerable review summarization framework that aligns outputs with explicit user personas to support personalized purchase decisions. Our approach integrates a high-quality data pipeline built from the Amazon 2023 Review Dataset with a two-stage alignment procedure: (1) persona-aware Supervised Fine-Tuning (SFT) via asymmetric knowledge distillation, and (2) Reinforcement Learning with AI Feedback (RLAIF) using a preference estimator to capture fine-grained, persona-relevant signals. We evaluate the model across rule-based, LLM-based, and human-centered metrics, demonstrating consistent improvements in consistency, grounding, and preference alignment. Our framework achieves the highest performance across all evaluation settings and generalizes effectively to unseen product categories. Our results highlight the promise of steerable pluralistic alignment for building next-generation personalized decision-support systems.
- Abstract(参考訳): オンライン製品レビューには、ユーザを圧倒し、効果的な意思決定を妨げるリッチだがノイズの多いシグナルが含まれている。
既存のLCMベースの要約器は依然として汎用的であり、個々の好みを考慮せず、実用性を制限している。
SUMFORUは、パーソナライズされた購入決定をサポートするために、アウトプットを明示的なユーザペルソナと整合させる、ステアブルなレビュー要約フレームワークである。
提案手法は,Amazon 2023 Reviewデータセットから構築された高品質なデータパイプラインと,(1)非対称な知識蒸留によるペルソナ認識スーパービジョンファインチューニング(SFT),(2)AIフィードバックを用いた強化学習(RLAIF)という2段階のアライメント手順を統合する。
我々はルールベース、LLMベース、人間中心のメトリクスでモデルを評価し、一貫性、接地、嗜好の整合性の向上を実証した。
本フレームワークは,すべての評価設定において最高の性能を達成し,見当たらない製品カテゴリに効果的に一般化する。
本結果は,次世代の個人化意思決定支援システム構築における多元的アライメントの実現性を強調した。
関連論文リスト
- SRLF: An Agent-Driven Set-Wise Reflective Learning Framework for Sequential Recommendation [16.741106736240603]
我々のフレームワークは,LLMの強力なコンテキスト内学習機能を利用するクローズドループ "アセス・バリケート・リフレクト" サイクルを運用する。
提案手法では,ユーザの行動に不可欠な複雑なパターンを抽出し,シーケンシャルなレコメンデーションタスクに非常に適している。
論文 参考訳(メタデータ) (2025-11-14T14:50:33Z) - Beyond Majority Voting: LLM Aggregation by Leveraging Higher-Order Information [57.397381631496906]
最適重み(OW)と逆サプライシング人気度(ISP)という2つの新しいアグリゲーションアルゴリズムを開発した。
我々の理論的分析は、これらの手法が軽微な仮定の下での多数決の本質的な制限を確実に緩和することを示している。
我々は,我々のアルゴリズムを人工データセット,UltraFeedbackやMMLUなどのLLMファインチューニングベンチマーク,実世界の医療環境ARMMAN上で実証的に検証した。
論文 参考訳(メタデータ) (2025-10-01T22:21:50Z) - Learning to Shop Like Humans: A Review-driven Retrieval-Augmented Recommendation Framework with LLMs [30.748667156183004]
RevBrowseはレビュー駆動のレコメンデーションフレームワークである。
RevBrowseは、ユーザレビューをLLMベースのリグレードプロセスに統合し、候補項目を識別する機能を強化する。
PrefRAGは、ユーザとアイテムの表現を構造化形式に分解する検索拡張モジュールである。
論文 参考訳(メタデータ) (2025-08-31T04:37:43Z) - End-to-End Personalization: Unifying Recommender Systems with Large Language Models [0.0]
グラフ注意ネットワーク(GAT)と大言語モデル(LLM)を組み合わせた新しいハイブリッドレコメンデーションフレームワークを提案する。
LLMは、タイトル、ジャンル、概要などのメタデータに基づいて意味的に意味のあるプロファイルを生成することによって、ユーザーとアイテムの表現を豊かにするために最初に使用される。
MovieLens 100kと1Mを含むベンチマークデータセットでモデルを評価し、強いベースラインを一貫して上回ります。
論文 参考訳(メタデータ) (2025-08-02T22:46:50Z) - ALIGN: Prompt-based Attribute Alignment for Reliable, Responsible, and Personalized LLM-based Decision-Making [10.558361310945164]
大規模言語モデル(LLM)の動的パーソナライズシステムであるALIGNを開発する。
システムの主な特徴は、ロバストな構成管理、推論付き構造化出力生成、スワップ可能なLCMバックボーンを用いたアルゴリズム実装である。
ALIGNフレームワーク全体がオープンソースで、信頼性、責任、パーソナライズされたLCMベースの意思決定者に関する新たな研究を可能にする。
論文 参考訳(メタデータ) (2025-07-11T21:33:38Z) - AIR: A Systematic Analysis of Annotations, Instructions, and Response Pairs in Preference Dataset [89.37514696019484]
嗜好学習は、大きな言語モデルと人間の価値の整合に不可欠である。
私たちの作業は、好みのデータセット設計をアドホックなスケーリングからコンポーネント対応の最適化にシフトします。
論文 参考訳(メタデータ) (2025-04-04T17:33:07Z) - FSPO: Few-Shot Preference Optimization of Synthetic Preference Data in LLMs Elicits Effective Personalization to Real Users [111.56469697145519]
メタ学習問題として報酬モデルを再設計するFew-Shot Preference Optimizationを提案する。
このフレームワークでは、LDMはそのユーザからいくつかのラベル付けされた好みを通じてユーザへの迅速な適応を学び、パーソナライズされた報酬関数を構築する。
公開されているLLMを用いて100万以上の合成パーソナライズされた好みを生成する。
本研究は,映画レビュー,教育背景に基づく教育適応,一般質問応答の3分野を対象に,最大1,500人の総合ユーザを対象に,パーソナライズされたオープンエンド世代に対するFSPOの評価を行った。
論文 参考訳(メタデータ) (2025-02-26T17:08:46Z) - A Systematic Examination of Preference Learning through the Lens of Instruction-Following [83.71180850955679]
新たな合成データ生成パイプラインを用いて48,000の命令追従プロンプトを生成する。
合成プロンプトでは、リジェクションサンプリング(RS)とモンテカルロ木探索(MCTS)の2つの選好データセットキュレーション手法を用いる。
実験により、MCTSが生成した選好ペアにおける共有プレフィックスは、限界はあるが一貫した改善をもたらすことが明らかになった。
高コントラストの選好ペアは一般的に低コントラストのペアよりも優れているが、両者を組み合わせることで最高のパフォーマンスが得られることが多い。
論文 参考訳(メタデータ) (2024-12-18T15:38:39Z) - RosePO: Aligning LLM-based Recommenders with Human Values [38.029251417802044]
我々は、パーソナライズされた選好最適化(RosePO)を円滑にするための一般的なフレームワークを提案する。
RosePOは、トレーニング後の段階において、カスタマイズされた人的価値との整合性が向上する。
実世界の3つのデータセットの評価は,本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-10-16T12:54:34Z) - Self-Augmented Preference Optimization: Off-Policy Paradigms for Language Model Alignment [104.18002641195442]
既存のペアデータを必要としない、効果的でスケーラブルなトレーニングパラダイムである自己拡張型優先度最適化(SAPO)を導入する。
負の反応を自律的に生成するセルフプレイの概念に基づいて、我々はさらに、データ探索とエクスプロイトを強化するために、非政治的な学習パイプラインを組み込む。
論文 参考訳(メタデータ) (2024-05-31T14:21:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。