論文の概要: Comparative Personalization for Multi-document Summarization
- arxiv url: http://arxiv.org/abs/2509.21562v1
- Date: Thu, 25 Sep 2025 20:42:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.000929
- Title: Comparative Personalization for Multi-document Summarization
- Title(参考訳): 多文書要約における比較パーソナライズ
- Authors: Haoyuan Li, Snigdha Chaturvedi,
- Abstract要約: パーソナライズされたマルチドキュメント要約フレームワークであるComPSumを提案する。
ユーザの好みを他のユーザの好みと比較することにより、ユーザの構造化された分析を生成する。
生成された構造化分析は、パーソナライズされた要約の生成を導くために使用される。
- 参考スコア(独自算出の注目度): 30.725495714468863
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Personalized multi-document summarization (MDS) is essential for meeting individual user preferences of writing style and content focus for summaries. In this paper, we propose that for effective personalization, it is important to identify fine-grained differences between users' preferences by comparing the given user's preferences with other users' preferences.Motivated by this, we propose ComPSum, a personalized MDS framework. It first generates a structured analysis of a user by comparing their preferences with other users' preferences. The generated structured analysis is then used to guide the generation of personalized summaries. To evaluate the performance of ComPSum, we propose AuthorMap, a fine-grained reference-free evaluation framework for personalized MDS. It evaluates the personalization of a system based on the authorship attribution between two personalized summaries generated for different users. For robust evaluation of personalized MDS, we construct PerMSum, a personalized MDS dataset in the review and news domain. We evaluate the performance of ComPSum on PerMSum using AuthorMap, showing that it outperforms strong baselines.
- Abstract(参考訳): パーソナライズされた多文書要約(MDS)は、要約の書き方やコンテンツフォーカスの個々のユーザの好みを満たすために不可欠である。
本稿では、効果的なパーソナライズのために、ユーザの好みを他のユーザの好みと比較することで、ユーザの好みのきめ細かい相違を識別することが重要であることを示し、このことから、パーソナライズされたMDSフレームワークであるComPSumを提案する。
まず、ユーザの好みと他のユーザの好みを比較することによって、ユーザの構造化された分析を生成する。
生成された構造化分析は、パーソナライズされた要約の生成を導くために使用される。
ComPSumの性能を評価するために,パーソナライズされたMDSのための詳細な参照不要評価フレームワークである AuthorMap を提案する。
異なるユーザに対して生成された2つのパーソナライズされた要約間の著者属性に基づいて、システムのパーソナライズを評価する。
パーソナライズされたMDSのロバストな評価のために、レビューおよびニュース領域におけるパーソナライズされたMDSデータセットPerMSumを構築した。
AuthorMap を用いた PerMSum 上での ComPSum の性能評価を行った。
関連論文リスト
- A Personalized Conversational Benchmark: Towards Simulating Personalized Conversations [112.81207927088117]
PersonaConvBenchは、大規模言語モデル(LLM)とのマルチターン会話におけるパーソナライズされた推論と生成を評価するためのベンチマークである。
我々は,複数の商用およびオープンソース LLM を統一的なプロンプト設定でベンチマークし,パーソナライズされた履歴を組み込むことで大幅な性能向上が得られることを観察した。
論文 参考訳(メタデータ) (2025-05-20T09:13:22Z) - Memory Assisted LLM for Personalized Recommendation System [0.7445414627343342]
メモリアシストパーソナライズされたLLMは、ユーザのインタラクションを通じてユーザの好みをキャプチャする。
推薦中、類似性に基づいて関連する記憶を抽出する。
ユーザ履歴が大きくなるにつれて、MAPの利点は両方のシナリオで増大する。
論文 参考訳(メタデータ) (2025-05-03T06:24:18Z) - HyPerAlign: Interpretable Personalized LLM Alignment via Hypothesis Generation [24.67727411391369]
HyPerAlignは、大規模言語モデルに対する解釈可能かつサンプル効率の仮説駆動パーソナライズアプローチである。
我々は2つの異なるパーソナライズタスク、すなわち著者帰属と熟考的アライメントについて実験を行った。
その結果、仮説駆動型パーソナライゼーションの方が好みに基づく微調整法よりも優れていることが示された。
論文 参考訳(メタデータ) (2025-04-29T18:01:46Z) - Personalized Language Models via Privacy-Preserving Evolutionary Model Merging [53.97323896430374]
言語モデルにおけるパーソナライゼーションは、個々のユーザやユーザグループに対する振る舞いをモデル化することを目的としている。
進化的アルゴリズム(PriME)によるプライバシ保護モデルマージを提案する。
PriMEは、プライバシーリスクを低減しつつ、ユーティリティを直接最適化するために、勾配のない方法を採用している。
LaMPベンチマークの実験によると、Primeは一貫してベースラインを上回り、タスクパフォーマンスを最大45%改善している。
論文 参考訳(メタデータ) (2025-03-23T09:46:07Z) - Preference Discerning with LLM-Enhanced Generative Retrieval [28.309905847867178]
我々は、選好識別という新しいパラダイムを提案する。
嗜好判断において、我々は、そのコンテキスト内でのユーザの嗜好に対して、生成的シーケンシャルなレコメンデーションシステムを明示的に条件付けする。
ユーザレビューと項目固有データに基づいて,Large Language Models (LLMs) を用いてユーザ嗜好を生成する。
論文 参考訳(メタデータ) (2024-12-11T18:26:55Z) - ULMRec: User-centric Large Language Model for Sequential Recommendation [16.494996929730927]
ユーザがカスタマイズした好みを大規模言語モデルに統合するフレームワークであるULMRecを提案する。
2つの公開データセットに対する大規模な実験は、ULMRecが既存の手法を大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2024-12-07T05:37:00Z) - PersonalLLM: Tailoring LLMs to Individual Preferences [11.717169516971856]
我々は、特定のユーザに対して最大限のメリットを提供するためにLLMを適用することに焦点を当てた、PersonalLLMという公開ベンチマークを提示する。
我々は、ユーザーが不均一な潜伏傾向を示すことを期待する高品質な回答と組み合わせたオープンエンドプロンプトをキュレートする。
私たちのデータセットと生成された個人性は、パーソナライズアルゴリズムを開発するための革新的なテストベッドを提供します。
論文 参考訳(メタデータ) (2024-09-30T13:55:42Z) - Step-Back Profiling: Distilling User History for Personalized Scientific Writing [50.481041470669766]
大きな言語モデル(LLM)は、さまざまな自然言語処理タスクに優れていますが、個人向けにパーソナライズされたコンテンツを生成するのに苦労しています。
ユーザ履歴を簡潔なプロファイルに抽出することで,LSMをパーソナライズするためのSTEP-BACK ProFIlingを導入する。
本手法は,一般パーソナライゼーションベンチマークにおいて,ベースラインを最大3.6ポイント向上させる。
論文 参考訳(メタデータ) (2024-06-20T12:58:26Z) - Dual Personalization on Federated Recommendation [50.4115315992418]
フェデレートされたレコメンデーションは、フェデレーションされた設定でプライバシを保存するレコメンデーションサービスを提供することを目的とした、新しいインターネットサービスアーキテクチャである。
本稿では,ユーザ固有の軽量モデルの多くを学習するためのPersonalized Federated Recommendation(PFedRec)フレームワークを提案する。
また、ユーザとアイテムの両方の詳細なパーソナライズを効果的に学習するための、新しい二重パーソナライズ機構を提案する。
論文 参考訳(メタデータ) (2023-01-16T05:26:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。