論文の概要: CAP-LLM: Context-Augmented Personalized Large Language Models for News Headline Generation
- arxiv url: http://arxiv.org/abs/2508.03935v1
- Date: Tue, 05 Aug 2025 21:55:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-07 20:09:22.459427
- Title: CAP-LLM: Context-Augmented Personalized Large Language Models for News Headline Generation
- Title(参考訳): CAP-LLM:ニュース見出し生成のためのコンテキスト拡張型パーソナライズされた大規模言語モデル
- Authors: Raymond Wilson, Cole Graham, Chase Carter, Zefeng Yang, Ruiqi Gu,
- Abstract要約: 本稿では,ユーザの好みや現実的な一貫性の制約を,LLM(Large Language Models)のバックボーンに組み込む新しいフレームワークを提案する。
CAP-LLMには、長期のユーザ関心を捉えるためのユーザ設定、コンテキストインジェクションアダプタ、Fact-Consistency Reinforcement Moduleがある。
BARTのような強力なベースライン上での事実整合性(87.50のFactCC)を大幅に改善し、パーソナライゼーション(Pc(avg) 2.73、Pc(max) 17.25)とコンテンツカバレッジ(ROUGE-1 26.55、ROUGE-2 9.95、ROUGE-L 23.01)を同時に強化する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the era of information overload, personalized news headline generation is crucial for engaging users by tailoring content to their preferences while accurately conveying news facts. Existing methods struggle with effectively capturing complex user interests and ensuring factual consistency, often leading to generic or misleading headlines. Leveraging the unprecedented capabilities of Large Language Models (LLMs) in text generation, we propose Context-Augmented Personalized LLM (CAP-LLM), a novel framework that integrates user preferences and factual consistency constraints into a powerful pre-trained LLM backbone. CAP-LLM features a User Preference Encoder to capture long-term user interests, a Context Injection Adapter to seamlessly integrate these preferences and current article context into the LLM's generation process, and a Fact-Consistency Reinforcement Module employing a novel contrastive loss to mitigate hallucination. Evaluated on the real-world PENS dataset, CAP-LLM achieves state-of-the-art performance across all metrics. Notably, it significantly improves factual consistency (FactCC of 87.50) over strong baselines like BART (86.67), while simultaneously enhancing personalization (Pc(avg) 2.73, Pc(max) 17.25) and content coverage (ROUGE-1 26.55, ROUGE-2 9.95, ROUGE-L 23.01). Our ablation studies, human evaluations, and sensitivity analyses further validate the effectiveness of each component and the robustness of our approach, demonstrating CAP-LLM's ability to achieve a superior balance between personalization and factual accuracy in news headline generation.
- Abstract(参考訳): 情報過負荷の時代において、パーソナライズされたニュースの見出し生成は、ニュース事実を正確に伝えつつ、コンテンツを好みに合わせて調整することで、ユーザーを惹きつけるために不可欠である。
既存の手法では、複雑なユーザの興味を効果的に捉え、事実の一貫性を確保するのに苦労している。
テキスト生成におけるLLM(Large Language Models)の先例のない機能を活用し,ユーザの好みや現実的な一貫性の制約を学習前の強力なLLMバックボーンに統合する新しいフレームワークであるCAP-LLM(Context-Augmented Personalized LLM)を提案する。
CAP-LLM には、長期のユーザ関心を捉えるための User Preference Encoder と、これらの好みと現在の記事コンテキストを LLM の生成プロセスにシームレスに統合するContext Injection Adapter と、幻覚を緩和するために新たな対照的な損失を利用する Fact-Consistency Reinforcement Module がある。
CAP-LLMは現実世界のPENSデータセットに基づいて、すべてのメトリクスで最先端のパフォーマンスを達成する。
特に、BART (86.67) のような強力なベースラインに対する事実整合性 (87.50のFactCC) を大幅に改善し、パーソナライゼーション (Pc(avg) 2.73, Pc(max) 17.25) とコンテンツカバレッジ (ROUGE-1 26.55, ROUGE-2 9.95, ROUGE-L 23.01) を同時に強化した。
本研究は,ニュース見出し生成におけるパーソナライズと事実的精度のバランスを向上するCAP-LLMの能力を示すものである。
関連論文リスト
- End-to-End Personalization: Unifying Recommender Systems with Large Language Models [0.0]
グラフ注意ネットワーク(GAT)と大言語モデル(LLM)を組み合わせた新しいハイブリッドレコメンデーションフレームワークを提案する。
LLMは、タイトル、ジャンル、概要などのメタデータに基づいて意味的に意味のあるプロファイルを生成することによって、ユーザーとアイテムの表現を豊かにするために最初に使用される。
MovieLens 100kと1Mを含むベンチマークデータセットでモデルを評価し、強いベースラインを一貫して上回ります。
論文 参考訳(メタデータ) (2025-08-02T22:46:50Z) - Hierarchical Interaction Summarization and Contrastive Prompting for Explainable Recommendations [9.082885521130617]
本稿では、階層的相互作用要約(PGHIS)によるプロファイル生成と、説明生成(CPEG)のための対照的なプロンプトを組み合わせた新しいアプローチを提案する。
提案手法は既存の最先端手法よりも優れており,説明可能性(GPTScoreの5%など)とテキスト品質に関する指標の大幅な改善を実現している。
論文 参考訳(メタデータ) (2025-07-08T14:45:47Z) - Language Bottleneck Models: A Framework for Interpretable Knowledge Tracing and Beyond [55.984684518346924]
我々は、知識追跡を逆問題として再考する: 過去の回答を説明できる最小限の自然言語要約を学習し、将来の回答を予測できる。
我々のLanguage Bottleneck Model(LBM)は、解釈可能な知識要約を書くエンコーダLLMと、その要約テキストのみを使用して生徒の反応を再構成し予測しなければならないフリーズデコーダLLMで構成されている。
合成算術ベンチマークと大規模Eediデータセットの実験により、LBMは最先端のKT法と直接LLM法の精度に匹敵する一方で、受講者軌道のオーダーを少なくすることを示した。
論文 参考訳(メタデータ) (2025-06-20T13:21:14Z) - From Millions of Tweets to Actionable Insights: Leveraging LLMs for User Profiling [3.304341919932024]
ドメイン定義文を活用する新しい大規模言語モデル(LLM)ベースのアプローチを導入する。
提案手法は,解釈可能な自然言語ユーザプロファイルを生成し,広範囲なユーザデータをスケールに集約する。
実験の結果,本手法は最先端のLCM法および従来手法よりも9.8%優れていた。
論文 参考訳(メタデータ) (2025-05-09T16:51:24Z) - Cream of the Crop: Harvesting Rich, Scalable and Transferable Multi-Modal Data for Instruction Fine-Tuning [59.56171041796373]
我々は、堅牢で効率的なマルチモーダル・インストラクショナルデータを収集する。
インタラクションスタイルを多様性指標とし、マルチモーダルリッチなスタイルラーを用いてデータインストラクションパターンを識別する。
14のマルチモーダルベンチマークによって検証された10以上の実験環境において、ランダムサンプリング、ベースライン戦略、最先端の選択方法に対する一貫した改善を示す。
論文 参考訳(メタデータ) (2025-03-17T17:11:22Z) - FSPO: Few-Shot Preference Optimization of Synthetic Preference Data in LLMs Elicits Effective Personalization to Real Users [111.56469697145519]
メタ学習問題として報酬モデルを再設計するFew-Shot Preference Optimizationを提案する。
このフレームワークでは、LDMはそのユーザからいくつかのラベル付けされた好みを通じてユーザへの迅速な適応を学び、パーソナライズされた報酬関数を構築する。
公開されているLLMを用いて100万以上の合成パーソナライズされた好みを生成する。
本研究は,映画レビュー,教育背景に基づく教育適応,一般質問応答の3分野を対象に,最大1,500人の総合ユーザを対象に,パーソナライズされたオープンエンド世代に対するFSPOの評価を行った。
論文 参考訳(メタデータ) (2025-02-26T17:08:46Z) - RLPF: Reinforcement Learning from Prediction Feedback for User Summarization with LLMs [25.034187557580704]
本稿では,RLPF(Reinforcement Learning from Prediction Feedback)を導入し,簡潔で可読なユーザ要約を生成する。
RLPFは、ダウンストリームタスクに最適化されたユーザサマリーを生成するために、既存のLarge Language Models(LLM)を微調整する。
実験による評価は,外因性ダウンストリームタスクユーティリティと内因性要約品質の両面で有意な改善を示した。
論文 参考訳(メタデータ) (2024-09-06T17:30:45Z) - TRACE: TRansformer-based Attribution using Contrastive Embeddings in LLMs [50.259001311894295]
TRACE と呼ばれるコントラスト埋め込みを用いた新しいTRansformer-based Attribution フレームワークを提案する。
TRACEは情報源の属性を精度良く改善し,大規模言語モデルの信頼性と信頼性を高める貴重なツールであることを示す。
論文 参考訳(メタデータ) (2024-07-06T07:19:30Z) - A Context-Aware Approach for Enhancing Data Imputation with Pre-trained Language Models [0.18416014644193068]
CRILMは、事前訓練された言語モデルを使用して、不足する値に対してコンテキストに関連のある記述子を作成する。
本評価は,MCAR,MAR,MNARシナリオにおけるCRILMの優れた性能とロバスト性を示す。
論文 参考訳(メタデータ) (2024-05-28T00:08:29Z) - RigorLLM: Resilient Guardrails for Large Language Models against Undesired Content [62.685566387625975]
現在の緩和戦略は効果はあるものの、敵の攻撃下では弾力性がない。
本稿では,大規模言語モデルのための弾力性ガードレール(RigorLLM)について紹介する。
論文 参考訳(メタデータ) (2024-03-19T07:25:02Z) - Adapting LLMs for Efficient, Personalized Information Retrieval: Methods
and Implications [0.7832189413179361]
LLM(Large Language Models)は、人間に似たテキストの理解と生成に優れた言語モデルである。
本稿では,言語モデル(LLM)と情報検索(IR)システムの統合戦略について検討する。
論文 参考訳(メタデータ) (2023-11-21T02:01:01Z) - CoAnnotating: Uncertainty-Guided Work Allocation between Human and Large
Language Models for Data Annotation [94.59630161324013]
本稿では,非構造化テキストの大規模共同アノテーションのための新しいパラダイムであるCoAnnotatingを提案する。
我々の実証研究は、CoAnnotatingが、異なるデータセット上の結果から作業を割り当てる効果的な手段であることを示し、ランダムベースラインよりも最大21%のパフォーマンス改善を実現している。
論文 参考訳(メタデータ) (2023-10-24T08:56:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。