論文の概要: LumiCRS: Asymmetric Contrastive Prototype Learning for Long-Tail Conversational Movie Recommendation
- arxiv url: http://arxiv.org/abs/2507.04722v1
- Date: Mon, 07 Jul 2025 07:33:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:35.310834
- Title: LumiCRS: Asymmetric Contrastive Prototype Learning for Long-Tail Conversational Movie Recommendation
- Title(参考訳): LumiCRS:長距離対話型映画レコメンデーションのための非対称コントラスト型プロトタイプ学習
- Authors: Jinzhi Wang, Bin Li, Qingke Peng, Haozhou Li, Zeyuan Zeng, Ruimeng Li, Biyi Zhou,
- Abstract要約: 見出し映画の10%が言及のほぼ半分を占めており、テール映画の約70%はわずか26%しか注目されていない。
この不均衡は、頭過剰適合、体表のドリフト、尾の間隔という3つの重要な課題を引き起こします。
本稿では,LumiCRSを提案する。LumiCRS,LumiCRS,LumiCRS,LumiCRS,LumiCRS,LumiCRS,LumiCRS,LumiCRS,LumiCRS,LumiCRS,LumiCRS。
- 参考スコア(独自算出の注目度): 2.771898823215281
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conversational recommender systems (CRSs) often suffer from an extreme long-tail distribution of dialogue data, causing a strong bias toward head-frequency blockbusters that sacrifices diversity and exacerbates the cold-start problem. An empirical analysis of DCRS and statistics on the REDIAL corpus show that only 10% of head movies account for nearly half of all mentions, whereas about 70% of tail movies receive merely 26% of the attention. This imbalance gives rise to three critical challenges: head over-fitting, body representation drift, and tail sparsity. To address these issues, we propose LumiCRS, an end-to-end framework that mitigates long-tail imbalance through three mutually reinforcing layers: (i) an Adaptive Comprehensive Focal Loss (ACFL) that dynamically adjusts class weights and focusing factors to curb head over-fitting and reduce popularity bias; (ii) Prototype Learning for Long-Tail Recommendation, which selects semantic, affective, and contextual prototypes to guide clustering and stabilize body and tail representations; and (iii) a GPT-4o-driven prototype-guided dialogue augmentation module that automatically generates diverse long-tail conversational snippets to alleviate tail sparsity and distribution shift. Together, these strategies enable LumiCRS to markedly improve recommendation accuracy, diversity, and fairness: on the REDIAL and INSPIRED benchmarks, LumiCRS boosts Recall@10 and Tail-Recall@10 by 7-15% over fifteen strong baselines, while human evaluations confirm superior fluency, informativeness, and long-tail relevance. These results demonstrate the effectiveness of multi-layer collaboration in building an efficient and fair long-tail conversational recommender.
- Abstract(参考訳): 会話レコメンデータシステム(CRS)は、対話データの極端に長い尾の分布に悩まされ、多様性を犠牲にし、コールドスタート問題を悪化させるヘッド周波数ブロックバスターに強いバイアスを与える。
DCRSの実証分析とREDial corpusの統計によると、ヘッドフィルムの10%が言及のほぼ半分を占めており、テールフィルムの約70%はわずか26%の注目しか受けていない。
この不均衡は、頭過剰適合、体表のドリフト、尾の間隔という3つの重要な課題を引き起こします。
これらの問題に対処するため、LumiCRS(LumiCRS)を提案する。
一 適応的包括的焦点損失(ACFL)で、クラスウェイトを動的に調整し、頭部過度な適合を抑え、人気バイアスを低減させる。
二 クラスタリングを指導し、体と尾の表現を安定させる意味的、感情的、文脈的プロトタイプを選択する長鎖勧告のための原型学習
3) GPT-4oによるプロトタイプ誘導対話拡張モジュールで, 様々な長尾会話スニペットを自動生成し, テール間隔と分布シフトを緩和する。
REDIALとINSPIREDのベンチマークでは、LumiCRSは15の強いベースラインに対してRecall@10とTail-Recall@10を7~15%向上させ、人間の評価は優れた流派、情報性、ロングテールの関連性を確認している。
これらの結果は,効率的で公平な会話レコメンデータ構築における多層協調の有効性を示すものである。
関連論文リスト
- Writing-RL: Advancing Long-form Writing via Adaptive Curriculum Reinforcement Learning [55.41828729623907]
本稿では,適応型カリキュラム強化学習フレームワーク「Ling-RL: An Adaptive Curriculum Reinforcement Learning」について紹介する。
フレームワークは3つの重要なコンポーネントで構成されている。高い学習可能性を持つサンプルを優先するMargin-aware Data Selection戦略、差別的な学習信号を提供するPairwise Comparison Rewardメカニズム、動的参照スケジューリングアプローチである。
論文 参考訳(メタデータ) (2025-06-06T05:40:39Z) - Select2Reason: Efficient Instruction-Tuning Data Selection for Long-CoT Reasoning [24.33670771559359]
提案するSelect2Reasonは,Long-CoT推論のための新しい,効率的な命令チューニングデータ選択フレームワークである。
Select2Reasonは,3つの競合レベルと6つの総合的な数学的ベンチマークで,フルデータチューニングとオープンソースベースラインOpenR1-Qwen-7Bに比較して,性能を向上することを示す。
論文 参考訳(メタデータ) (2025-05-22T20:24:08Z) - Pre-train, Align, and Disentangle: Empowering Sequential Recommendation with Large Language Models [26.331324261505486]
Sequential Recommendation (SR) は、ユーザの過去のインタラクションにおけるシーケンシャルなパターンを活用して、ユーザの好みを正確に追跡することを目的としている。
大規模言語モデル(LLM)の有効性が証明されているにもかかわらず、商用レコメンデータシステムへの統合は妨げられている。
我々は,LLMを用いたSRモデルを強化するために,新しいPri-train,Align,Disentangle(PAD)フレームワークを導入する。
論文 参考訳(メタデータ) (2024-12-05T12:17:56Z) - Adaptive Segment-level Reward: Bridging the Gap Between Action and Reward Space in Alignment [13.087267214534727]
強化学習(RL)は大規模言語モデル(LLM)と人間の嗜好の整合に極めて効果的であることが証明されている。
典型的なRL法は、全体的なシーケンス報酬の下で最適化され、最適以下の学習プロセスにつながる可能性がある。
これは重要なクレジット割り当ての問題、すなわち、強化または抑制するトークンを特定することを反映している。
論文 参考訳(メタデータ) (2024-10-23T16:16:15Z) - ODIN: Disentangled Reward Mitigates Hacking in RLHF [127.35607931337019]
本稿では,人間からの強化学習に現れる課題である,応答長に基づく報酬ハッキングの課題について検討する。
LLMからの十分に整形された冗長な応答は、高いスコアを得るためにLLMや人間の評価者を騙すことがしばしばある。
提案手法は, 報酬と長さの相関をほぼ排除し, 得られた政策を有意なマージンで改善する。
論文 参考訳(メタデータ) (2024-02-11T22:40:12Z) - Constructive Large Language Models Alignment with Diverse Feedback [76.9578950893839]
本稿では,大規模言語モデルのアライメント向上のための新しい手法として,コンストラクティブ・ディバース・フィードバック(CDF)を導入する。
我々は,簡単な問題に対する批判的フィードバック,中級問題に対する改善的フィードバック,難題に対する選好的フィードバックを利用する。
このような多様なフィードバックでモデルをトレーニングすることで、トレーニングデータの少ない使用でアライメント性能を向上させることができる。
論文 参考訳(メタデータ) (2023-10-10T09:20:14Z) - A Long Way to Go: Investigating Length Correlations in RLHF [59.49656695716066]
本稿では, 応答長の最適化がRLHFの重要な要因であることを示す。
報酬の改善は、他の機能ではなく、レスポンス長の増加によって大きく引き起こされると思います。
純粋に長さベースの報酬でさえ、教師付き微調整モデルよりも下流のRLHFの改善を再現する。
論文 参考訳(メタデータ) (2023-10-05T17:38:28Z) - PCPL: Predicate-Correlation Perception Learning for Unbiased Scene Graph
Generation [58.98802062945709]
本稿では,適切な損失重みを適応的に求めるための新しい述語相関知覚学習手法を提案する。
我々のPCPLフレームワークは、文脈特徴をよりよく抽出するグラフエンコーダモジュールも備えています。
論文 参考訳(メタデータ) (2020-09-02T08:30:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。