論文の概要: Knowledge-Augmented Relation Learning for Complementary Recommendation with Large Language Models
- arxiv url: http://arxiv.org/abs/2509.05564v1
- Date: Sat, 06 Sep 2025 02:20:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.58617
- Title: Knowledge-Augmented Relation Learning for Complementary Recommendation with Large Language Models
- Title(参考訳): 大規模言語モデルを用いた補完的推薦のための知識強化型関係学習
- Authors: Chihiro Yamasaki, Kai Sugahara, Kazushi Okamoto,
- Abstract要約: 我々は,大規模言語モデル (LLM) で能動的学習を戦略的に融合させるフレームワークである知識強化関係学習 (KARL) を提案する。
KARLは、分類器が最も難しいデータポイントを選択的にサンプリングすることにより、高品質なFBLデータセットを低コストで効率的に拡張する。
実験の結果, アウト・オブ・ディストリビューション設定では, 未探索項目の特徴空間であるKARLは, ベースライン精度を最大37%向上した。
- 参考スコア(独自算出の注目度): 1.529342790344802
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Complementary recommendations play a crucial role in e-commerce by enhancing user experience through suggestions of compatible items. Accurate classification of complementary item relationships requires reliable labels, but their creation presents a dilemma. Behavior-based labels are widely used because they can be easily generated from interaction logs; however, they often contain significant noise and lack reliability. While function-based labels (FBLs) provide high-quality definitions of complementary relationships by carefully articulating them based on item functions, their reliance on costly manual annotation severely limits a model's ability to generalize to diverse items. To resolve this trade-off, we propose Knowledge-Augmented Relation Learning (KARL), a framework that strategically fuses active learning with large language models (LLMs). KARL efficiently expands a high-quality FBL dataset at a low cost by selectively sampling data points that the classifier finds the most difficult and uses the label extension of the LLM. Our experiments showed that in out-of-distribution (OOD) settings, an unexplored item feature space, KARL improved the baseline accuracy by up to 37%. In contrast, in in-distribution (ID) settings, the learned item feature space, the improvement was less than 0.5%, with prolonged learning could degrade accuracy. These contrasting results are due to the data diversity driven by KARL's knowledge expansion, suggesting the need for a dynamic sampling strategy that adjusts diversity based on the prediction context (ID or OOD).
- Abstract(参考訳): 補完的なレコメンデーションは、互換性のあるアイテムの提案を通じてユーザエクスペリエンスを向上させることで、eコマースにおいて重要な役割を果たす。
相補的な項目関係の正確な分類には信頼できるラベルが必要であるが、それらの生成はジレンマを示す。
ビヘイビアベースのラベルは、対話ログから簡単に生成できるため広く使われているが、大きなノイズと信頼性の欠如がしばしばある。
FBL(Function-based label)は、アイテム関数に基づいてそれらを注意深く記述することで、補完関係の高品質な定義を提供するが、コストのかかる手作業によるアノテーションへの依存は、モデルが様々な項目に一般化する能力を著しく制限する。
このトレードオフを解決するために,我々は,大規模言語モデル(LLM)で能動的学習を戦略的に融合させるフレームワークであるKARL(Knowledge-Augmented Relation Learning)を提案する。
KARLは、分類器が最も困難なデータポイントを選択的にサンプリングし、LLMのラベル拡張を使用することにより、高品質なFBLデータセットを低コストで効率的に拡張する。
実験の結果, アウト・オブ・ディストリビューション(OOD)設定では, 未探索項目の特徴空間であるKARLは, ベースライン精度を最大37%向上した。
対照的に、ID(In-distriion)設定では、学習項目の特徴空間は0.5%未満であり、学習が長くなると精度が低下する可能性がある。
これらの対照的な結果は、KARLの知識拡張によって引き起こされるデータの多様性によるものであり、予測コンテキスト(IDまたはOOD)に基づいて多様性を調整する動的なサンプリング戦略の必要性を示唆している。
関連論文リスト
- Function-based Labels for Complementary Recommendation: Definition, Annotation, and LLM-as-a-Judge [0.0]
補完的なレコメンデーションは、頻繁に購入されるアイテムを提案することによって、ユーザエクスペリエンスを高める。
2つの項目が相補関係を持つかどうかを推測または評価するには、相補関係ラベルが必要である。
本稿ではFBL(Function-Based Labels)について紹介する。
論文 参考訳(メタデータ) (2025-07-05T08:08:38Z) - Leveraging LLMs to Evaluate Usefulness of Document [25.976948104719746]
本稿では,ユーザの検索コンテキストと行動データを大規模言語モデルに統合する,新たなユーザ中心評価フレームワークを提案する。
本研究は,文脈情報や行動情報に精通したLLMが有用性を正確に評価できることを実証する。
また,本手法で作成したラベルをユーザ満足度予測に適用し,実世界の実験により,これらのラベルが満足度予測モデルの性能を大幅に向上することを示した。
論文 参考訳(メタデータ) (2025-06-10T09:44:03Z) - CAD-VAE: Leveraging Correlation-Aware Latents for Comprehensive Fair Disentanglement [24.818829983471765]
深層生成モデルは、予測的特徴とともにセンシティブな属性を符号化することで、バイアスと公平性の問題を継承または増幅することができる。
本稿ではCAD-VAE(Correlation-Aware Disentangled VAE)を提案する。
ベンチマークデータセットの実験では、CAD-VAEはより公平な表現、現実的な反ファクト、公平性に配慮した画像編集の改善が示されている。
論文 参考訳(メタデータ) (2025-03-11T00:32:56Z) - CLAMBER: A Benchmark of Identifying and Clarifying Ambiguous Information Needs in Large Language Models [60.59638232596912]
大規模言語モデル(LLM)を評価するベンチマークであるCLAMBERを紹介する。
分類を基盤として12Kの高品質なデータを構築し, 市販のLCMの強度, 弱点, 潜在的なリスクを評価する。
本研究は, あいまいなユーザクエリの特定と明確化において, 現在のLCMの実用性に限界があることを示唆する。
論文 参考訳(メタデータ) (2024-05-20T14:34:01Z) - Deep Boosting Learning: A Brand-new Cooperative Approach for Image-Text Matching [53.05954114863596]
画像テキストマッチングのための新しいDeep Boosting Learning (DBL)アルゴリズムを提案する。
アンカーブランチは、まずデータプロパティに関する洞察を提供するために訓練される。
ターゲットブランチは、一致したサンプルと未一致のサンプルとの相対距離をさらに拡大するために、より適応的なマージン制約を同時に課される。
論文 参考訳(メタデータ) (2024-04-28T08:44:28Z) - Leveraging vision-language models for fair facial attribute classification [19.93324644519412]
汎用視覚言語モデル(英: General-purpose Vision-Language Model, VLM)は、共通感性属性のための豊富な知識源である。
我々は,VLM予測値と人間定義属性分布の対応関係を解析した。
複数のベンチマークの顔属性分類データセットの実験は、既存の教師なしベースラインよりもモデルの公平性の向上を示している。
論文 参考訳(メタデータ) (2024-03-15T18:37:15Z) - C-ICL: Contrastive In-context Learning for Information Extraction [54.39470114243744]
c-ICLは、正しいサンプル構築と間違ったサンプル構築の両方を活用して、コンテキスト内学習のデモを作成する、新しい数ショット技術である。
各種データセットに対する実験により,c-ICLは従来の数発のインコンテキスト学習法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-02-17T11:28:08Z) - Enhancing Label Sharing Efficiency in Complementary-Label Learning with
Label Augmentation [92.4959898591397]
学習中に近隣の事例における補完ラベルの暗黙的な共有を分析した。
相補的なラベル拡張による共有効率を向上させる新しい手法を提案する。
実験結果から,従来のCLLモデルよりも相補的ラベル拡張により経験的性能が向上することが確認された。
論文 参考訳(メタデータ) (2023-05-15T04:43:14Z) - Automatic Validation of Textual Attribute Values in E-commerce Catalog
by Learning with Limited Labeled Data [61.789797281676606]
そこで我々はMetaBridgeと呼ばれる新しいメタ学習潜伏変数アプローチを提案する。
限られたラベル付きデータを持つカテゴリのサブセットから、転送可能な知識を学ぶことができる。
ラベルのないデータで、目に見えないカテゴリの不確実性を捉えることができる。
論文 参考訳(メタデータ) (2020-06-15T21:31:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。