論文の概要: Consistent Explainers or Unreliable Narrators? Understanding LLM-generated Group Recommendations
- arxiv url: http://arxiv.org/abs/2507.13705v1
- Date: Fri, 18 Jul 2025 07:20:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-21 20:43:26.205416
- Title: Consistent Explainers or Unreliable Narrators? Understanding LLM-generated Group Recommendations
- Title(参考訳): 一貫性のある説明者か信頼できないナレーターか : LLM生成グループ勧告を理解する
- Authors: Cedric Waterschoot, Nava Tintarev, Francesco Barile,
- Abstract要約: 大規模言語モデル(LLM)は,グループレコメンダシステム(GRS)のための共同意思決定と説明ジェネレータとして実装されつつある。
以上の結果から,LSM生成レコメンデーションはADD(Additive Utilitarian)アグリゲーションとよく似ていることが示唆された。
説明における追加基準は、グループシナリオにおける評価数に依存し、より大きな項目セットサイズでの標準集計手法の非効率性を示唆した。
- 参考スコア(独自算出の注目度): 2.6470894980840525
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) are increasingly being implemented as joint decision-makers and explanation generators for Group Recommender Systems (GRS). In this paper, we evaluate these recommendations and explanations by comparing them to social choice-based aggregation strategies. Our results indicate that LLM-generated recommendations often resembled those produced by Additive Utilitarian (ADD) aggregation. However, the explanations typically referred to averaging ratings (resembling but not identical to ADD aggregation). Group structure, uniform or divergent, did not impact the recommendations. Furthermore, LLMs regularly claimed additional criteria such as user or item similarity, diversity, or used undefined popularity metrics or thresholds. Our findings have important implications for LLMs in the GRS pipeline as well as standard aggregation strategies. Additional criteria in explanations were dependent on the number of ratings in the group scenario, indicating potential inefficiency of standard aggregation methods at larger item set sizes. Additionally, inconsistent and ambiguous explanations undermine transparency and explainability, which are key motivations behind the use of LLMs for GRS.
- Abstract(参考訳): 大規模言語モデル (LLM) は,グループレコメンダシステム (GRS) のための共同意思決定と説明ジェネレータとして実装されている。
本稿では,これらのレコメンデーションと説明を,社会的選択に基づくアグリゲーション戦略と比較することで評価する。
以上の結果から,LDM生成レコメンデーションはADD(Additive Utilitarian)アグリゲーションとよく似ていることが示唆された。
しかし、説明は概して平均評価(ADD集計と同一ではないが)を指す。
グループ構造は、一様でも異端でもないが、勧告には影響を与えなかった。
さらに、LCMはユーザーやアイテムの類似性、多様性、未定義の人気指標や閾値といった追加の基準を定期的に主張している。
本研究は, GRSパイプラインおよび標準集約戦略において, LLM に重要な意味を持つ。
説明における追加基準は、グループシナリオにおける評価数に依存し、より大きな項目セットサイズでの標準集計手法の非効率性を示唆した。
さらに、無矛盾で曖昧な説明は透明性と説明可能性を損なう。
関連論文リスト
- From SHAP to Rules: Distilling Expert Knowledge from Post-hoc Model Explanations in Time Series Classification [7.7491252992917445]
本稿では,数値的特徴属性をポストホック,インスタンスワイド・アナライザから構造化されたヒューマン可読なルールに変換するフレームワークを提案する。
このアプローチは、Anchorのようなネイティブなルールベースのメソッドと互換性があり、長いTSにスケーリングし、より多くのインスタンスをカバーしています。
UCIデータセットの実験では、結果のルールベースの表現が解釈可能性、決定透明性、TS分類の実践的適用性を改善することが確認されている。
論文 参考訳(メタデータ) (2025-08-03T09:45:40Z) - RAGXplain: From Explainable Evaluation to Actionable Guidance of RAG Pipelines [0.7373617024876725]
RAGXplainは、RAGのパフォーマンスを定量化し、これらの評価を明確な洞察に変換する評価フレームワークである。
したがって、RAGXplainは定量的評価と実用的な最適化を橋渡しし、ユーザーがAIシステムを理解し、信頼し、拡張することを可能にする。
論文 参考訳(メタデータ) (2025-05-18T17:25:34Z) - The Pitfalls of Growing Group Complexity: LLMs and Social Choice-Based Aggregation for Group Recommendations [2.6470894980840525]
Group Recommender Systems (GRS) は、社会的選択に基づくアグリゲーション戦略を使って単一のレコメンデーションを導いた。
ゼロショット学習に基づいて,言語モデルがこれらの戦略を正しく実行できる条件について検討する。
100以上のレーティングを考慮すると、パフォーマンスが低下し始めています。
今後の研究は、GRS評価の要素としてグループ複雑性を含むべきであると結論付けている。
論文 参考訳(メタデータ) (2025-05-08T07:43:01Z) - Latent Factor Models Meets Instructions: Goal-conditioned Latent Factor Discovery without Task Supervision [50.45597801390757]
Instruct-LFはゴール指向の潜在因子発見システムである。
命令フォロー機能と統計モデルを統合して、ノイズの多いデータセットを処理する。
論文 参考訳(メタデータ) (2025-02-21T02:03:08Z) - Unleashing the Power of Large Language Models for Group POI Recommendations [39.49785677738477]
Group Point-of-Interest(POI)推奨は、あるグループのユーザの多様な嗜好を満たす次のPOIを予測することを目的としている。
グループPOIレコメンデーションの既存の方法は、チェックインデータからの単一のIDベースの機能に依存している。
文脈認識グループPOIレコメンデーションのためのLarge Language Model(LLM)のパワーを解放するフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-20T16:02:14Z) - Metamorphic Evaluation of ChatGPT as a Recommender System [24.129839704666523]
本稿では,GPTに基づくレコメンデータシステムの評価のためのメタモルフィックテストについて紹介する。
MRの出力でその関係が満たされたかどうかを測定するために、類似度指標が配置される。
論文 参考訳(メタデータ) (2024-11-18T23:18:55Z) - Towards Scalable Semantic Representation for Recommendation [65.06144407288127]
大規模言語モデル(LLM)に基づく意味的IDを構築するために、Mixture-of-Codesを提案する。
提案手法は,識別性と寸法の堅牢性に優れたスケーラビリティを実現し,提案手法で最高のスケールアップ性能を実現する。
論文 参考訳(メタデータ) (2024-10-12T15:10:56Z) - LLMEmb: Large Language Model Can Be a Good Embedding Generator for Sequential Recommendation [57.49045064294086]
大きな言語モデル(LLM)は、その人気とは無関係に、アイテム間の意味的関係をキャプチャする能力を持つ。
LLMEmb(LLMEmb)は、LCMを利用してアイテム埋め込みを生成し、逐次レコメンダシステム(SRS)の性能を向上させる手法である。
論文 参考訳(メタデータ) (2024-09-30T03:59:06Z) - SFR-RAG: Towards Contextually Faithful LLMs [57.666165819196486]
Retrieval Augmented Generation (RAG) は、外部コンテキスト情報を大言語モデル(LLM)と統合し、事実の精度と妥当性を高めるパラダイムである。
SFR-RAG(SFR-RAG)について述べる。
また、複数の人気かつ多様なRAGベンチマークをコンパイルする新しい評価フレームワークであるConBenchについても紹介する。
論文 参考訳(メタデータ) (2024-09-16T01:08:18Z) - Improve Temporal Awareness of LLMs for Sequential Recommendation [61.723928508200196]
大規模言語モデル(LLM)は、幅広い汎用タスクを解く際、印象的なゼロショット能力を示した。
LLMは時間的情報の認識と利用に不足しており、シーケンシャルなデータの理解を必要とするタスクではパフォーマンスが悪い。
LLMに基づくシーケンシャルレコメンデーションのために、歴史的相互作用の中で時間情報を利用する3つのプロンプト戦略を提案する。
論文 参考訳(メタデータ) (2024-05-05T00:21:26Z) - Regression-aware Inference with LLMs [52.764328080398805]
提案手法は,一般的な回帰と評価指標に準最適であることを示す。
本稿では,ベイズ最適解を推定し,サンプル応答からクローズド形式の評価指標を推定する代替推論手法を提案する。
論文 参考訳(メタデータ) (2024-03-07T03:24:34Z) - Which is better? Exploring Prompting Strategy For LLM-based Metrics [6.681126871165601]
本稿では,DSBA が提案する Prompting Large Language Models を Explainable Metrics 共有タスクとして記述する。
BLEUやROUGEのような従来の類似性に基づくメトリクスは、人間の評価に悪影響を与えており、オープンな生成タスクには適していない。
論文 参考訳(メタデータ) (2023-11-07T06:36:39Z) - LLMRec: Benchmarking Large Language Models on Recommendation Task [54.48899723591296]
推奨領域におけるLarge Language Models (LLMs) の適用について, 十分に検討されていない。
我々は、評価予測、シーケンシャルレコメンデーション、直接レコメンデーション、説明生成、レビュー要約を含む5つのレコメンデーションタスクにおいて、市販のLLMをベンチマークする。
ベンチマークの結果,LLMは逐次的・直接的推薦といった精度に基づくタスクにおいて適度な熟練度しか示さないことがわかった。
論文 参考訳(メタデータ) (2023-08-23T16:32:54Z) - Overcoming Data Sparsity in Group Recommendation [52.00998276970403]
グループレコメンデータシステムは、ユーザの個人的な好みだけでなく、嗜好集約戦略も正確に学習できなければならない。
本稿では,BGEM(Bipartite Graphding Model)とGCN(Graph Convolutional Networks)を基本構造として,グループとユーザ表現を統一的に学習する。
論文 参考訳(メタデータ) (2020-10-02T07:11:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。