論文の概要: Sustainable Transparency in Recommender Systems: Bayesian Ranking of
Images for Explainability
- arxiv url: http://arxiv.org/abs/2308.01196v1
- Date: Thu, 27 Jul 2023 22:57:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-06 10:52:43.275722
- Title: Sustainable Transparency in Recommender Systems: Bayesian Ranking of
Images for Explainability
- Title(参考訳): レコメンダシステムの持続的透明性:説明可能性のための画像のベイズランク付け
- Authors: Jorge Paz-Ruza, Amparo Alonso-Betanzos, Berta Guijarro-Berdi\~nas,
Brais Cancela, Carlos Eiras-Franco
- Abstract要約: Recommender Systemsは、ユーザを関連コンテンツや製品に誘導し、ユーザや市民の判断に大きな影響を及ぼす、現代の世界で重要になっている。
パーソナライズされた説明がソリューションとして現れ、リコメンデーションの正当化を提供する。
持続可能性はしばしばかなりの計算資源を必要とするため、それらが統合されるRecommender Systemsに匹敵する大きな炭素排出につながる。
我々は,より適切な学習目標をベースとして,既存の課題に取り組むための新しいモデルBRIEを提案する。
- 参考スコア(独自算出の注目度): 5.249805590164902
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recommender Systems have become crucial in the modern world, commonly guiding
users towards relevant content or products, and having a large influence over
the decisions of users and citizens. However, ensuring transparency and user
trust in these systems remains a challenge; personalized explanations have
emerged as a solution, offering justifications for recommendations. Among the
existing approaches for generating personalized explanations, using visual
content created by the users is one particularly promising option, showing a
potential to maximize transparency and user trust. Existing models for
explaining recommendations in this context face limitations: sustainability has
been a critical concern, as they often require substantial computational
resources, leading to significant carbon emissions comparable to the
Recommender Systems where they would be integrated. Moreover, most models
employ surrogate learning goals that do not align with the objective of ranking
the most effective personalized explanations for a given recommendation,
leading to a suboptimal learning process and larger model sizes. To address
these limitations, we present BRIE, a novel model designed to tackle the
existing challenges by adopting a more adequate learning goal based on Bayesian
Pairwise Ranking, enabling it to achieve consistently superior performance than
state-of-the-art models in six real-world datasets, while exhibiting remarkable
efficiency, emitting up to 75% less CO${_2}$ during training and inference with
a model up to 64 times smaller than previous approaches.
- Abstract(参考訳): Recommender Systemsは現代の世界では重要であり、一般的にユーザを関連コンテンツや製品に誘導し、ユーザや市民の判断に大きな影響を与えている。
パーソナライズされた説明がソリューションとして登場し、レコメンデーションの正当化を提供する。
パーソナライズされた説明を生成する既存のアプローチの中で、ユーザによって作成されたビジュアルコンテンツを使用することは、特に有望な選択肢であり、透明性とユーザの信頼を最大化する可能性を示している。
この文脈で推奨を説明する既存のモデルは、次のような制限に直面している。 サステナビリティは、しばしばかなりの計算リソースを必要とするため、重要な関心事であり、統合されるレコメンダシステムに匹敵するかなりの二酸化炭素排出量をもたらす。
さらに、ほとんどのモデルは、与えられたレコメンデーションに対して最も効果的なパーソナライズされた説明をランク付けする目的と一致しない代理学習目標を採用しており、亜最適学習プロセスとより大きなモデルサイズにつながる。
これらの制限に対処するために、我々は、ベイズペアワイズランキングに基づくより適切な学習目標を採用し、6つの実世界のデータセットにおける最先端モデルよりも一貫して優れたパフォーマンスを実現することを可能にするとともに、トレーニング中に最大75%のco${_2}$を発生させ、前のアプローチより64倍小さいモデルで推論することで、既存の課題に対処するために設計された新しいモデルであるbrieを提案する。
関連論文リスト
- Confidence-aware Reward Optimization for Fine-tuning Text-to-Image Models [85.96013373385057]
人間のフィードバックデータに基づいて訓練された報酬関数を持つ微調整テキスト・ツー・イメージモデルは、モデル行動と人間の意図との整合性を実証した。
しかし、そのような報酬モデルによる過度な最適化は、単にプロキシの目的として機能し、微調整されたモデルの性能を損なう可能性がある。
本研究では,テキストプロンプトの集合に対して推定された報酬モデル信頼度に基づいてアライメントを強化する手法であるTextNormを提案する。
論文 参考訳(メタデータ) (2024-04-02T11:40:38Z) - Mitigating Reward Hacking via Information-Theoretic Reward Modeling [70.26019860948114]
本稿では,報酬モデリングのための汎用的で堅牢なフレームワークであるInfoRMを提案する。
我々は,潜伏空間における過最適化と外れ値の相関を同定し,報酬過最適化を検出するための有望なツールとしてInfoRMを確立した。
論文 参考訳(メタデータ) (2024-02-14T17:49:07Z) - What Are We Optimizing For? A Human-centric Evaluation of Deep Learning-based Movie Recommenders [12.132920692489911]
映画領域における4つのDL-RecSysモデルの人間中心評価ケーススタディを行う。
DL-RecSysモデルがパーソナライズされたレコメンデーション生成において,445人の実アクティブユーザを対象に調査を行った。
いくつかのDL-RecSysモデルは、新規で予期せぬ項目を推奨し、多様性、信頼性、透明性、正確性、全体的なユーザ満足度が低下している。
論文 参考訳(メタデータ) (2024-01-21T23:56:57Z) - When Parameter-efficient Tuning Meets General-purpose Vision-language
Models [65.19127815275307]
PETALは、一意のモード近似技術によって達成される全パラメータの0.5%しか必要とせず、トレーニングプロセスに革命をもたらす。
実験の結果,PETALは現状の手法をほとんどのシナリオで上回るだけでなく,完全な微調整モデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-12-16T17:13:08Z) - COURIER: Contrastive User Intention Reconstruction for Large-Scale Visual Recommendation [33.903096803803706]
我々は、既存のモダリティ機能を超えたさらなる改善のために、推奨に適した視覚的特徴事前学習法が必要であると論じる。
本研究では,行動履歴からユーザ興味に関連する視覚的特徴を抽出する効果的なユーザ意図再構築モジュールを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:45:24Z) - Using Explanations to Guide Models [68.64377323216817]
モデルガイダンスは、時にはモデルパフォーマンスも改善できることを示す。
本研究では,物体の特徴に着目したモデルの有効性を示す新しいエネルギー損失を提案する。
また、バウンディングボックスアノテーションのわずかな部分でも、これらのゲインが達成可能であることも示しています。
論文 参考訳(メタデータ) (2023-03-21T15:34:50Z) - Occlusion-Aware Self-Supervised Monocular 6D Object Pose Estimation [88.8963330073454]
自己教師付き学習による新しい単眼6次元ポーズ推定手法を提案する。
ノイズの多い学生のトレーニングと差別化可能なレンダリングの現在の傾向を活用して、モデルをさらに自己監督する。
提案する自己超越法は,合成データに依存する他の方法よりも優れている。
論文 参考訳(メタデータ) (2022-03-19T15:12:06Z) - Fast Multi-Step Critiquing for VAE-based Recommender Systems [27.207067974031805]
M&Ms-VAEは、提案と説明のための新しい変分オートエンコーダです。
モデルを弱い監督スキームでトレーニングし、完全および部分的に観察された変数をシミュレートします。
次に、訓練されたM&Ms-VAEモデルの一般化能力を利用して、ユーザの好みと批判を個別に埋め込む。
論文 参考訳(メタデータ) (2021-05-03T12:26:09Z) - Learning User Representations with Hypercuboids for Recommender Systems [26.80987554753327]
我々のモデルは、空間内の一点ではなく、超立方体としてユーザーの興味を明示的にモデル化する。
ユーザの興味の多様性を捉える能力を高めるために,2種類のハイパークボイドを提案する。
また、ユーザのアクティビティシーケンス(例えば、購入とレート)をキャプチャすることで、ユーザの超立方体学習を促進するために、ニューラルアーキテクチャも提案されている。
論文 参考訳(メタデータ) (2020-11-11T12:50:00Z) - Explainable Recommender Systems via Resolving Learning Representations [57.24565012731325]
説明はユーザー体験を改善し、システムの欠陥を発見するのに役立つ。
本稿では,表現学習プロセスの透明性を向上させることによって,説明可能な新しい推薦モデルを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:30:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。