論文の概要: Robust Explainable Recommendation
- arxiv url: http://arxiv.org/abs/2405.01855v1
- Date: Fri, 3 May 2024 05:03:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-06 13:45:11.337655
- Title: Robust Explainable Recommendation
- Title(参考訳): Robust Explainable Recommendation
- Authors: Sairamvinay Vijayaraghavan, Prasant Mohapatra,
- Abstract要約: 本稿では,外部攻撃に耐えられる機能対応型レコメンデータの汎用フレームワークを提案する。
私たちのフレームワークは、モデルの内部構造や本質的なユーティリティに関係なく、実装が簡単で、異なるメソッドをサポートします。
- 参考スコア(独自算出の注目度): 10.186029242664931
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable Recommender Systems is an important field of study which provides reasons behind the suggested recommendations. Explanations with recommender systems are useful for developers while debugging anomalies within the system and for consumers while interpreting the model's effectiveness in capturing their true preferences towards items. However, most of the existing state-of-the-art (SOTA) explainable recommenders could not retain their explanation capability under noisy circumstances and moreover are not generalizable across different datasets. The robustness of the explanations must be ensured so that certain malicious attackers do not manipulate any high-stake decision scenarios to their advantage, which could cause severe consequences affecting large groups of interest. In this work, we present a general framework for feature-aware explainable recommenders that can withstand external attacks and provide robust and generalized explanations. This paper presents a novel framework which could be utilized as an additional defense tool, preserving the global explainability when subject to model-based white box attacks. Our framework is simple to implement and supports different methods regardless of the internal model structure and intrinsic utility within any model. We experimented our framework on two architecturally different feature-based SOTA explainable algorithms by training them on three popular e-commerce datasets of increasing scales. We noticed that both the algorithms displayed an overall improvement in the quality and robustness of the global explainability under normal as well as noisy environments across all the datasets, indicating the flexibility and mutability of our framework.
- Abstract(参考訳): 説明可能なレコメンデーションシステムは、提案されたレコメンデーションの背後にある理由を提供する重要な研究分野である。
ディベロッパシステムによる説明は,システム内の異常をデバッグする上でも,コンシューマにとっても有用であると同時に,商品に対する真の嗜好を捉える上でのモデルの有効性を解釈する上でも有用である。
しかし、既存の最先端(SOTA)説明可能なレコメンデータのほとんどは、ノイズの多い状況下で説明能力を維持することができず、さらに異なるデータセット間で一般化できない。
説明の堅牢性は、一部の悪意のある攻撃者が、大きな利害グループに深刻な影響をもたらす可能性のある、高リスクな決定シナリオを自分たちの利益のために操作しないように保証されなければならない。
本研究では,外的攻撃に耐え,堅牢で汎用的な説明を提供する機能対応型説明推薦者のための一般的なフレームワークを提案する。
本稿では,モデルベース・ホワイトボックス攻撃の際の世界的説明責任を保ちながら,新たな防御ツールとして活用できる新しいフレームワークを提案する。
私たちのフレームワークは、モデルの内部構造や本質的なユーティリティに関係なく、実装が簡単で、異なるメソッドをサポートします。
我々は、アーキテクチャ的に異なる2つの機能ベースのSOTA説明可能なアルゴリズムでフレームワークを実験し、規模を拡大する3つの人気のあるeコマースデータセットでそれらをトレーニングした。
どちらのアルゴリズムも、正常な条件下でのグローバルな説明可能性の品質と堅牢性、およびすべてのデータセットにわたるノイズの多い環境を総合的に改善し、フレームワークの柔軟性と変更性を示していることに気づきました。
関連論文リスト
- Stability of Explainable Recommendation [10.186029242664931]
既存の特徴指向の説明可能なレコメンデーションの脆弱性について検討する。
我々は、全ての説明可能なモデルが騒音レベルの増加に弱いことを観察する。
本研究は,レコメンデーションシステムにおけるロバストな説明の話題について,実証的な検証を行った。
論文 参考訳(メタデータ) (2024-05-03T04:44:51Z) - Flexible and Robust Counterfactual Explanations with Minimal Satisfiable
Perturbations [56.941276017696076]
我々は、最小満足度摂動(CEMSP)を用いた対実的説明法という概念的に単純だが効果的な解を提案する。
CEMSPは、意味論的に意味のある正常範囲の助けを借りて、異常な特徴の値を変更することを制限している。
既存の手法と比較して、我々は合成データセットと実世界のデータセットの両方で包括的な実験を行い、柔軟性を維持しつつ、より堅牢な説明を提供することを示した。
論文 参考訳(メタデータ) (2023-09-09T04:05:56Z) - GLOBE-CE: A Translation-Based Approach for Global Counterfactual
Explanations [10.276136171459731]
Global & Efficient Counterfactual Explanations (GLOBE-CE)は、現在の最先端技術に関連する信頼性とスケーラビリティの問題に取り組む柔軟なフレームワークである。
分類的特徴翻訳を数学的に解析し,その手法を応用した。
公開データセットとユーザスタディによる実験的評価は、GLOBE-CEが現在の最先端よりも大幅にパフォーマンスが向上していることを示している。
論文 参考訳(メタデータ) (2023-05-26T15:26:59Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Denoised MDPs: Learning World Models Better Than the World Itself [94.74665254213588]
本研究は,野生の情報を制御可能性と報酬との関係に基づく4つのタイプに分類し,制御性および報酬関連性の両方に有用な情報を定式化する。
DeepMind Control Suite と RoboDesk の変種に関する実験では、生の観測のみを用いた場合よりも、認知された世界モデルの優れた性能が示されている。
論文 参考訳(メタデータ) (2022-06-30T17:59:49Z) - From Intrinsic to Counterfactual: On the Explainability of
Contextualized Recommender Systems [43.93801836660617]
本研究では、コンテキスト的特徴(例えば、ユーザからの項目レビュー)を活用することで、一連の説明可能なレコメンデータシステムを設計できることを示す。
モデルの透明性を段階的に変化させる3つの方法として,ホワイトボックス,グレーボックス,ブラックボックスの3種類を提案する。
我々のモデルは高い競争力のあるランキング性能を達成し、多数の量的指標と定性的な視覚化の観点から正確かつ効果的な説明を生成する。
論文 参考訳(メタデータ) (2021-10-28T01:54:04Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - Robust and Stable Black Box Explanations [31.05743211871823]
ブラックボックスモデルの堅牢で安定した説明を生成するための新しいフレームワークを提案する。
我々はこのアルゴリズムを線形モデルと決定セットの形式で説明するためにインスタンス化する。
論文 参考訳(メタデータ) (2020-11-12T02:29:03Z) - Beyond Individualized Recourse: Interpretable and Interactive Summaries
of Actionable Recourses [14.626432428431594]
本稿では,Actionable Recourse Agnostic (AReS) と呼ばれる新しいモデルフレームワークを提案する。
説明文の正当性と解釈可能性の両面を同時に最適化する新たな目的を定式化する。
当社のフレームワークは,ブラックボックスモデルに対応するリコースの包括的概要を意思決定者に提供する。
論文 参考訳(メタデータ) (2020-09-15T15:14:08Z) - Explainable Recommender Systems via Resolving Learning Representations [57.24565012731325]
説明はユーザー体験を改善し、システムの欠陥を発見するのに役立つ。
本稿では,表現学習プロセスの透明性を向上させることによって,説明可能な新しい推薦モデルを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:30:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。