論文の概要: Explaining Recommendation System Using Counterfactual Textual
Explanations
- arxiv url: http://arxiv.org/abs/2303.11160v1
- Date: Tue, 14 Mar 2023 06:45:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-25 03:37:03.942125
- Title: Explaining Recommendation System Using Counterfactual Textual
Explanations
- Title(参考訳): 対物的テクスト記述を用いた推薦システム
- Authors: Niloofar Ranjbar and Saeedeh Momtazi and MohammadMehdi Homayounpour
- Abstract要約: エンドユーザーが何らかのアウトプットを生産する理由を理解すれば、システムへの信頼がより容易になる。
より説明可能な出力を生成する方法の1つは、反実的推論を使うことである。
- 参考スコア(独自算出の注目度): 4.318555434063274
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Currently, there is a significant amount of research being conducted in the
field of artificial intelligence to improve the explainability and
interpretability of deep learning models. It is found that if end-users
understand the reason for the production of some output, it is easier to trust
the system. Recommender systems are one example of systems that great efforts
have been conducted to make their output more explainable. One method for
producing a more explainable output is using counterfactual reasoning, which
involves altering minimal features to generate a counterfactual item that
results in changing the output of the system. This process allows the
identification of input features that have a significant impact on the desired
output, leading to effective explanations. In this paper, we present a method
for generating counterfactual explanations for both tabular and textual
features. We evaluated the performance of our proposed method on three
real-world datasets and demonstrated a +5\% improvement on finding effective
features (based on model-based measures) compared to the baseline method.
- Abstract(参考訳): 現在、ディープラーニングモデルの説明可能性と解釈可能性を改善するために、人工知能の分野でかなりの研究が行われている。
エンドユーザーが何らかのアウトプットを生産する理由を理解すれば、システムへの信頼がより容易になる。
レコメンダシステムは、アウトプットをより説明しやすくするために非常に努力されたシステムの例である。
より説明可能な出力を生成する方法の1つは、最小限の機能を変更することで、システム出力を変更する結果となる対実アイテムを生成する、反実的推論を使用することである。
このプロセスは、望ましいアウトプットに大きな影響を与える入力特徴の識別を可能にし、効果的な説明につながる。
本稿では,表とテキストの特徴の両面について,反実的説明を生成する手法を提案する。
提案手法の性能を実世界の3つのデータセットで評価し,ベースライン法と比較して,有効性(モデルに基づく測度に基づく)を求める上で,+5\%の改善効果を示した。
関連論文リスト
- Likelihood as a Performance Gauge for Retrieval-Augmented Generation [78.28197013467157]
言語モデルの性能の効果的な指標としての可能性を示す。
提案手法は,より優れた性能をもたらすプロンプトの選択と構築のための尺度として,疑似可能性を利用する2つの手法を提案する。
論文 参考訳(メタデータ) (2024-11-12T13:14:09Z) - An AI Architecture with the Capability to Explain Recognition Results [0.0]
本研究は、説明可能性に対するメトリクスの重要性に焦点をあて、性能向上をもたらす2つの方法に貢献する。
第1の方法は説明不能なフローと説明不能なフローの組み合わせを導入し、意思決定の説明容易性を特徴づける指標を提案する。
第2の方法は、システム内のニューラルネットワークの有効性を推定するための古典的なメトリクスを比較し、新しいメトリックをリードパフォーマーとして振る舞う。
論文 参考訳(メタデータ) (2024-06-13T02:00:13Z) - Explainability for Machine Learning Models: From Data Adaptability to
User Perception [0.8702432681310401]
この論文は、すでにデプロイされた機械学習モデルに対する局所的な説明の生成を探求する。
データとユーザ要件の両方を考慮して、意味のある説明を生み出すための最適な条件を特定することを目的としている。
論文 参考訳(メタデータ) (2024-02-16T18:44:37Z) - Unlocking the Potential of Large Language Models for Explainable
Recommendations [55.29843710657637]
説明ジェネレータを最近登場した大規模言語モデル(LLM)に置き換える影響は、まだ不明である。
本研究では,シンプルで効果的な2段階説明可能なレコメンデーションフレームワークであるLLMXRecを提案する。
いくつかの重要な微調整技術を採用することで、制御可能で流動的な説明が十分に生成できる。
論文 参考訳(メタデータ) (2023-12-25T09:09:54Z) - Complementary Explanations for Effective In-Context Learning [77.83124315634386]
大規模言語モデル (LLM) は、説明のインプロンプトから学習する際、顕著な能力を示した。
この研究は、文脈内学習に説明が使用されるメカニズムをよりよく理解することを目的としている。
論文 参考訳(メタデータ) (2022-11-25T04:40:47Z) - Robustness and Usefulness in AI Explanation Methods [0.0]
この研究は、LIME、SmoothGrad、SHAPの3つの一般的な説明手法を要約し、比較し、対比する。
我々は,これらの手法の評価を行った:頑健さ,サンプルの複雑さと安定性,理解可能性,提供された説明がユーザの期待と一致しているという意味で。
この研究は、現在の説明方法が不十分である、と結論付けている。
論文 参考訳(メタデータ) (2022-03-07T21:30:48Z) - DisCERN:Discovering Counterfactual Explanations using Relevance Features
from Neighbourhoods [1.9706200133168679]
DisCERNは、優れた対実的説明を作成するために必要な実行可能な変更を最小限に抑える効果的な戦略である。
機能関連性に基づく説明がDisCERNに「実行可能な機能」の最小サブセットを特定するためにいかに広く採用されているかを示す。
以上の結果から, DisCERN は, 適切な対実的説明作成に必要な実行可能な変更を最小化するための効果的な戦略であることが示唆された。
論文 参考訳(メタデータ) (2021-09-13T09:25:25Z) - Search Methods for Sufficient, Socially-Aligned Feature Importance
Explanations with In-Distribution Counterfactuals [72.00815192668193]
特徴重要度(FI)推定は一般的な説明形式であり、テスト時に特定の入力特徴を除去することによって生じるモデル信頼度の変化を計算し、評価することが一般的である。
FIに基づく説明の未探索次元についていくつかの考察を行い、この説明形式に対する概念的および実証的な改善を提供する。
論文 参考訳(メタデータ) (2021-06-01T20:36:48Z) - Explain and Predict, and then Predict Again [6.865156063241553]
説明生成フェーズにおけるマルチタスク学習を用いたExPredを、効果的なトレードオフ説明と予測損失として提案します。
3つの多様な言語データセットに対するアプローチを幅広く評価しています。
論文 参考訳(メタデータ) (2021-01-11T19:36:52Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - Explainable Recommender Systems via Resolving Learning Representations [57.24565012731325]
説明はユーザー体験を改善し、システムの欠陥を発見するのに役立つ。
本稿では,表現学習プロセスの透明性を向上させることによって,説明可能な新しい推薦モデルを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:30:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。