論文の概要: Explaining the (Not So) Obvious: Simple and Fast Explanation of STAN, a Next Point of Interest Recommendation System
- arxiv url: http://arxiv.org/abs/2410.03841v1
- Date: Fri, 4 Oct 2024 18:14:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-02 16:00:59.460428
- Title: Explaining the (Not So) Obvious: Simple and Fast Explanation of STAN, a Next Point of Interest Recommendation System
- Title(参考訳): 要旨:STANのシンプルかつ高速な説明
- Authors: Fajrian Yunus, Talel Abdessalem,
- Abstract要約: いくつかの機械学習手法は本質的に説明可能であるため、完全にブラックボックスではない。
これによって開発者は、複雑で高価な説明可能性技術を開発することなく、アウトプットを理解することができる。
我々は、協調フィルタリングとシーケンス予測に基づく次の関心点推薦システムSTANにおいて、この哲学/パラダイムを実証する。
- 参考スコア(独自算出の注目度): 0.5796859155047135
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A lot of effort in recent years have been expended to explain machine learning systems. However, some machine learning methods are inherently explainable, and thus are not completely black box. This enables the developers to make sense of the output without a developing a complex and expensive explainability technique. Besides that, explainability should be tailored to suit the context of the problem. In a recommendation system which relies on collaborative filtering, the recommendation is based on the behaviors of similar users, therefore the explanation should tell which other users are similar to the current user. Similarly, if the recommendation system is based on sequence prediction, the explanation should also tell which input timesteps are the most influential. We demonstrate this philosophy/paradigm in STAN (Spatio-Temporal Attention Network for Next Location Recommendation), a next Point of Interest recommendation system based on collaborative filtering and sequence prediction. We also show that the explanation helps to "debug" the output.
- Abstract(参考訳): 近年、機械学習システムの説明に多くの努力が費やされている。
しかし、いくつかの機械学習手法は本質的に説明可能であるため、完全にブラックボックスではない。
これによって開発者は、複雑で高価な説明可能性技術を開発することなく、アウトプットを理解することができる。
それに加えて、説明責任は問題のコンテキストに適合するように調整されるべきである。
協調フィルタリングに依存するレコメンデーションシステムでは, 類似ユーザの行動に基づいたレコメンデーションを行う。
同様に、レコメンデーションシステムがシーケンス予測に基づいている場合、どの入力タイムステップが最も影響のあるかを説明すべきである。
我々は,STAN(Spatio-Temporal Attention Network for Next Location Recommendation)におけるこの哲学/パラダイムを,協調フィルタリングとシーケンス予測に基づく次の関心点推薦システムで実証する。
また、その説明がアウトプットの“デバッグ”に役立つことも示しています。
関連論文リスト
- Review of Explainable Graph-Based Recommender Systems [2.1711205684359247]
本稿では,説明可能なグラフベースレコメンデータシステムの最先端のアプローチについて論じる。
それは、学習方法、説明方法、説明型という3つの側面に基づいて分類する。
論文 参考訳(メタデータ) (2024-07-31T21:30:36Z) - Generating Context-Aware Contrastive Explanations in Rule-based Systems [2.497044167437633]
本稿では,ルールベースのシステムにおいて,ユーザが説明を求める状況において,潜在的なコントラストイベントを予測するアプローチを提案する。
提案手法では,説明が必要な状況を分析し,ユーザが観察したものではなく,ユーザが期待したであろう最も可能性の高いルールを選択する。
このコントラスト的なイベントは、ユーザに提示されるコントラスト的な説明を作成するために使用される。
論文 参考訳(メタデータ) (2024-02-20T13:31:12Z) - Learning to Counterfactually Explain Recommendations [14.938252589829673]
本稿では,反実的説明を生成するための学習ベースのフレームワークを提案する。
説明文を生成するために,提案手法が提案するサロゲートモデルにより予測される履歴部分集合を抽出する可能性が最も高い。
論文 参考訳(メタデータ) (2022-11-17T18:21:21Z) - Reinforced Path Reasoning for Counterfactual Explainable Recommendation [10.36395995374108]
本稿では,項目属性に基づく反現実的説明を生成するために,CERec を新たに提案する。
我々は、与えられた知識グラフのリッチなコンテキスト情報を用いて、適応経路サンプリング器を用いて巨大な探索空間を縮小する。
論文 参考訳(メタデータ) (2022-07-14T05:59:58Z) - Explainability in Music Recommender Systems [69.0506502017444]
音楽レコメンダシステム(MRS)の文脈における説明可能性について論じる。
MRSは非常に複雑で、推奨精度に最適化されることが多い。
本稿では、MSSに説明可能性コンポーネントを組み込む方法と、どのようなフォーム説明を提供するかを示す。
論文 参考訳(メタデータ) (2022-01-25T18:32:11Z) - Counterfactual Explainable Recommendation [22.590877963169103]
本稿では、因果推論から反実的推論の洞察を取り入れて説明可能な推薦を行うCountERを提案する。
CountERは、モデル決定に対して単純(低複雑性)で効果的な(高強度)説明を求める。
以上の結果から,我々のモデルは,最先端のレコメンデーションモデルよりも正確かつ効果的に説明できることを示す。
論文 参考訳(メタデータ) (2021-08-24T06:37:57Z) - EXPLAINABOARD: An Explainable Leaderboard for NLP [69.59340280972167]
ExplainaBoardはNLP評価の新たな概念化と実装である。
研究者は(i)一つのシステムの強みと弱さを診断し、(ii)複数のシステム間の関係を解釈することができる。
論文 参考訳(メタデータ) (2021-04-13T17:45:50Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - Fairness-Aware Explainable Recommendation over Knowledge Graphs [73.81994676695346]
ユーザのアクティビティのレベルに応じて異なるグループのユーザを分析し、異なるグループ間での推奨パフォーマンスにバイアスが存在することを確認する。
不活性なユーザは、不活性なユーザのためのトレーニングデータが不十分なため、不満足なレコメンデーションを受けやすい可能性がある。
本稿では、知識グラフに対する説明可能な推奨という文脈で、この問題を緩和するために再ランク付けすることで、公平性に制約されたアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-03T05:04:38Z) - An Information-Theoretic Approach to Personalized Explainable Machine
Learning [92.53970625312665]
本稿では,予測とユーザ知識のための簡易確率モデルを提案する。
説明と予測の間の条件付き相互情報による説明の効果を定量化する。
論文 参考訳(メタデータ) (2020-03-01T13:06:29Z) - Hybrid Deep Embedding for Recommendations with Dynamic Aspect-Level
Explanations [60.78696727039764]
アスペクトベースの説明可能なレコメンデーションのためのHybrid Deep Embeddingと呼ばれる新しいモデルを提案する。
HDEの主な考え方は、評価予測のためにユーザとアイテムの動的埋め込みを学ぶことである。
ユーザ/イテムのアスペクトの好みや品質が自動的に学習されるため、HDEは、ユーザや項目のレビューで言及されていないアスペクトの影響を捉えることができる。
論文 参考訳(メタデータ) (2020-01-18T13:16:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。