論文の概要: T-COL: Generating Counterfactual Explanations for General User Preferences on Variable Machine Learning Systems
- arxiv url: http://arxiv.org/abs/2309.16146v2
- Date: Thu, 4 Apr 2024 05:59:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-05 20:12:51.255481
- Title: T-COL: Generating Counterfactual Explanations for General User Preferences on Variable Machine Learning Systems
- Title(参考訳): T-COL:可変機械学習システムにおける一般ユーザ嗜好に対する対実的説明の生成
- Authors: Ming Wang, Daling Wang, Wenfang Wu, Shi Feng, Yifei Zhang,
- Abstract要約: 本稿では、ユーザ調査の徹底から得られた、検証済みの一般ユーザ嗜好に根ざしたソリューションを提案する。
また、2つのオプション構造と複数の条件群を組み込んだ新しい方法 ulineTree-based ulineConditions ulineOptional ulineLinks (T-COL) を導入する。
- 参考スコア(独自算出の注目度): 21.654812896227355
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To address the interpretability challenge in machine learning (ML) systems, counterfactual explanations (CEs) have emerged as a promising solution. CEs are unique as they provide workable suggestions to users, in addition to explaining why a certain outcome was predicted. The application of CEs encounters two main challenges: general user preferences and variable ML systems. User preferences tend to be general rather than specific, and CEs need to be adaptable to variable ML models while maintaining robustness even as these models change. Facing these challenges, we present a solution rooted in validated general user preferences, which are derived from thorough user research. We map these preferences to the properties of CEs. Additionally, we introduce a novel method, \uline{T}ree-based \uline{C}onditions \uline{O}ptional \uline{L}inks (T-COL), which incorporates two optional structures and multiple condition groups for generating CEs adaptable to general user preferences. Meanwhile, we employ T-COL to enhance the robustness of CEs with specific conditions, making them more valid even when the ML model is replaced. Our experimental comparisons under different user preferences show that T-COL outperforms all baselines, including Large Language Models which are shown to be able to generate counterfactuals.
- Abstract(参考訳): 機械学習(ML)システムにおける解釈可能性の問題に対処するため、対実的説明(CE)が有望な解決策として浮上した。
CEは、なぜある結果が予測されたのかを説明することに加えて、ユーザに対して実行可能な提案を提供するため、ユニークなものだ。
CEの応用は、一般的なユーザの好みと可変MLシステムという2つの大きな課題に直面している。
ユーザの好みは特定のものよりも一般的で、CEは変更しても堅牢性を維持しながら、可変MLモデルに適応する必要がある。
これらの課題に直面すると、徹底的なユーザ調査から導かれる、検証済みの一般ユーザ嗜好に根ざしたソリューションが提示される。
これらの選好をCEの特性にマップする。
さらに,2つのオプション構造と複数の条件群を組み込んで,一般的なユーザの好みに適応可能なCEを生成する新しい方法である \uline{T}ree-based \uline{C}onditions \uline{O}ptional \uline{L}inks (T-COL)を導入する。
一方,T-COLを用いて特定の条件でCEのロバスト性を向上し,MLモデルを置き換える場合においても有効である。
ユーザの好みの違いによる実験結果から,T-COLは,反事実を生成可能な大規模言語モデルを含む,すべてのベースラインを上回ります。
関連論文リスト
- TEARS: Textual Representations for Scrutable Recommendations [8.034808726140268]
TEARS(TExtuAl Representations for Scrutable Representations)について紹介する。
TEARSは、潜伏した埋め込みを通じてユーザの興味を表す代わりに、それらを自然なテキストでエンコードし、透明性を提供し、ユーザーが編集できるようにする。
TEARSは、ユーザ制御可能なレコメンデーションを提供しながら、一般的な3つのVAEモデルの性能を上回ることができる。
論文 参考訳(メタデータ) (2024-10-25T04:26:00Z) - GaVaMoE: Gaussian-Variational Gated Mixture of Experts for Explainable Recommendation [55.769720670731516]
GaVaMoEは、説明可能なレコメンデーションのための新しいフレームワークである。
特定のユーザータイプや好みのカスタマイズされた説明を生成する。
疎いユーザ-イテムインタラクションのシナリオでは、堅牢なパフォーマンスを示す。
論文 参考訳(メタデータ) (2024-10-15T17:59:30Z) - Improved Diversity-Promoting Collaborative Metric Learning for Recommendation [127.08043409083687]
CML(Collaborative Metric Learning)は、リコメンデーションシステムにおいて人気のある手法として最近登場した。
本稿では,ユーザが複数のカテゴリの関心を持つ,困難なシナリオに焦点をあてる。
textitDiversity-Promoting Collaborative Metric Learning (DPCML) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-09-02T07:44:48Z) - Large Language Models for Power Scheduling: A User-Centric Approach [6.335540414370735]
本稿では、任意のユーザの音声要求(VRQ)をリソース割り当てベクトルに変換することで、リソーススケジューリング問題に対する新しいアーキテクチャを提案する。
具体的には、要求を最適化問題(OP)に変換するためのLLM意図認識エージェント、LLM OPパラメータ識別エージェント、OP解決エージェントを設計する。
論文 参考訳(メタデータ) (2024-06-29T15:47:28Z) - LLM-ESR: Large Language Models Enhancement for Long-tailed Sequential Recommendation [58.04939553630209]
現実世界のシステムでは、ほとんどのユーザーはほんの一握りのアイテムしか扱わないが、ほとんどのアイテムは滅多に消費されない。
これら2つの課題は、ロングテールユーザーとロングテールアイテムの課題として知られ、しばしば既存のシークエンシャルレコメンデーションシステムに困難をもたらす。
本稿では,これらの課題に対処するため,Large Language Models Enhancement framework for Sequential Recommendation (LLM-ESR)を提案する。
論文 参考訳(メタデータ) (2024-05-31T07:24:42Z) - Countering Mainstream Bias via End-to-End Adaptive Local Learning [17.810760161534247]
CF(Collaborative Filtering)ベースのレコメンデーションは、主流のバイアスに悩まされる。
主流ユーザとニッチユーザの両方に高品質なレコメンデーションを提供するために,新しいエンドツーエンド適応型ローカル学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-13T03:17:33Z) - Introducing User Feedback-based Counterfactual Explanations (UFCE) [49.1574468325115]
対実的説明(CE)は、XAIで理解可能な説明を生成するための有効な解決策として浮上している。
UFCEは、アクション可能な機能のサブセットで最小限の変更を決定するために、ユーザー制約を含めることができる。
UFCEは、textitproximity(英語版)、textitsparsity(英語版)、textitfeasibility(英語版)の2つのよく知られたCEメソッドより優れている。
論文 参考訳(メタデータ) (2024-02-26T20:09:44Z) - RecExplainer: Aligning Large Language Models for Explaining Recommendation Models [50.74181089742969]
大規模言語モデル (LLM) は、理解、推論、指導において顕著な知性を示した。
本稿では, ブラックボックスレコメンデータモデルを説明するために, LLM を代理モデルとして利用することについて検討する。
効果的なアライメントを容易にするために,行動アライメント,意図アライメント,ハイブリッドアライメントという3つの手法を導入する。
論文 参考訳(メタデータ) (2023-11-18T03:05:43Z) - The Minority Matters: A Diversity-Promoting Collaborative Metric
Learning Algorithm [154.47590401735323]
CML(Collaborative Metric Learning)は、リコメンデーションシステムにおいて人気のある手法として最近登場した。
本稿では,ユーザが複数のカテゴリの関心を持つ,困難なシナリオに焦点をあてる。
textitDiversity-Promoting Collaborative Metric Learning (DPCML) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-09-30T08:02:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。