論文の概要: "Explain it in the Same Way!" -- Model-Agnostic Group Fairness of
Counterfactual Explanations
- arxiv url: http://arxiv.org/abs/2211.14858v1
- Date: Sun, 27 Nov 2022 15:24:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 15:47:56.890831
- Title: "Explain it in the Same Way!" -- Model-Agnostic Group Fairness of
Counterfactual Explanations
- Title(参考訳): 「同じ方法で説明しろ!」 -- 対実的説明のモデル非依存グループフェアネス
- Authors: Andr\'e Artelt and Barbara Hammer
- Abstract要約: システムの結果を望ましい方法で変更するために、相手に何をすべきかを教えます。
本稿では,保護群間の複雑性に大きく違いのない,反現実的説明をモデル化するためのモデルに依存しない手法を提案する。
- 参考スコア(独自算出の注目度): 8.132423340684568
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Counterfactual explanations are a popular type of explanation for making the
outcomes of a decision making system transparent to the user. Counterfactual
explanations tell the user what to do in order to change the outcome of the
system in a desirable way. However, it was recently discovered that the
recommendations of what to do can differ significantly in their complexity
between protected groups of individuals. Providing more difficult
recommendations of actions to one group leads to a disadvantage of this group
compared to other groups.
In this work we propose a model-agnostic method for computing counterfactual
explanations that do not differ significantly in their complexity between
protected groups.
- Abstract(参考訳): 反事実的説明は、意思決定システムの結果をユーザに透明にする一般的な説明である。
反事実的な説明は、望ましい方法でシステムの結果を変更するために、ユーザに何をすべきかを伝えます。
しかし,最近の研究結果から,行動の推奨事項は,保護された個人群間の複雑さにおいて著しく異なることが判明した。
あるグループに対するアクションのより難しい推奨を提供することは、他のグループと比較してこのグループの不利につながる。
本研究では,保護群間の複雑性に差がない反事実的説明をモデル非依存で計算する手法を提案する。
関連論文リスト
- Rectifying Group Irregularities in Explanations for Distribution Shift [18.801357928801412]
GSE(Group-Aware Shift Explanations)は、最悪のグループ最適化を活用して、グループ不規則を是正することで解釈可能な説明を生成する。
人口統計学や階層的サブポピュレーションなどのグループ構造をGSEが維持するだけでなく、その結果の妥当性やロバスト性も向上することを示す。
論文 参考訳(メタデータ) (2023-05-25T17:57:46Z) - Explaining Groups of Instances Counterfactually for XAI: A Use Case,
Algorithm and User Study for Group-Counterfactuals [7.22614468437919]
類似事例群を包括的に説明する新たなユースケースについて検討する。
集団のカウンターファクトは、複数の事象や事件を網羅する、一貫性のある幅広い説明を人間の好みに適合させる。
結果から,AIシステムに対する理解は軽微だが,明確な改善が見られた。
論文 参考訳(メタデータ) (2023-03-16T13:16:50Z) - Explainable Data-Driven Optimization: From Context to Decision and Back
Again [76.84947521482631]
データ駆動最適化では、コンテキスト情報と機械学習アルゴリズムを使用して、不確実なパラメータによる決定問題の解決策を見つける。
本稿では,データ駆動型問題に対する解法を説明するために,対実的説明手法を提案する。
在庫管理やルーティングといった運用管理における重要な問題を説明することで,我々のアプローチを実証する。
論文 参考訳(メタデータ) (2023-01-24T15:25:16Z) - Homomorphism Autoencoder -- Learning Group Structured Representations from Observed Transitions [51.71245032890532]
本研究では,世界に作用するエージェントが,それを修飾する動作と整合した感覚情報の内部表現を学習できるようにする手法を提案する。
既存の作業とは対照的に、我々のアプローチはグループの事前の知識を必要とせず、エージェントが実行可能なアクションのセットを制限しない。
論文 参考訳(メタデータ) (2022-07-25T11:22:48Z) - From Intrinsic to Counterfactual: On the Explainability of
Contextualized Recommender Systems [43.93801836660617]
本研究では、コンテキスト的特徴(例えば、ユーザからの項目レビュー)を活用することで、一連の説明可能なレコメンデータシステムを設計できることを示す。
モデルの透明性を段階的に変化させる3つの方法として,ホワイトボックス,グレーボックス,ブラックボックスの3種類を提案する。
我々のモデルは高い競争力のあるランキング性能を達成し、多数の量的指標と定性的な視覚化の観点から正確かつ効果的な説明を生成する。
論文 参考訳(メタデータ) (2021-10-28T01:54:04Z) - DeepGroup: Representation Learning for Group Recommendation with
Implicit Feedback [0.5584060970507505]
我々は、好みが不明な新しいユーザーグループへの推薦に重点を置いているが、他のグループの決定や選択が与えられている。
一連のグループとその観察された決定を考えると、グループ決定予測は、新しいグループのユーザーの決定を予測することを意図しています。
逆の社会的選択は、観察されたグループ決定に関わるユーザの好みを推測することを目的としています。
論文 参考訳(メタデータ) (2021-03-13T02:05:26Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - Overcoming Data Sparsity in Group Recommendation [52.00998276970403]
グループレコメンデータシステムは、ユーザの個人的な好みだけでなく、嗜好集約戦略も正確に学習できなければならない。
本稿では,BGEM(Bipartite Graphding Model)とGCN(Graph Convolutional Networks)を基本構造として,グループとユーザ表現を統一的に学習する。
論文 参考訳(メタデータ) (2020-10-02T07:11:19Z) - Explainable Recommender Systems via Resolving Learning Representations [57.24565012731325]
説明はユーザー体験を改善し、システムの欠陥を発見するのに役立つ。
本稿では,表現学習プロセスの透明性を向上させることによって,説明可能な新しい推薦モデルを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:30:48Z) - Fairness-Aware Explainable Recommendation over Knowledge Graphs [73.81994676695346]
ユーザのアクティビティのレベルに応じて異なるグループのユーザを分析し、異なるグループ間での推奨パフォーマンスにバイアスが存在することを確認する。
不活性なユーザは、不活性なユーザのためのトレーニングデータが不十分なため、不満足なレコメンデーションを受けやすい可能性がある。
本稿では、知識グラフに対する説明可能な推奨という文脈で、この問題を緩和するために再ランク付けすることで、公平性に制約されたアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-03T05:04:38Z) - Algorithmic Recourse: from Counterfactual Explanations to Interventions [16.9979815165902]
反事実的な説明は、どこに着く必要があるのかを個人に知らせるが、そこにたどり着くには至らない、と我々は主張する。
代わりに、最小限の介入を通して、最も近い対実的な説明から言い換えへのパラダイムシフトを提案する。
論文 参考訳(メタデータ) (2020-02-14T22:49:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。