論文の概要: Counterfactual Explanations via Locally-guided Sequential Algorithmic
Recourse
- arxiv url: http://arxiv.org/abs/2309.04211v1
- Date: Fri, 8 Sep 2023 08:47:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-11 13:52:33.408914
- Title: Counterfactual Explanations via Locally-guided Sequential Algorithmic
Recourse
- Title(参考訳): 局所誘導型逐次アルゴリズムによる実例説明
- Authors: Edward A. Small, Jeffrey N. Clark, Christopher J. McWilliams, Kacper
Sokol, Jeffrey Chan, Flora D. Salim, Raul Santos-Rodriguez
- Abstract要約: 提案するLocalFACEは,現実的かつ実用的な対実的説明を構成するモデルに依存しない手法である。
提案手法は, ユーザのプライバシーを, 行動可能なアルゴリズムによる会話の構築に必要なデータのみを活用することで保護する。
- 参考スコア(独自算出の注目度): 13.95253855760017
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Counterfactuals operationalised through algorithmic recourse have become a
powerful tool to make artificial intelligence systems explainable.
Conceptually, given an individual classified as y -- the factual -- we seek
actions such that their prediction becomes the desired class y' -- the
counterfactual. This process offers algorithmic recourse that is (1) easy to
customise and interpret, and (2) directly aligned with the goals of each
individual. However, the properties of a "good" counterfactual are still
largely debated; it remains an open challenge to effectively locate a
counterfactual along with its corresponding recourse. Some strategies use
gradient-driven methods, but these offer no guarantees on the feasibility of
the recourse and are open to adversarial attacks on carefully created
manifolds. This can lead to unfairness and lack of robustness. Other methods
are data-driven, which mostly addresses the feasibility problem at the expense
of privacy, security and secrecy as they require access to the entire training
data set. Here, we introduce LocalFACE, a model-agnostic technique that
composes feasible and actionable counterfactual explanations using
locally-acquired information at each step of the algorithmic recourse. Our
explainer preserves the privacy of users by only leveraging data that it
specifically requires to construct actionable algorithmic recourse, and
protects the model by offering transparency solely in the regions deemed
necessary for the intervention.
- Abstract(参考訳): アルゴリズムによるリコースによって操作される対物は、人工知能システムを説明するための強力なツールとなっている。
概念的には、y に分類される個人 -- 事実 -- が与えられた場合、予測が所望のクラス y' となるような行動を求める。
このプロセスは、(1)カスタマイズや解釈が簡単で、(2)個々の目標と直接一致したアルゴリズムによる会話を提供する。
しかし、「良い」反事実の性質はいまだに大半が議論されている; 反事実とそれに対応する関係を効果的に見つけ出すことは、未解決の課題である。
グラデーション駆動の手法を用いる戦略もあるが、これらの戦略は帰納法の可否を保証せず、注意深く作られた多様体に対する敵対的攻撃に対してオープンである。
これは不公平と堅牢性の欠如につながる可能性がある。
他の方法はデータ駆動型で、主にトレーニングデータセット全体にアクセスする必要があるため、プライバシ、セキュリティ、機密を犠牲にして実現可能性の問題に対処する。
そこで本研究では,アルゴリズムのそれぞれのステップにおいて,局所的に取得した情報を用いて,現実的かつ実用的な対実的説明を構成するモデルに依存しない手法であるLocalFACEを紹介する。
提案手法では, ユーザのプライバシを, 行動可能なアルゴリズムによる会話の構築に必要なデータのみを活用することで保護し, 介入に必要な領域にのみ透明性を提供することで, モデルを保護する。
関連論文リスト
- Simple Steps to Success: A Method for Step-Based Counterfactual Explanations [9.269923473051138]
本稿では,データ駆動型モデル依存型フレームワークを提案する。
計算効率のよいStEPはデータ多様体に沿って漸進的なステップを提供し、ユーザを望ましい結果へと誘導する。
論文 参考訳(メタデータ) (2023-06-27T15:35:22Z) - On the Privacy Risks of Algorithmic Recourse [17.33484111779023]
対戦相手がリコースを利用して、基礎となるモデルのトレーニングデータに関するプライベート情報を推測できるかどうかを調査する最初の試みを行う。
我々の研究は、リコメンデーション手法の普及において、意図しないプライバシー漏洩が重要なリスクとして確立されている。
論文 参考訳(メタデータ) (2022-11-10T09:04:24Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - On the Trade-Off between Actionable Explanations and the Right to be
Forgotten [21.26254644739585]
データ削除要求の文脈におけるリコース無効化の問題について検討する。
トレーニングセットから最大2つのデータインスタンスを削除することで、一般的な最先端アルゴリズムによって出力されるすべてのリコースの最大95%を無効化できることを示す。
論文 参考訳(メタデータ) (2022-08-30T10:35:32Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Automated Decision-based Adversarial Attacks [48.01183253407982]
我々は、実用的で挑戦的な意思決定ベースのブラックボックスの敵意設定を考える。
この設定では、攻撃者はターゲットモデルに問い合わせるだけで最終分類ラベルを取得できる。
意思決定に基づく攻撃アルゴリズムを自動的に発見する。
論文 参考訳(メタデータ) (2021-05-09T13:15:10Z) - Domain-Robust Visual Imitation Learning with Mutual Information
Constraints [0.0]
Disentangling Generative Adversarial Imitation Learning (DisentanGAIL)と呼ばれる新しいアルゴリズムを導入する。
本アルゴリズムは,タスクを実行する専門家の高次元観察から自律エージェントを直接学習することを可能にする。
論文 参考訳(メタデータ) (2021-03-08T21:18:58Z) - An Analysis of Robustness of Non-Lipschitz Networks [35.64511156980701]
小さな入力摂動は、しばしばネットワークの最終層の特徴空間において大きな動きを引き起こす。
我々のモデルでは、敵対者は特徴空間において任意の距離でデータを移動することができるが、ランダムな低次元部分空間においてのみである。
データ駆動方式を用いて,アルゴリズムパラメータの設定を精度保持トレードオフよりも最適化するための理論的保証を提供する。
論文 参考訳(メタデータ) (2020-10-13T03:56:39Z) - A black-box adversarial attack for poisoning clustering [78.19784577498031]
本稿では,クラスタリングアルゴリズムのロバスト性をテストするために,ブラックボックス対逆攻撃法を提案する。
我々の攻撃は、SVM、ランダムフォレスト、ニューラルネットワークなどの教師付きアルゴリズムに対しても転送可能であることを示す。
論文 参考訳(メタデータ) (2020-09-09T18:19:31Z) - Guided Uncertainty-Aware Policy Optimization: Combining Learning and
Model-Based Strategies for Sample-Efficient Policy Learning [75.56839075060819]
従来のロボットのアプローチは、環境の正確なモデル、タスクの実行方法の詳細な説明、現在の状態を追跡するための堅牢な認識システムに依存している。
強化学習アプローチは、タスクを記述するための報酬信号だけで、生の感覚入力から直接操作することができるが、非常にサンプル非効率で脆弱である。
本研究では,ロボットの知覚・運動パイプラインにおける不正確さを克服できる一般的な手法を得るために,モデルに基づく手法の強みと学習に基づく手法の柔軟性を組み合わせる。
論文 参考訳(メタデータ) (2020-05-21T19:47:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。