論文の概要: Counterfactual Explanations for Machine Learning: Challenges Revisited
- arxiv url: http://arxiv.org/abs/2106.07756v1
- Date: Mon, 14 Jun 2021 20:56:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-16 15:32:06.677924
- Title: Counterfactual Explanations for Machine Learning: Challenges Revisited
- Title(参考訳): 機械学習の非現実的説明 - 課題の再考
- Authors: Sahil Verma, John Dickerson, Keegan Hines
- Abstract要約: 対実的説明(CFE)は、機械学習(ML)モデルの解釈可能性の傘の下に生まれたテクニックである。
入力データポイントが$x$ではなく$x’$であれば、MLモデルの出力は$y’$ではなく$y’$になる。
- 参考スコア(独自算出の注目度): 6.939768185086755
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Counterfactual explanations (CFEs) are an emerging technique under the
umbrella of interpretability of machine learning (ML) models. They provide
``what if'' feedback of the form ``if an input datapoint were $x'$ instead of
$x$, then an ML model's output would be $y'$ instead of $y$.'' Counterfactual
explainability for ML models has yet to see widespread adoption in industry. In
this short paper, we posit reasons for this slow uptake. Leveraging recent work
outlining desirable properties of CFEs and our experience running the ML wing
of a model monitoring startup, we identify outstanding obstacles hindering CFE
deployment in industry.
- Abstract(参考訳): 対実的説明(CFE)は、機械学習(ML)モデルの解釈可能性の傘の下に生まれたテクニックである。
入力データポイントが$x$ではなく$x’$であれば、MLモデルの出力は$y’$ではなく$y’$になる。
MLモデルの非現実的な説明可能性はまだ業界で広く採用されていない。
この短い論文では、この普及の鈍化の理由を示唆する。
CFEの望ましい特性と、モデル監視スタートアップのMLウィングを運用した経験を概説した最近の成果を活用して、業界におけるCFEの展開を妨げる優れた障害を特定します。
関連論文リスト
- Monetizing Currency Pair Sentiments through LLM Explainability [2.572906392867547]
大規模言語モデル(LLM)は、今日の組織のほとんどすべての領域において重要な役割を担います。
我々は,感情分析の妥当性を説明するために,LLMをポストホックモデルに依存しないツールとして活用する新しい手法を提案する。
本手法を金融分野に適用し,公開ニュースフィードデータと市場価格を融合した通貨対対価の予測を行う。
論文 参考訳(メタデータ) (2024-07-29T11:58:54Z) - Verbalized Machine Learning: Revisiting Machine Learning with Language Models [63.10391314749408]
言語化機械学習(VML)の枠組みを紹介する。
VMLはパラメータ空間を人間の解釈可能な自然言語に制限する。
我々は,VMLの有効性を実証的に検証し,VMLがより強力な解釈可能性を実現するためのステップストーンとして機能することを期待する。
論文 参考訳(メタデータ) (2024-06-06T17:59:56Z) - Advancing Anomaly Detection: Non-Semantic Financial Data Encoding with LLMs [49.57641083688934]
本稿では,Large Language Models (LLM) 埋め込みを用いた財務データにおける異常検出の新しい手法を提案する。
実験により,LLMが異常検出に有用な情報をもたらし,モデルがベースラインを上回っていることが確認された。
論文 参考訳(メタデータ) (2024-06-05T20:19:09Z) - Explaining black boxes with a SMILE: Statistical Model-agnostic
Interpretability with Local Explanations [0.1398098625978622]
機械学習(ML)の広く受け入れられる大きな障壁の1つは、信頼性である。
ほとんどのMLモデルはブラックボックスとして機能し、内部の動作は不透明で神秘的であり、それらの結論がどのように達成されたかを理解することなく、それらの結論を信頼することは困難である。
SMILEは, 統計的距離測定を応用して, 説明可能性を向上させる手法として, 従来の手法に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-13T12:28:00Z) - Evaluating and Explaining Large Language Models for Code Using Syntactic
Structures [74.93762031957883]
本稿では,コード用大規模言語モデルに特有の説明可能性手法であるASTxplainerを紹介する。
その中核にあるASTxplainerは、トークン予測をASTノードに整合させる自動メソッドを提供する。
私たちは、最も人気のあるGitHubプロジェクトのキュレートデータセットを使用して、コード用の12の人気のあるLLMに対して、実証的な評価を行います。
論文 参考訳(メタデータ) (2023-08-07T18:50:57Z) - Logic-Based Explainability in Machine Learning [0.0]
最も成功した機械学習モデルの運用は、人間の意思決定者にとって理解できない。
近年,MLモデルを説明するためのアプローチの開発が試みられている。
本稿では,MLモデルの厳密なモデルに基づく説明を計算するための研究成果について概説する。
論文 参考訳(メタデータ) (2022-10-24T13:43:07Z) - Reducing Unintended Bias of ML Models on Tabular and Textual Data [5.503546193689538]
我々は、より公平なモデルを構築するために、"無意識によるフェアネス"アプローチにインスパイアされたフレームワークであるFixOutを再考する。
FixOutのパラメータの選択を自動化するなど、いくつかの改善点を紹介します。
我々は、FixOutが異なる分類設定におけるプロセスの公平性を改善することを示す実験結果をいくつか提示する。
論文 参考訳(メタデータ) (2021-08-05T14:55:56Z) - Amortized Generation of Sequential Counterfactual Explanations for
Black-box Models [26.91950709495675]
事実的説明(CFE)は、フォームのフィードバックを提供する。
現在のCFEアプローチは、シングルショット -- つまり、単一の期間で$x$を$x'$に変更できると仮定する。
我々は、$x$を中間状態から最終状態に移動させるシーケンシャルなCFEを生成する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-07T20:54:48Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z) - An Information-Theoretic Approach to Personalized Explainable Machine
Learning [92.53970625312665]
本稿では,予測とユーザ知識のための簡易確率モデルを提案する。
説明と予測の間の条件付き相互情報による説明の効果を定量化する。
論文 参考訳(メタデータ) (2020-03-01T13:06:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。