論文の概要: Exploring Counterfactual Alignment Loss towards Human-centered AI
- arxiv url: http://arxiv.org/abs/2310.01766v1
- Date: Tue, 3 Oct 2023 03:20:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-04 17:44:26.434951
- Title: Exploring Counterfactual Alignment Loss towards Human-centered AI
- Title(参考訳): 人間中心型AIに向けた対物アライメント損失の探索
- Authors: Mingzhou Liu, Xinwei Sun, Ching-Wen Lee, Yu Qiao, Yizhou Wang
- Abstract要約: 最近の説明誘導型学習手法は、人手による注釈付き画像領域への勾配に基づく注意マップの整列を図っている。
対物生成に基づく新しい人間中心型フレームワークを提案する。
肺がん診断データセットにおける本手法の有効性を実証し,ヒトへの忠実な対応を示す。
- 参考スコア(独自算出の注目度): 35.3493980628004
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks have demonstrated impressive accuracy in supervised
learning tasks. However, their lack of transparency makes it hard for humans to
trust their results, especially in safe-critic domains such as healthcare. To
address this issue, recent explanation-guided learning approaches proposed to
align the gradient-based attention map to image regions annotated by human
experts, thereby obtaining an intrinsically human-centered model. However, the
attention map these methods are based on may fail to causally attribute the
model predictions, thus compromising their validity for alignment. To address
this issue, we propose a novel human-centered framework based on counterfactual
generation. In particular, we utilize the counterfactual generation's ability
for causal attribution to introduce a novel loss called the CounterFactual
Alignment (CF-Align) loss. This loss guarantees that the features attributed by
the counterfactual generation for the classifier align with the human
annotations. To optimize the proposed loss that entails a counterfactual
generation with an implicit function form, we leverage the implicit function
theorem for backpropagation. Our method is architecture-agnostic and, therefore
can be applied to any neural network. We demonstrate the effectiveness of our
method on a lung cancer diagnosis dataset, showcasing faithful alignment to
humans.
- Abstract(参考訳): 深層ニューラルネットワークは教師付き学習タスクにおいて驚くべき精度を示している。
しかしながら、透明性の欠如は、特に医療のような安全な犯罪領域において、人間が結果を信頼することを難しくする。
この問題に対処するために、近年の説明誘導学習手法は、人間の専門家が注釈付けした画像領域に勾配に基づく注意マップを合わせることによって、本質的な人間中心モデルを得る。
しかし、これらの手法に基づく注意マップは、モデル予測を因果的属性付けに失敗し、アライメントの妥当性を損なう可能性がある。
この問題に対処するために,対策生成に基づく新しい人間中心型フレームワークを提案する。
特に, 因果属性に対する反事実生成の能力を利用して, CF-Align(CounterFactual Alignment)損失という新たな損失を導入する。
この損失は、分類器の反ファクト生成による特徴が人間のアノテーションと一致していることを保証する。
暗黙的関数形式を持つ反事実生成を伴う提案損失を最適化するために,暗黙的関数定理をバックプロパゲーションに活用する。
本手法はアーキテクチャに依存せず,任意のニューラルネットワークに適用可能である。
肺癌診断データセットにおける本手法の有効性を実証し,ヒトに対する忠実な対応を示す。
関連論文リスト
- Causal Disentanglement Hidden Markov Model for Fault Diagnosis [55.90917958154425]
本研究では, 軸受破壊機構の因果性を学ぶために, 因果解離隠れマルコフモデル (CDHM) を提案する。
具体的には、時系列データをフル活用し、振動信号を断層関連要因と断層関連要因に段階的に分解する。
アプリケーションの範囲を広げるために、学習された非絡み合った表現を他の作業環境に転送するために、教師なしのドメイン適応を採用する。
論文 参考訳(メタデータ) (2023-08-06T05:58:45Z) - Discrimination of Radiologists Utilizing Eye-Tracking Technology and
Machine Learning: A Case Study [0.9142067094647588]
本研究では,効率的な幾何アライメントのためのバイナリ固定データに基づく新しい離散化特徴符号化を提案する。
眼球固定データの符号化された特徴は、教員と研修生の放射線技師を識別するために機械学習分類器によって使用される。
論文 参考訳(メタデータ) (2023-08-04T23:51:47Z) - Instrumental Variable Learning for Chest X-ray Classification [52.68170685918908]
本稿では,素因果関係を排除し,正確な因果表現を得るための解釈可能な機器変数(IV)学習フレームワークを提案する。
提案手法の性能はMIMIC-CXR,NIH ChestX-ray 14,CheXpertデータセットを用いて実証した。
論文 参考訳(メタデータ) (2023-05-20T03:12:23Z) - Topological Interpretability for Deep-Learning [0.30806551485143496]
ディープラーニング(DL)モデルは、予測の確実性を定量化できない。
本研究は,臨床および非臨床のテキストに基づいて訓練された2つのDL分類モデルにおいて,特徴を推測する手法を提案する。
論文 参考訳(メタデータ) (2023-05-15T13:38:13Z) - Probabilistic Bearing Fault Diagnosis Using Gaussian Process with
Tailored Feature Extraction [10.064000794573756]
転がり軸受は、過酷な環境下での長時間の運転により、様々な障害にさらされる。
現在の深層学習法は, 決定論的分類の形で軸受断層診断を行う。
本研究では,予測の不確実性を考慮した確率的故障診断フレームワークを開発した。
論文 参考訳(メタデータ) (2021-09-19T18:34:29Z) - Estimation of Bivariate Structural Causal Models by Variational Gaussian
Process Regression Under Likelihoods Parametrised by Normalising Flows [74.85071867225533]
因果機構は構造因果モデルによって記述できる。
最先端の人工知能の大きな欠点の1つは、説明責任の欠如である。
論文 参考訳(メタデータ) (2021-09-06T14:52:58Z) - Harmonization with Flow-based Causal Inference [12.739380441313022]
本稿では, 医療データを調和させる構造因果モデル (SCM) に対して, 反実的推論を行う正規化フローに基づく手法を提案する。
我々は,この手法が最先端のアルゴリズムよりもドメイン間一般化に寄与することを示すために,複数の,大規模な実世界の医療データセットを評価した。
論文 参考訳(メタデータ) (2021-06-12T19:57:35Z) - A Twin Neural Model for Uplift [59.38563723706796]
Upliftは条件付き治療効果モデリングの特定のケースです。
相対リスクのベイズ解釈との関連性を利用して定義した新たな損失関数を提案する。
本提案手法は,シミュレーション設定の最先端と大規模ランダム化実験による実データとの競合性を示す。
論文 参考訳(メタデータ) (2021-05-11T16:02:39Z) - Disentangling Observed Causal Effects from Latent Confounders using
Method of Moments [67.27068846108047]
我々は、軽度の仮定の下で、識別性と学習可能性に関する保証を提供する。
我々は,線形制約付き結合テンソル分解に基づく効率的なアルゴリズムを開発し,スケーラブルで保証可能な解を得る。
論文 参考訳(メタデータ) (2021-01-17T07:48:45Z) - A Critical View of the Structural Causal Model [89.43277111586258]
相互作用を全く考慮せずに原因と効果を識別できることが示される。
本稿では,因果モデルの絡み合った構造を模倣する新たな逆行訓練法を提案する。
我々の多次元手法は, 合成および実世界の両方のデータセットにおいて, 文献的手法よりも優れている。
論文 参考訳(メタデータ) (2020-02-23T22:52:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。