論文の概要: Scientific Discovery by Generating Counterfactuals using Image
Translation
- arxiv url: http://arxiv.org/abs/2007.05500v2
- Date: Sun, 19 Jul 2020 23:38:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 21:50:59.814109
- Title: Scientific Discovery by Generating Counterfactuals using Image
Translation
- Title(参考訳): 画像翻訳による異物生成による科学的発見
- Authors: Arunachalam Narayanaswamy, Subhashini Venugopalan, Dale R. Webster,
Lily Peng, Greg Corrado, Paisan Ruamviboonsuk, Pinal Bavishi, Rory Sayres,
Abigail Huang, Siva Balasubramanian, Michael Brenner, Philip Nelson, and
Avinash V. Varadarajan
- Abstract要約: 本稿では,説明手法から発見機構へ予測を変換する枠組みを提案する。
ブラックボックス予測器と組み合わせた生成モデルを用いて、批判的に検証できる仮説を生成する方法を示す。
提案手法は,モデルの性能と人間の理解のギャップを埋めるため,基礎となる科学的メカニズムを説明することができることを示す。
- 参考スコア(独自算出の注目度): 5.820406793815877
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Model explanation techniques play a critical role in understanding the source
of a model's performance and making its decisions transparent. Here we
investigate if explanation techniques can also be used as a mechanism for
scientific discovery. We make three contributions: first, we propose a
framework to convert predictions from explanation techniques to a mechanism of
discovery. Second, we show how generative models in combination with black-box
predictors can be used to generate hypotheses (without human priors) that can
be critically examined. Third, with these techniques we study classification
models for retinal images predicting Diabetic Macular Edema (DME), where recent
work showed that a CNN trained on these images is likely learning novel
features in the image. We demonstrate that the proposed framework is able to
explain the underlying scientific mechanism, thus bridging the gap between the
model's performance and human understanding.
- Abstract(参考訳): モデル説明技術は、モデルのパフォーマンスの源を理解し、その決定を透明にする上で重要な役割を果たす。
ここでは、科学的発見のメカニズムとして説明技法が利用できるかを検討する。
まず,説明手法からの予測を発見機構に変換する枠組みを提案する。
第2に,ブラックボックス予測器と組み合わせた生成モデルを用いて,批判的に検証可能な仮説(人間の前兆を伴わない)を生成する方法を示す。
第3に,これらの手法を用いて糖尿病黄斑浮腫(dme)を予測する網膜画像の分類モデルを検討した。
提案手法は, 基礎となる科学的メカニズムを説明することができ, モデルの性能と人間の理解のギャップを橋渡しできることを示す。
関連論文リスト
- Learning Discrete Concepts in Latent Hierarchical Models [73.01229236386148]
自然の高次元データから学習する概念は、ヒューマンアライメントと解釈可能な機械学習モデルの構築の可能性を秘めている。
我々は概念を階層的因果モデルを通して関連付けられた離散潜在因果変数として定式化する。
我々は、理論的な主張を合成データ実験で裏付ける。
論文 参考訳(メタデータ) (2024-06-01T18:01:03Z) - CogDPM: Diffusion Probabilistic Models via Cognitive Predictive Coding [62.075029712357]
本研究は認知拡散確率モデル(CogDPM)を紹介する。
CogDPMは拡散モデルの階層的サンプリング能力に基づく精度推定法と拡散モデル固有の性質から推定される精度重み付きガイダンスを備える。
我々は,Universal Kindomの降水量と表面風速データセットを用いた実世界の予測タスクにCogDPMを適用した。
論文 参考訳(メタデータ) (2024-05-03T15:54:50Z) - Interpretable Machine Learning for Weather and Climate Prediction: A Survey [24.028385794099435]
気象予測に適用された現在の解釈可能な機械学習手法について概説する。
ツリーアンサンブルや説明可能なニューラルネットワークといったアーキテクチャを使って、スクラッチから本質的に解釈可能なモデルを設計する。
物理原理に沿ったより深い機械的解釈を達成するための研究課題について論じる。
論文 参考訳(メタデータ) (2024-03-24T14:23:35Z) - Using generative AI to investigate medical imagery models and datasets [21.814095540433115]
AIベースのモデルの信頼性を高めるには、説明が必要だ。
本稿では,チームベースの専門知識を活用した視覚的自動説明手法を提案する。
3つの医用画像モダリティにまたがる8つの予測課題について実験を行った。
論文 参考訳(メタデータ) (2023-06-01T17:59:55Z) - Thermodynamics-inspired Explanations of Artificial Intelligence [0.0]
我々は、AIと他のブラックボックスパラダイム(TERP)の説明可能な表現を提示する。
TERPは、モデルに依存しない方法でブラックボックス予測のための正確で人間の解釈可能な説明を生成する方法である。
TERPの広範囲な適用性を実証するため,様々なブラックボックスモデルアーキテクチャの解説に成功している。
論文 参考訳(メタデータ) (2022-06-27T17:36:50Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - TorchEsegeta: Framework for Interpretability and Explainability of
Image-based Deep Learning Models [0.0]
臨床医はしばしば自動画像処理アプローチ、特にディープラーニングに基づく手法の適用に懐疑的である。
本稿では,アルゴリズムの決定に最も影響を及ぼす解剖学的領域を記述することによって,ディープラーニングアルゴリズムの結果の解釈と説明を支援するアプローチを提案する。
ディープラーニングモデルに様々な解釈可能性および説明可能性技術を適用するための統合フレームワークであるTorchEsegetaを提案する。
論文 参考訳(メタデータ) (2021-10-16T01:00:15Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Explainers in the Wild: Making Surrogate Explainers Robust to
Distortions through Perception [77.34726150561087]
説明における歪みの影響を知覚距離を埋め込むことで評価する手法を提案する。
Imagenet-Cデータセットの画像の説明を生成し、サロゲート説明書の知覚距離を使用して歪んだ画像と参照画像のより一貫性のある説明を作成する方法を示しています。
論文 参考訳(メタデータ) (2021-02-22T12:38:53Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Using StyleGAN for Visual Interpretability of Deep Learning Models on
Medical Images [0.7874708385247352]
画像上の任意のブラックボックスモデルの予測を理解するために使用できる新しい解釈可能性法を提案する。
StyleGANは医療画像に基づいて訓練され、潜伏ベクトルと画像のマッピングを提供する。
この方向に沿って入力画像の潜在表現をシフトさせることにより、予測が変化する一連の新しい合成画像を生成することができる。
論文 参考訳(メタデータ) (2021-01-19T11:13:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。