論文の概要: Scientific Discovery by Generating Counterfactuals using Image
Translation
- arxiv url: http://arxiv.org/abs/2007.05500v2
- Date: Sun, 19 Jul 2020 23:38:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 21:50:59.814109
- Title: Scientific Discovery by Generating Counterfactuals using Image
Translation
- Title(参考訳): 画像翻訳による異物生成による科学的発見
- Authors: Arunachalam Narayanaswamy, Subhashini Venugopalan, Dale R. Webster,
Lily Peng, Greg Corrado, Paisan Ruamviboonsuk, Pinal Bavishi, Rory Sayres,
Abigail Huang, Siva Balasubramanian, Michael Brenner, Philip Nelson, and
Avinash V. Varadarajan
- Abstract要約: 本稿では,説明手法から発見機構へ予測を変換する枠組みを提案する。
ブラックボックス予測器と組み合わせた生成モデルを用いて、批判的に検証できる仮説を生成する方法を示す。
提案手法は,モデルの性能と人間の理解のギャップを埋めるため,基礎となる科学的メカニズムを説明することができることを示す。
- 参考スコア(独自算出の注目度): 5.820406793815877
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Model explanation techniques play a critical role in understanding the source
of a model's performance and making its decisions transparent. Here we
investigate if explanation techniques can also be used as a mechanism for
scientific discovery. We make three contributions: first, we propose a
framework to convert predictions from explanation techniques to a mechanism of
discovery. Second, we show how generative models in combination with black-box
predictors can be used to generate hypotheses (without human priors) that can
be critically examined. Third, with these techniques we study classification
models for retinal images predicting Diabetic Macular Edema (DME), where recent
work showed that a CNN trained on these images is likely learning novel
features in the image. We demonstrate that the proposed framework is able to
explain the underlying scientific mechanism, thus bridging the gap between the
model's performance and human understanding.
- Abstract(参考訳): モデル説明技術は、モデルのパフォーマンスの源を理解し、その決定を透明にする上で重要な役割を果たす。
ここでは、科学的発見のメカニズムとして説明技法が利用できるかを検討する。
まず,説明手法からの予測を発見機構に変換する枠組みを提案する。
第2に,ブラックボックス予測器と組み合わせた生成モデルを用いて,批判的に検証可能な仮説(人間の前兆を伴わない)を生成する方法を示す。
第3に,これらの手法を用いて糖尿病黄斑浮腫(dme)を予測する網膜画像の分類モデルを検討した。
提案手法は, 基礎となる科学的メカニズムを説明することができ, モデルの性能と人間の理解のギャップを橋渡しできることを示す。
関連論文リスト
- Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Using generative AI to investigate medical imagery models and datasets [12.776846996279112]
AIベースのモデルの信頼性を高めるには、説明が必要だ。
本稿では,チームベースの専門知識を活用した視覚的自動説明手法を提案する。
3つの医用画像モダリティにまたがる8つの予測課題について実験を行った。
論文 参考訳(メタデータ) (2023-06-01T17:59:55Z) - Neural Implicit Representations for Physical Parameter Inference from a
Single Video [55.61164103824501]
本稿では,外見モデルのためのニューラル暗黙表現と,物理現象をモデル化するためのニューラル常微分方程式(ODE)を組み合わせることを提案する。
提案モデルでは,大規模なトレーニングデータセットを必要とする既存のアプローチとは対照的に,単一のビデオから物理的パラメータを識別することが可能になる。
ニューラル暗示表現を使用することで、高解像度ビデオの処理とフォトリアリスティック画像の合成が可能になる。
論文 参考訳(メタデータ) (2022-04-29T11:55:35Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - Unifying Epidemic Models with Mixtures [28.771032745045428]
新型コロナウイルスのパンデミックは、感染モデルに対する強固な理解の必要性を強調している。
本稿では2つのアプローチをブリッジする単純な混合モデルを提案する。
モデルは非機械的であるが、ネットワーク化されたSIRフレームワークに基づくプロセスの自然な結果として現れることを示す。
論文 参考訳(メタデータ) (2022-01-07T19:42:05Z) - TorchEsegeta: Framework for Interpretability and Explainability of
Image-based Deep Learning Models [0.0]
臨床医はしばしば自動画像処理アプローチ、特にディープラーニングに基づく手法の適用に懐疑的である。
本稿では,アルゴリズムの決定に最も影響を及ぼす解剖学的領域を記述することによって,ディープラーニングアルゴリズムの結果の解釈と説明を支援するアプローチを提案する。
ディープラーニングモデルに様々な解釈可能性および説明可能性技術を適用するための統合フレームワークであるTorchEsegetaを提案する。
論文 参考訳(メタデータ) (2021-10-16T01:00:15Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Explainers in the Wild: Making Surrogate Explainers Robust to
Distortions through Perception [77.34726150561087]
説明における歪みの影響を知覚距離を埋め込むことで評価する手法を提案する。
Imagenet-Cデータセットの画像の説明を生成し、サロゲート説明書の知覚距離を使用して歪んだ画像と参照画像のより一貫性のある説明を作成する方法を示しています。
論文 参考訳(メタデータ) (2021-02-22T12:38:53Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Using StyleGAN for Visual Interpretability of Deep Learning Models on
Medical Images [0.7874708385247352]
画像上の任意のブラックボックスモデルの予測を理解するために使用できる新しい解釈可能性法を提案する。
StyleGANは医療画像に基づいて訓練され、潜伏ベクトルと画像のマッピングを提供する。
この方向に沿って入力画像の潜在表現をシフトさせることにより、予測が変化する一連の新しい合成画像を生成することができる。
論文 参考訳(メタデータ) (2021-01-19T11:13:20Z) - Abstracting Deep Neural Networks into Concept Graphs for Concept Level
Interpretability [0.39635467316436124]
我々は,学習した概念のグラフィカルな表現を構築することで,医療領域における画像処理タスクを実行する訓練されたモデルの振る舞いを理解することを試みる。
本稿では,脳腫瘍の分節化と基底画像の分類という2つの生体医学的問題に対する提案手法の適用について述べる。
論文 参考訳(メタデータ) (2020-08-14T16:34:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。