論文の概要: Identifying confounders in deep-learning-based model predictions using
DeepRepViz
- arxiv url: http://arxiv.org/abs/2309.15551v1
- Date: Wed, 27 Sep 2023 10:20:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-28 14:12:32.886991
- Title: Identifying confounders in deep-learning-based model predictions using
DeepRepViz
- Title(参考訳): DeepRepVizを用いたディープラーニングモデル予測における共同創設者の同定
- Authors: Roshan Prakash Rane, JiHoon Kim, Arjun Umesha, Didem Stark,
Marc-Andr\'e Schulz, Kerstin Ritter
- Abstract要約: DeepRepViz'は、研究者がDeep Learning(DL)モデルの予測で共同創設者を検出することを可能にするフレームワークである。
シミュレーションおよびニューロイメージングデータセットの実験により、DLモデルと組み合わせてDeepRepVizを使用することの利点を実証する。
- 参考スコア(独自算出の注目度): 14.264149190703804
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep Learning (DL) models are increasingly used to analyze neuroimaging data
and uncover insights about the brain, brain pathologies, and psychological
traits. However, extraneous `confounders' variables such as the age of the
participants, sex, or imaging artifacts can bias model predictions, preventing
the models from learning relevant brain-phenotype relationships. In this study,
we provide a solution called the `DeepRepViz' framework that enables
researchers to systematically detect confounders in their DL model predictions.
The framework consists of (1) a metric that quantifies the effect of potential
confounders and (2) a visualization tool that allows researchers to
qualitatively inspect what the DL model is learning. By performing experiments
on simulated and neuroimaging datasets, we demonstrate the benefits of using
DeepRepViz in combination with DL models. For example, experiments on the
neuroimaging datasets reveal that sex is a significant confounder in a DL model
predicting chronic alcohol users (Con-score=0.35). Similarly, DeepRepViz
identifies age as a confounder in a DL model predicting participants'
performance on a cognitive task (Con-score=0.3). Overall, DeepRepViz enables
researchers to systematically test for potential confounders and expose DL
models that rely on extraneous information such as age, sex, or imaging
artifacts.
- Abstract(参考訳): ディープラーニング(DL)モデルは、神経画像データを分析し、脳、脳の病理、心理的特徴に関する洞察を明らかにするために、ますます使われています。
しかし、参加者の年齢、性別、画像のアーティファクトなどの「共同設立者」変数は、モデル予測をバイアスし、モデルが関連する脳-フェノタイプ関係を学習することを防ぐ。
本研究では、研究者がDLモデルの予測において、共同ファウンダーを体系的に検出できる「DeepRepViz」フレームワークを提供する。
本フレームワークは,(1)潜在的共同創設者の効果を定量化する指標と,(2)研究者がDLモデルが学習していることを質的に検査できる可視化ツールから構成される。
シミュレーションおよびニューロイメージングデータセットの実験により、DLモデルと組み合わせてDeepRepVizを使用することの利点を実証する。
例えば、神経画像データセットの実験では、性は慢性アルコール使用者を予測するDLモデルにおいて重要な共同創設者である(Con-score=0.35)。
同様にDeepRepVizは、認知タスク(Con-score=0.3)における参加者のパフォーマンスを予測するDLモデルで、年齢を共同創設者と認識している。
全体としてdeeprepvizは、研究者が潜在的な共同創設者を体系的にテストし、年齢、性別、画像アーティファクトなどの異種情報に依存するdlモデルを公開することができる。
関連論文リスト
- Closely Interactive Human Reconstruction with Proxemics and Physics-Guided Adaption [64.07607726562841]
既存の人間再建アプローチは主に、正確なポーズの回復や侵入を避けることに焦点を当てている。
本研究では,モノクロ映像から密に対話的な人間を再構築する作業に取り組む。
本稿では,視覚情報の欠如を補うために,確率的行動や物理からの知識を活用することを提案する。
論文 参考訳(メタデータ) (2024-04-17T11:55:45Z) - DetDiffusion: Synergizing Generative and Perceptive Models for Enhanced Data Generation and Perception [78.26734070960886]
現在の知覚モデルは、リソース集約的なデータセットに大きく依存している。
セグメンテーションを通じて知覚認識損失(P.A.損失)を導入し、品質と制御性の両方を改善した。
本手法は,世代間における知覚認識属性(P.A. Attr)の抽出と利用により,データ拡張をカスタマイズする。
論文 参考訳(メタデータ) (2024-03-20T04:58:03Z) - PIGNet2: A Versatile Deep Learning-based Protein-Ligand Interaction
Prediction Model for Binding Affinity Scoring and Virtual Screening [0.0]
タンパク質-リガンド相互作用の予測(PLI)は、薬物発見において重要な役割を果たす。
結合親和性を正確に評価し、効率的な仮想スクリーニングを行う汎用モデルの開発は依然として課題である。
本稿では、物理インフォームドグラフニューラルネットワークと組み合わせて、新しいデータ拡張戦略を導入することにより、実現可能なソリューションを提案する。
論文 参考訳(メタデータ) (2023-07-03T14:46:49Z) - A Graph-Enhanced Click Model for Web Search [67.27218481132185]
ウェブ検索のための新しいグラフ強調クリックモデル(GraphCM)を提案する。
セッション内情報とセッション間情報の両方を、スパーシリティ問題とコールドスタート問題に活用する。
論文 参考訳(メタデータ) (2022-06-17T08:32:43Z) - Psychotic Relapse Prediction in Schizophrenia Patients using A Mobile
Sensing-based Supervised Deep Learning Model [1.4922888318989764]
モバイルセンシングに基づく行動変化のモデリングは、統合失調症患者の時間的介入に対する精神遅滞を予測できる。
深層学習モデルは、予測に関連する潜在行動の特徴をモデル化することによって、再学習予測のための既存の非深層学習モデルを補完することができる。
本稿では,リラプス予測のためのニューラルネットワークモデルであるRelapsePredNetを提案する。
論文 参考訳(メタデータ) (2022-05-24T17:34:19Z) - Mixed Effects Neural ODE: A Variational Approximation for Analyzing the
Dynamics of Panel Data [50.23363975709122]
パネルデータ解析に(固定・ランダムな)混合効果を取り入れたME-NODEという確率モデルを提案する。
我々は、Wong-Zakai定理によって提供されるSDEの滑らかな近似を用いて、我々のモデルを導出できることを示す。
次に、ME-NODEのためのエビデンスに基づく下界を導出し、(効率的な)トレーニングアルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-02-18T22:41:51Z) - Performance or Trust? Why Not Both. Deep AUC Maximization with
Self-Supervised Learning for COVID-19 Chest X-ray Classifications [72.52228843498193]
ディープラーニングモデルのトレーニングでは、パフォーマンスと信頼の間に妥協をしなければなりません。
本研究は、新型コロナウイルス患者のコンピュータ支援スクリーニングのための自己教師型学習と新しい代理損失を統合したものである。
論文 参考訳(メタデータ) (2021-12-14T21:16:52Z) - Evaluating deep transfer learning for whole-brain cognitive decoding [11.898286908882561]
転送学習(TL)は、少数のサンプルを持つデータセットにおける深層学習(DL)モデルの性能向上に適している。
本稿では,全脳機能型磁気共鳴画像(fMRI)データから認識状態の復号化にDLモデルを適用するためのTLを評価した。
論文 参考訳(メタデータ) (2021-11-01T15:44:49Z) - Human-Understandable Decision Making for Visual Recognition [30.30163407674527]
モデル学習プロセスに人間の知覚の優先順位を組み込むことにより,深層ニューラルネットワークを訓練する新たなフレームワークを提案する。
提案モデルの有効性を2つの古典的視覚認識タスクで評価する。
論文 参考訳(メタデータ) (2021-03-05T02:07:33Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z) - Learning Realistic Patterns from Unrealistic Stimuli: Generalization and
Data Anonymization [0.5091527753265949]
本研究は、匿名化されたデータ合成において、サードパーティがそのようなプライベートデータから恩恵を受けられるような、シンプルかつ非従来的なアプローチについて検討する。
オープンおよび大規模臨床研究の睡眠モニタリングデータを用いて,(1)エンドユーザーが睡眠時無呼吸検出のためにカスタマイズされた分類モデルを作成し,有効活用できるかどうかを評価し,(2)研究参加者の身元を保護した。
論文 参考訳(メタデータ) (2020-09-21T16:31:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。