論文の概要: A Penalty Approach for Normalizing Feature Distributions to Build
Confounder-Free Models
- arxiv url: http://arxiv.org/abs/2207.04607v1
- Date: Mon, 11 Jul 2022 04:02:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-13 02:39:09.921114
- Title: A Penalty Approach for Normalizing Feature Distributions to Build
Confounder-Free Models
- Title(参考訳): confounder-freeモデル構築のための特徴分布正規化に対するペナルティアプローチ
- Authors: Anthony Vento and Qingyu Zhao and Robert Paul and Kilian M. Pohl and
Ehsan Adeli
- Abstract要約: MetaData Normalization (MDN) は、学習不能なクローズドフォームソリューションに基づいてメタデータと各特徴の線形関係を推定する。
罰則法(PDMN)を適用してMDN法を拡張した。
MDNによるモデル精度の向上とMDN上のMDNを用いた共同設立者からの独立性の向上を示す。
- 参考スコア(独自算出の注目度): 11.818509522227565
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Translating machine learning algorithms into clinical applications requires
addressing challenges related to interpretability, such as accounting for the
effect of confounding variables (or metadata). Confounding variables affect the
relationship between input training data and target outputs. When we train a
model on such data, confounding variables will bias the distribution of the
learned features. A recent promising solution, MetaData Normalization (MDN),
estimates the linear relationship between the metadata and each feature based
on a non-trainable closed-form solution. However, this estimation is confined
by the sample size of a mini-batch and thereby may cause the approach to be
unstable during training. In this paper, we extend the MDN method by applying a
Penalty approach (referred to as PDMN). We cast the problem into a bi-level
nested optimization problem. We then approximate this optimization problem
using a penalty method so that the linear parameters within the MDN layer are
trainable and learned on all samples. This enables PMDN to be plugged into any
architectures, even those unfit to run batch-level operations, such as
transformers and recurrent models. We show improvement in model accuracy and
greater independence from confounders using PMDN over MDN in a synthetic
experiment and a multi-label, multi-site dataset of magnetic resonance images
(MRIs).
- Abstract(参考訳): 機械学習アルゴリズムを臨床応用に翻訳するには、変数(あるいはメタデータ)を結合する効果を考慮に入れるなど、解釈可能性に関連する課題に対処する必要がある。
コンファウンディング変数は、入力トレーニングデータとターゲット出力の関係に影響する。
このようなデータでモデルをトレーニングすると、変数の結合は学習した機能の分布に偏ります。
最近の有望なソリューションであるMetaData Normalization (MDN) は、学習不能なクローズドフォームソリューションに基づいてメタデータと各機能の線形関係を推定する。
しかし、この推定はミニバッチのサンプルサイズに制限されるため、トレーニング中にアプローチが不安定になる可能性がある。
本稿では,刑罰法(PDMN)を適用してMDN法を拡張した。
この問題を2レベルネスト最適化問題に落とし込みました。
次に、この最適化問題をペナルティ法を用いて近似し、MDN層内の線形パラメータをトレーニング可能とし、全てのサンプルから学習する。
これにより、PMDNは任意のアーキテクチャにプラグインでき、トランスフォーマーやリカレントモデルのようなバッチレベルの操作には適さない。
MDNによるモデル精度の向上とMDN上のMDNを用いた共同設立者からの独立性の向上を示す。
関連論文リスト
- The effect of data augmentation and 3D-CNN depth on Alzheimer's Disease
detection [51.697248252191265]
この研究は、データハンドリング、実験設計、モデル評価に関するベストプラクティスを要約し、厳密に観察する。
我々は、アルツハイマー病(AD)の検出に焦点を当て、医療における課題のパラダイム的な例として機能する。
このフレームワークでは,3つの異なるデータ拡張戦略と5つの異なる3D CNNアーキテクチャを考慮し,予測15モデルを訓練する。
論文 参考訳(メタデータ) (2023-09-13T10:40:41Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - Convolutional Monge Mapping Normalization for learning on sleep data [63.22081662149488]
我々は、CMMN(Convolutional Monge Mapping Normalization)と呼ばれる新しい手法を提案する。
CMMNは、そのパワースペクトル密度(PSD)をトレーニングデータに基づいて推定されるワッサーシュタインバリセンタに適応させるために、信号をフィルタリングする。
睡眠脳波データに関する数値実験により、CMMNはニューラルネットワークアーキテクチャから独立して、顕著で一貫したパフォーマンス向上をもたらすことが示された。
論文 参考訳(メタデータ) (2023-05-30T08:24:01Z) - Unite and Conquer: Plug & Play Multi-Modal Synthesis using Diffusion
Models [54.1843419649895]
拡散確率モデル(DDPM)に基づく解を提案する。
他の生成モデルよりも拡散モデルを選択する動機は、拡散モデルの柔軟な内部構造に由来する。
提案手法は,複数のサブタスクで訓練された複数の拡散モデルを統一し,組み合わせたタスクを克服する。
論文 参考訳(メタデータ) (2022-12-01T18:59:55Z) - ScoreMix: A Scalable Augmentation Strategy for Training GANs with
Limited Data [93.06336507035486]
GAN(Generative Adversarial Networks)は通常、限られたトレーニングデータが利用できる場合、過度に適合する。
ScoreMixは、様々な画像合成タスクのための、新しくスケーラブルなデータ拡張手法である。
論文 参考訳(メタデータ) (2022-10-27T02:55:15Z) - Meta Input: How to Leverage Off-the-Shelf Deep Neural Networks [29.975937981538664]
我々は、エンドユーザーがモデルを変更することなく、独自のテスト環境で事前訓練されたDNNモデルを活用できる新しいアプローチを導入する。
テストデータの分布をトレーニングデータと整合させる追加入力であるtextitmeta 入力を提案する。
その結果、エンドユーザは、トレーニング環境と異なるテスト環境で、よく訓練されたモデルを利用することができる。
論文 参考訳(メタデータ) (2022-10-21T02:11:38Z) - Cascaded Multi-Modal Mixing Transformers for Alzheimer's Disease
Classification with Incomplete Data [8.536869574065195]
Multi-Modal Mixing Transformer (3MAT)は、マルチモーダルデータを利用するだけでなく、欠落したデータシナリオも扱う病気分類変換器である。
本稿では、欠落したデータシナリオを扱うために、前例のないモダリティ独立性とロバスト性を確保するための新しいモダリティドロップアウト機構を提案する。
論文 参考訳(メタデータ) (2022-10-01T11:31:02Z) - Mixing Deep Learning and Multiple Criteria Optimization: An Application
to Distributed Learning with Multiple Datasets [0.0]
トレーニングフェーズは、マシンラーニングプロセスにおいて最も重要なステージです。
本研究では,特定の入力とラベルに関連付けられた出力との距離を基準として,複数の基準最適化モデルを構築した。
MNISTデータを用いた数値分類において,このモデルと数値実験を実現するためのスカラー化手法を提案する。
論文 参考訳(メタデータ) (2021-12-02T16:00:44Z) - GOALS: Gradient-Only Approximations for Line Searches Towards Robust and
Consistent Training of Deep Neural Networks [0.0]
ミニバッチサブサンプリング(MBSS)は、計算コストを削減するために、ディープニューラルネットワークトレーニングで好まれる。
最適性基準が定義された強い収束特性を持つ勾配限定近似線探索(GOALS)を提案する。
論文 参考訳(メタデータ) (2021-05-23T11:21:01Z) - Metadata Normalization [54.43363251520749]
バッチ正規化(bn)は、バッチ統計の標準化によって特徴分布を正規化する。
BNは外部変数や複数の分布からの影響を補正していない。
トレーニングフレームワーク内でエンドツーエンドで使用できる新しいバッチレベルのオペレーションであるMetadata Normalizationレイヤを紹介します。
論文 参考訳(メタデータ) (2021-04-19T05:10:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。