論文の概要: Unintended Bias in 2D+ Image Segmentation and Its Effect on Attention Asymmetry
- arxiv url: http://arxiv.org/abs/2505.14105v1
- Date: Tue, 20 May 2025 09:11:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:52.957534
- Title: Unintended Bias in 2D+ Image Segmentation and Its Effect on Attention Asymmetry
- Title(参考訳): 2次元画像分割における意図しないバイアスとその注意非対称性への影響
- Authors: Zsófia Molnár, Gergely Szabó, András Horváth,
- Abstract要約: 教師付き事前訓練モデルはディープラーニング、特に画像分割タスクに広く利用されている。
しかし、バイオメディカルイメージングのような特殊なデータセットに適用すると、事前訓練された重み付けは意図しないバイアスをもたらすことが多い。
本研究では,これらのバイアスの影響について検討し,緩和策を提案する。
- 参考スコア(独自算出の注目度): 0.37240490024629924
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Supervised pretrained models have become widely used in deep learning, especially for image segmentation tasks. However, when applied to specialized datasets such as biomedical imaging, pretrained weights often introduce unintended biases. These biases cause models to assign different levels of importance to different slices, leading to inconsistencies in feature utilization, which can be observed as asymmetries in saliency map distributions. This transfer of color distributions from natural images to non-natural datasets can compromise model performance and reduce the reliability of results. In this study, we investigate the effects of these biases and propose strategies to mitigate them. Through a series of experiments, we test both pretrained and randomly initialized models, comparing their performance and saliency map distributions. Our proposed methods, which aim to neutralize the bias introduced by pretrained color channel weights, demonstrate promising results, offering a practical approach to improving model explainability while maintaining the benefits of pretrained models. This publication presents our findings, providing insights into addressing pretrained weight biases across various deep learning tasks.
- Abstract(参考訳): 教師付き事前訓練モデルはディープラーニング、特に画像分割タスクに広く利用されている。
しかし、バイオメディカルイメージングのような特殊なデータセットに適用すると、事前訓練された重み付けは意図しないバイアスをもたらすことが多い。
これらのバイアスは、モデルを異なるスライスに異なるレベルの重要度を割り当て、特徴利用の不整合をもたらす。
自然画像から非自然データセットへの色分布の変換は、モデルの性能を損なう可能性があり、結果の信頼性を低下させる。
本研究では,これらのバイアスの影響について検討し,緩和策を提案する。
一連の実験を通じて,事前学習モデルとランダムに初期化モデルの両方を試験し,その性能とサリエンシマップの分布を比較した。
提案手法は,事前学習したカラーチャネル重みによるバイアスを和らげることを目的としており,有望な結果を示し,事前学習したモデルの利点を維持しつつ,モデル説明性を向上させるための実践的なアプローチを提供する。
本発表では,様々なディープラーニングタスクにおける事前学習した重みバイアスに対処するための知見を提供する。
関連論文リスト
- Diffusing DeBias: Synthetic Bias Amplification for Model Debiasing [15.214861534330236]
Diffusing DeBias (DDB) を、教師なしモデルデバイアスの一般的な方法のためのプラグインとして導入する。
具体的には、条件付き拡散モデルを用いて、合成バイアス整合画像を生成する。
補助モデル学習におけるバイアス分散トレーニングサンプルの根本的な問題に対処することにより、提案手法は複数のベンチマークデータセットで最先端のモデルに勝る。
論文 参考訳(メタデータ) (2025-02-13T18:17:03Z) - Data Attribution for Diffusion Models: Timestep-induced Bias in Influence Estimation [53.27596811146316]
拡散モデルは、以前の文脈における瞬間的な入出力関係ではなく、一連のタイムステップで操作する。
本稿では、この時間的ダイナミクスを取り入れた拡散トラクInについて、サンプルの損失勾配ノルムが時間ステップに大きく依存していることを確認する。
そこで我々はDiffusion-ReTracを再正規化適応として導入し、興味のあるサンプルを対象にしたトレーニングサンプルの検索を可能にする。
論文 参考訳(メタデータ) (2024-01-17T07:58:18Z) - Improving Bias Mitigation through Bias Experts in Natural Language
Understanding [10.363406065066538]
補助モデルと主モデルの間に二項分類器を導入するデバイアス化フレームワークを提案する。
提案手法は補助モデルのバイアス識別能力を向上させる。
論文 参考訳(メタデータ) (2023-12-06T16:15:00Z) - On the Out of Distribution Robustness of Foundation Models in Medical
Image Segmentation [47.95611203419802]
視覚と言語の基礎は、様々な自然画像とテキストデータに基づいて事前訓練されており、有望なアプローチとして現れている。
一般化性能を,同じ分布データセット上で微調整した後,事前学習した各種モデルの未確認領域と比較した。
さらに,凍結モデルに対する新しいベイズ不確実性推定法を開発し,分布外データに基づくモデルの性能評価指標として利用した。
論文 参考訳(メタデータ) (2023-11-18T14:52:10Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - Visual Recognition with Deep Learning from Biased Image Datasets [6.10183951877597]
視覚認知の文脈において、バイアスモデルがどのように治療問題に適用できるかを示す。
作業中のバイアス機構に関する(近似的な)知識に基づいて、我々のアプローチは観察を再重み付けする。
本稿では,画像データベース間で共有される低次元画像表現を提案する。
論文 参考訳(メタデータ) (2021-09-06T10:56:58Z) - Unravelling the Effect of Image Distortions for Biased Prediction of
Pre-trained Face Recognition Models [86.79402670904338]
画像歪みの存在下での4つの最先端深層顔認識モデルの性能評価を行った。
我々は、画像歪みが、異なるサブグループ間でのモデルの性能ギャップと関係していることを観察した。
論文 参考訳(メタデータ) (2021-08-14T16:49:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。