論文の概要: FairSeg: A Large-Scale Medical Image Segmentation Dataset for Fairness
Learning Using Segment Anything Model with Fair Error-Bound Scaling
- arxiv url: http://arxiv.org/abs/2311.02189v4
- Date: Sun, 10 Mar 2024 14:47:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 15:29:10.049257
- Title: FairSeg: A Large-Scale Medical Image Segmentation Dataset for Fairness
Learning Using Segment Anything Model with Fair Error-Bound Scaling
- Title(参考訳): FairSeg: フェアエラー境界スケーリング付きセグメンテーションモデルを用いたフェアネス学習のための大規模医療画像セグメンテーションデータセット
- Authors: Yu Tian and Min Shi and Yan Luo and Ava Kouhana and Tobias Elze and
Mengyu Wang
- Abstract要約: フェアネス学習研究を促進するためには、高品質な医療フェアネスデータセットが必要である。
既存の医療フェアネスデータセットはすべて分類タスク用であり、医療セグメント化にはフェアネスデータセットが使用できない。
我々は,1万件の被験者を対象とし,HarvardFairSegという医療セグメント化のための最初のフェアネスデータセットを提案する。
- 参考スコア(独自算出の注目度): 15.347426915027045
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fairness in artificial intelligence models has gained significantly more
attention in recent years, especially in the area of medicine, as fairness in
medical models is critical to people's well-being and lives. High-quality
medical fairness datasets are needed to promote fairness learning research.
Existing medical fairness datasets are all for classification tasks, and no
fairness datasets are available for medical segmentation, while medical
segmentation is an equally important clinical task as classifications, which
can provide detailed spatial information on organ abnormalities ready to be
assessed by clinicians. In this paper, we propose the first fairness dataset
for medical segmentation named Harvard-FairSeg with 10,000 subject samples. In
addition, we propose a fair error-bound scaling approach to reweight the loss
function with the upper error-bound in each identity group, using the segment
anything model (SAM). We anticipate that the segmentation performance equity
can be improved by explicitly tackling the hard cases with high training errors
in each identity group. To facilitate fair comparisons, we utilize a novel
equity-scaled segmentation performance metric to compare segmentation metrics
in the context of fairness, such as the equity-scaled Dice coefficient. Through
comprehensive experiments, we demonstrate that our fair error-bound scaling
approach either has superior or comparable fairness performance to the
state-of-the-art fairness learning models. The dataset and code are publicly
accessible via https://ophai.hms.harvard.edu/datasets/harvard-fairseg10k.
- Abstract(参考訳): 人工知能モデルの公正さは、特に医学領域において、人々の幸福と生活にとって医療モデルの公正さが不可欠であるため、近年、注目されている。
フェアネス学習研究を促進するためには、高品質な医療フェアネスデータセットが必要である。
既存の医療用フェアネスデータセットはすべて分類作業のためであり、医療用セグメンテーションにはフェアネスデータセットは使用できないが、医療用セグメンテーションは分類として同等に重要な臨床課題であり、臨床医が評価できる臓器異常の詳細な空間情報を提供することができる。
本稿では,1万件の被験者を対象とする医学的セグメンテーションのためのフェアネスデータセットであるHarvard-FairSegを提案する。
さらに,segment anything model (sam) を用いて,各idグループにおける上位エラーバウンドによる損失関数の重み付けを行うための,公正なエラーバウンドスケーリング手法を提案する。
各アイデンティティグループで高いトレーニングエラーでハードケースに明示的に対処することで、セグメンテーション性能のエクイティを向上できると予想する。
公平な比較を容易にするために、新しいエクイティスケールのセグメンテーション性能指標を用いて、エクイティスケールのDice係数のようなフェアネスの文脈におけるセグメンテーション指標を比較する。
総合的な実験を通して、我々の公正なエラーバウンドスケーリングアプローチは、最先端の公正学習モデルよりも優れているか同等の公平性性能を持つことを示した。
データセットとコードはhttps://ophai.hms.harvard.edu/datasets/harvard-fairseg10kで公開されている。
関連論文リスト
- An Empirical Study on the Fairness of Foundation Models for Multi-Organ Image Segmentation [15.377701636336784]
肝臓, 腎臓, 脾臓, 肺, 大動脈などの臓器の3次元MRIおよびCTのベンチマークデータセットを前向きに収集する。
本研究では, 性別, 年齢, 身体集団指数(BMI)などの人口統計の詳細を文書化し, 曖昧さの分析を容易にする。
様々な要因を考慮に入れた包括的分析により,これらの基礎モデルにおいて重要な公平性に関する懸念が浮かび上がっている。
論文 参考訳(メタデータ) (2024-06-18T14:14:04Z) - Multi-task Explainable Skin Lesion Classification [54.76511683427566]
少ないラベル付きデータでよく一般化する皮膚病変に対する数発のショットベースアプローチを提案する。
提案手法は,アテンションモジュールや分類ネットワークとして機能するセグメンテーションネットワークの融合を含む。
論文 参考訳(メタデータ) (2023-10-11T05:49:47Z) - Learnable Weight Initialization for Volumetric Medical Image Segmentation [66.3030435676252]
本稿では,学習可能な重みに基づくハイブリッド医療画像セグメンテーション手法を提案する。
我々のアプローチはどんなハイブリッドモデルにも簡単に統合でき、外部のトレーニングデータを必要としない。
多臓器・肺がんセグメンテーションタスクの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-06-15T17:55:05Z) - Harvard Glaucoma Fairness: A Retinal Nerve Disease Dataset for Fairness
Learning and Fair Identity Normalization [13.792327874980632]
緑内障検出のための2次元および3次元データイメージングと人種的バランスの取れたデータセットであるHarvard-GF(Harvard Glaucoma Fairness)を紹介する。
我々のFINアプローチは、人種、性別、フェアネスタスクにおいて優れたパフォーマンスを持つ最先端のフェアネス学習手法と比較される。
フェアネスの文脈で、あらゆる種類のパフォーマンス指標を比較するのに柔軟に使用できる、エクイティスケールのパフォーマンス指標を提案する。
論文 参考訳(メタデータ) (2023-06-15T16:39:05Z) - FairAdaBN: Mitigating unfairness with adaptive batch normalization and
its application to dermatological disease classification [14.589159162086926]
バッチ正規化をセンシティブ属性に適応させるFairAdaBNを提案する。
本研究では,FATE(Fairness-Accuracy Trade-off efficiency)と呼ばれる新しい指標を提案する。
2つの皮膚科学データセットを用いた実験により,提案手法はフェアネス基準とFATEの他の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-03-15T02:22:07Z) - Rethinking Semi-Supervised Medical Image Segmentation: A
Variance-Reduction Perspective [51.70661197256033]
医用画像セグメンテーションのための階層化グループ理論を用いた半教師付きコントラスト学習フレームワークARCOを提案する。
まず、分散還元推定の概念を用いてARCOを構築することを提案し、特定の分散還元技術が画素/ボクセルレベルのセグメンテーションタスクにおいて特に有用であることを示す。
5つの2D/3D医療データセットと3つのセマンティックセグメンテーションデータセットのラベル設定が異なる8つのベンチマークで、我々のアプローチを実験的に検証する。
論文 参考訳(メタデータ) (2023-02-03T13:50:25Z) - MEDFAIR: Benchmarking Fairness for Medical Imaging [44.73351338165214]
MEDFAIRは、医療画像のための機械学習モデルの公正性をベンチマークするフレームワークである。
モデル選択基準の未検討の問題は、公正な結果に重大な影響を及ぼす可能性がある。
異なる倫理的原則を必要とするさまざまな医療応用シナリオを推奨する。
論文 参考訳(メタデータ) (2022-10-04T16:30:47Z) - PCA: Semi-supervised Segmentation with Patch Confidence Adversarial
Training [52.895952593202054]
医用画像セグメンテーションのためのPatch Confidence Adrial Training (PCA) と呼ばれる半教師付き対向法を提案する。
PCAは各パッチの画素構造とコンテキスト情報を学習し、十分な勾配フィードバックを得る。
本手法は, 医用画像のセグメンテーションにおいて, 最先端の半教師付き手法より優れており, その有効性を示している。
論文 参考訳(メタデータ) (2022-07-24T07:45:47Z) - A Real Use Case of Semi-Supervised Learning for Mammogram Classification
in a Local Clinic of Costa Rica [0.5541644538483946]
ディープラーニングモデルのトレーニングには、かなりの量のラベル付きイメージが必要です。
多くの公開データセットが、さまざまな病院や診療所のデータで構築されている。
ラベルなしデータを利用した半教師付き深層学習手法であるMixMatchを提案し評価した。
論文 参考訳(メタデータ) (2021-07-24T22:26:50Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Semi-supervised Medical Image Classification with Relation-driven
Self-ensembling Model [71.80319052891817]
医用画像分類のための関係駆動型半教師付きフレームワークを提案する。
これは、摂動下で与えられた入力の予測一貫性を促進することでラベルのないデータを利用する。
本手法は,シングルラベルおよびマルチラベル画像分類のシナリオにおいて,最先端の半教師付き学習手法よりも優れる。
論文 参考訳(メタデータ) (2020-05-15T06:57:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。