論文の概要: Harvard Glaucoma Fairness: A Retinal Nerve Disease Dataset for Fairness
Learning and Fair Identity Normalization
- arxiv url: http://arxiv.org/abs/2306.09264v1
- Date: Thu, 15 Jun 2023 16:39:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 13:45:07.632118
- Title: Harvard Glaucoma Fairness: A Retinal Nerve Disease Dataset for Fairness
Learning and Fair Identity Normalization
- Title(参考訳): Harvard Glaucoma Fairness:Fairness LearningとFair Identity Normalizationのための網膜神経疾患データセット
- Authors: Yan Luo, Yu Tian, Min Shi, Tobias Elze, Mengyu Wang
- Abstract要約: 緑内障は全世界で不可逆的な盲目の原因であり、黒人は他の人種に比べて緑内障の頻度が倍増している。
グラウコーマ・フェアネス(Harvard Glaucoma Fairness,Harvard-GF)は、2Dおよび3D画像データと、グラウコーマ検出のための人種的バランスの取れたデータセットである。
我々のFINアプローチは、人種的、性別的公正なタスクにおいて優れたパフォーマンスを持つ、最先端のフェアネス学習手法と比較される。
- 参考スコア(独自算出の注目度): 25.018323526044423
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Fairness in machine learning is important for societal well-being, but
limited public datasets hinder its progress. Currently, no dedicated public
medical datasets with imaging data for fairness learning are available, though
minority groups suffer from more health issues. To address this gap, we
introduce Harvard Glaucoma Fairness (Harvard-GF), a retinal nerve disease
dataset with both 2D and 3D imaging data and balanced racial groups for
glaucoma detection. Glaucoma is the leading cause of irreversible blindness
globally with Blacks having doubled glaucoma prevalence than other races. We
also propose a fair identity normalization (FIN) approach to equalize the
feature importance between different identity groups. Our FIN approach is
compared with various the-state-of-the-arts fairness learning methods with
superior performance in both racial and gender fairness tasks with 2D and 3D
imaging data, which demonstrate the utilities of our dataset Harvard-GF for
fairness learning. To facilitate fairness comparisons between different models,
we propose an equity-scaled performance measure, which can be flexibly used to
compare all kinds of performance metrics in the context of fairness. The
dataset and code are publicly accessible via https://doi.org/10.7910/DVN/A4XMO1
and https://github.com/luoyan407/Harvard-GF, respectively.
- Abstract(参考訳): 機械学習の公正性は、社会的幸福のために重要であるが、公開データセットの制限は、その進歩を妨げる。
現在、フェアネス学習のための画像データを持つ公共医療データセットは提供されていないが、少数グループはより多くの健康問題に苦しんでいる。
このギャップに対処するために,2次元および3次元画像データとバランスのとれた人種集団による緑内障検出のための網膜神経疾患データセットであるharvard-gfを紹介する。
緑内障は他の人種よりも2倍の緑内障の有病率を持つ黒人が世界中で不可逆盲目の原因となっている。
また,異なる同一性群間の特徴的重要性を等化するための公平同一性正規化(fin)手法を提案する。
FINの手法は,2次元および3次元画像データを用いた人種的および性別的フェアネスタスクにおいて,さまざまな最先端のフェアネス学習手法と比較し,フェアネス学習のためのデータセットであるHarvard-GFの有用性を実証する。
両モデル間の公正度比較を容易にするため,フェアネスの文脈において,あらゆる種類のパフォーマンス指標を柔軟に比較できるエクイティスケールパフォーマンス尺度を提案する。
データセットとコードは、https://doi.org/10.7910/DVN/A4XMO1とhttps://github.com/luoyan407/Harvard-GFを通じて公開されている。
関連論文リスト
- FairCLIP: Harnessing Fairness in Vision-Language Learning [20.743027598445796]
本稿では, 詳細な統計属性, 基盤ラベル, 臨床ノートを提供する, 視覚言語医学データセットについて紹介する。
この種の医療データセットとしては初めての公正なビジョン言語として、HarvardFairMedは、意識的かつ臨床的に有効な機械学習モデルの開発を触媒する可能性を秘めている。
論文 参考訳(メタデータ) (2024-03-29T03:15:31Z) - FairSeg: A Large-Scale Medical Image Segmentation Dataset for Fairness Learning Using Segment Anything Model with Fair Error-Bound Scaling [14.483954095650887]
フェアネス学習研究を促進するためには、高品質な医療フェアネスデータセットが必要である。
既存の医療フェアネスデータセットはすべて分類タスク用であり、医療セグメント化にはフェアネスデータセットが使用できない。
我々は,1万件の被験者を対象とし,HarvardFairSegという医療セグメント化のための最初のフェアネスデータセットを提案する。
論文 参考訳(メタデータ) (2023-11-03T18:44:21Z) - Fairness-enhancing mixed effects deep learning improves fairness on in- and out-of-distribution clustered (non-iid) data [6.596656267996196]
フェア・ミックスド・エフェクト・ディープ・ラーニング(Fair MEDL)フレームワークを紹介する。
Fair MEDLは、クラスタ不変固定効果(FE)とクラスタ固有ランダム効果(RE)を定量化する
敵の偏見を取り入れて、平等化オッド、デモグラフィックパリティ、カウンターファクトフェアネスの3つの主要な指標の公平性を促進する。
論文 参考訳(メタデータ) (2023-10-04T20:18:45Z) - FairVision: Equitable Deep Learning for Eye Disease Screening via Fair Identity Scaling [19.16603153814857]
本研究は,複数の保護属性にまたがる3次元医用画像モデルの公平性に関する総合的研究である。
本研究は2次元モデルと3次元モデルの両方を対象とし,3つの共通眼疾患における5つのアーキテクチャの公平性を評価する。
Harvard-FairVisionは、最初の大規模医療フェアネスデータセットで、2Dと3Dの両方の画像データを含む3万の被験者を対象とする。
論文 参考訳(メタデータ) (2023-10-03T23:44:35Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Fairness-aware Model-agnostic Positive and Unlabeled Learning [38.50536380390474]
フェアプル(FairPUL)という,フェアネスを意識したポジティブ・アンラベル学習手法を提案する。
2つの集団の個体を二分分類するために、同様の正の率と偽の正の率を達成することを目指している。
我々のフレームワークは、分類誤差と公正度の両方の観点から統計的に一貫性があることが証明されている。
論文 参考訳(メタデータ) (2022-06-19T08:04:23Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Deep F-measure Maximization for End-to-End Speech Understanding [52.36496114728355]
本稿では,F測度に対する微分可能な近似法を提案し,標準バックプロパゲーションを用いてネットワークをトレーニングする。
我々は、アダルト、コミュニティ、犯罪の2つの標準フェアネスデータセットの実験を行い、ATISデータセットの音声・インテリジェンス検出と音声・COCOデータセットの音声・イメージ概念分類を行った。
これらの4つのタスクのすべてにおいて、F測定は、クロスエントロピー損失関数で訓練されたモデルと比較して、最大8%の絶対的な絶対的な改善を含む、マイクロF1スコアの改善をもたらす。
論文 参考訳(メタデータ) (2020-08-08T03:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。