論文の概要: FairVision: Equitable Deep Learning for Eye Disease Screening via Fair Identity Scaling
- arxiv url: http://arxiv.org/abs/2310.02492v3
- Date: Fri, 12 Apr 2024 07:06:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-15 19:45:17.492657
- Title: FairVision: Equitable Deep Learning for Eye Disease Screening via Fair Identity Scaling
- Title(参考訳): FairVision: フェアアイデンティティスケーリングによる眼疾患スクリーニングのための等価ディープラーニング
- Authors: Yan Luo, Muhammad Osama Khan, Yu Tian, Min Shi, Zehao Dou, Tobias Elze, Yi Fang, Mengyu Wang,
- Abstract要約: 本研究は,複数の保護属性にまたがる3次元医用画像モデルの公平性に関する総合的研究である。
本研究は2次元モデルと3次元モデルの両方を対象とし,3つの共通眼疾患における5つのアーキテクチャの公平性を評価する。
Harvard-FairVisionは、最初の大規模医療フェアネスデータセットで、2Dと3Dの両方の画像データを含む3万の被験者を対象とする。
- 参考スコア(独自算出の注目度): 19.16603153814857
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Equity in AI for healthcare is crucial due to its direct impact on human well-being. Despite advancements in 2D medical imaging fairness, the fairness of 3D models remains underexplored, hindered by the small sizes of 3D fairness datasets. Since 3D imaging surpasses 2D imaging in SOTA clinical care, it is critical to understand the fairness of these 3D models. To address this research gap, we conduct the first comprehensive study on the fairness of 3D medical imaging models across multiple protected attributes. Our investigation spans both 2D and 3D models and evaluates fairness across five architectures on three common eye diseases, revealing significant biases across race, gender, and ethnicity. To alleviate these biases, we propose a novel fair identity scaling (FIS) method that improves both overall performance and fairness, outperforming various SOTA fairness methods. Moreover, we release Harvard-FairVision, the first large-scale medical fairness dataset with 30,000 subjects featuring both 2D and 3D imaging data and six demographic identity attributes. Harvard-FairVision provides labels for three major eye disorders affecting about 380 million people worldwide, serving as a valuable resource for both 2D and 3D fairness learning. Our code and dataset are publicly accessible at \url{https://ophai.hms.harvard.edu/datasets/harvard-fairvision30k}.
- Abstract(参考訳): 医療におけるAIの質は、人間の健康に直接影響するため、極めて重要である。
2D医療画像のフェアネスの進歩にもかかわらず、3Dモデルのフェアネスは未発見のままであり、3Dのフェアネスデータセットの小さなサイズによって妨げられている。
3D画像はSOTA臨床治療において2D画像を上回るので,これらの3Dモデルの公平さを理解することが重要である。
この研究ギャップに対処するため、我々は、複数の保護属性にわたる3次元医用画像モデルの公平性について、初めて包括的な研究を行った。
調査は2Dモデルと3Dモデルの両方にまたがり、一般的な3つの眼疾患の5つのアーキテクチャで公平さを評価し、人種、性別、民族に有意な偏見を呈している。
これらのバイアスを軽減するために,様々なSOTAフェアネス法よりも優れた性能と公平性を両立させる新しいフェアアイデンティティスケーリング法を提案する。
さらに、Harvard-FairVisionは、2Dと3Dの両方の画像データと6つの人口密度属性を備えた、30,000人の被験者からなる最初の大規模医療フェアネスデータセットである。
Harvard-FairVisionは、世界中の約3億8000万人に影響を及ぼす3つの眼疾患のラベルを提供しており、2Dと3Dのフェアネス学習のための貴重なリソースとなっている。
私たちのコードとデータセットは、 \url{https://ophai.hms.harvard.edu/datasets/harvard-fairvision30k} で公開されています。
関連論文リスト
- E3D-GPT: Enhanced 3D Visual Foundation for Medical Vision-Language Model [23.56751925900571]
3次元医用視覚言語モデルの開発は、疾患の診断と患者の治療に有意な可能性を秘めている。
自己教師付き学習を用いて3次元視覚特徴抽出のための3次元視覚基盤モデルを構築した。
本研究では,3次元空間畳み込みを高精細画像の特徴の集約・投影に応用し,計算複雑性を低減した。
本モデルは,既存の報告生成法,視覚的質問応答法,疾患診断法と比較して,優れた性能を示す。
論文 参考訳(メタデータ) (2024-10-18T06:31:40Z) - MediSyn: Text-Guided Diffusion Models for Broad Medical 2D and 3D Image Synthesis [5.4476703187184246]
医学では、このアプリケーションはデータの不足という重要な課題に対処することを約束する。
リアルで多様な2Dおよび3D画像を生成することによって、これらのモデルは、アルゴリズムによるトレーニングと研究のためのリッチでプライバシーを尊重するリソースを提供する。
テキストプロンプトによる医用画像とビデオ合成の大幅な改善が見られた。
論文 参考訳(メタデータ) (2024-05-16T04:28:44Z) - Leveraging Large-Scale Pretrained Vision Foundation Models for
Label-Efficient 3D Point Cloud Segmentation [67.07112533415116]
本稿では3Dポイントクラウドセグメンテーションタスクに様々な基礎モデルを適用する新しいフレームワークを提案する。
我々のアプローチでは、異なる大きな視覚モデルを用いて2次元セマンティックマスクの初期予測を行う。
本研究では,ロバストな3Dセマンティックな擬似ラベルを生成するために,投票による全ての結果を効果的に組み合わせたセマンティックなラベル融合戦略を提案する。
論文 参考訳(メタデータ) (2023-11-03T15:41:15Z) - PonderV2: Pave the Way for 3D Foundation Model with A Universal
Pre-training Paradigm [114.47216525866435]
本稿では,効率的な3D表現の獲得を容易にするために,新しいユニバーサル3D事前学習フレームワークを提案する。
PonderV2は、11の室内および屋外ベンチマークで最先端のパフォーマンスを達成したことで、その効果が示唆された。
論文 参考訳(メタデータ) (2023-10-12T17:59:57Z) - Cross-dimensional transfer learning in medical image segmentation with
deep learning [0.4588028371034407]
本研究では,自然画像に基づく2次元分類ネットワークの効率性を2次元・3次元一次元・マルチモーダルな医用画像セグメンテーションアプリケーションへ効率的に転送する方法を提案する。
本稿では,2次元事前学習エンコーダを高次元U-Netに埋め込むことによる重量移動と,2次元セグメントネットワークを高次元のU-Netに拡張することによる次元移動という2つの重要な原理に基づいて,新しいアーキテクチャを設計した。
論文 参考訳(メタデータ) (2023-07-29T02:50:38Z) - Interpretable 2D Vision Models for 3D Medical Images [47.75089895500738]
本研究では,3次元画像処理における中間特徴表現を用いた2次元ネットワークの適応手法を提案する。
我々は、ベンチマークとして3D MedMNISTデータセットと、既存の手法に匹敵する数百の高分解能CTまたはMRIスキャンからなる2つの実世界のデータセットを示す。
論文 参考訳(メタデータ) (2023-07-13T08:27:09Z) - Harvard Glaucoma Fairness: A Retinal Nerve Disease Dataset for Fairness
Learning and Fair Identity Normalization [13.792327874980632]
緑内障検出のための2次元および3次元データイメージングと人種的バランスの取れたデータセットであるHarvard-GF(Harvard Glaucoma Fairness)を紹介する。
我々のFINアプローチは、人種、性別、フェアネスタスクにおいて優れたパフォーマンスを持つ最先端のフェアネス学習手法と比較される。
フェアネスの文脈で、あらゆる種類のパフォーマンス指標を比較するのに柔軟に使用できる、エクイティスケールのパフォーマンス指標を提案する。
論文 参考訳(メタデータ) (2023-06-15T16:39:05Z) - Gait Recognition in the Wild with Dense 3D Representations and A
Benchmark [86.68648536257588]
既存の歩行認識の研究は、制約されたシーンにおける人間の体のシルエットや骨格のような2D表現によって支配されている。
本稿では,野生における歩行認識のための高密度な3次元表現の探索を目的とする。
大規模な3D表現に基づく歩行認識データセットGait3Dを構築した。
論文 参考訳(メタデータ) (2022-04-06T03:54:06Z) - DRaCoN -- Differentiable Rasterization Conditioned Neural Radiance
Fields for Articulated Avatars [92.37436369781692]
フルボディの体積アバターを学習するためのフレームワークであるDRaCoNを提案する。
2Dと3Dのニューラルレンダリング技術の利点を利用する。
挑戦的なZJU-MoCapとHuman3.6Mデータセットの実験は、DRaCoNが最先端の手法より優れていることを示している。
論文 参考訳(メタデータ) (2022-03-29T17:59:15Z) - 2.75D: Boosting learning by representing 3D Medical imaging to 2D
features for small data [54.223614679807994]
3D畳み込みニューラルネットワーク(CNN)は、多くのディープラーニングタスクにおいて、2D CNNよりも優れたパフォーマンスを示し始めている。
3D CNNにトランスファー学習を適用することは、パブリックにトレーニング済みの3Dモデルがないために困難である。
本研究では,ボリュームデータの2次元戦略的表現,すなわち2.75Dを提案する。
その結果,2次元CNNネットワークをボリューム情報学習に用いることが可能となった。
論文 参考訳(メタデータ) (2020-02-11T08:24:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。