論文の概要: Improving Fairness in AI Models on Electronic Health Records: The Case
for Federated Learning Methods
- arxiv url: http://arxiv.org/abs/2305.11386v1
- Date: Fri, 19 May 2023 02:03:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-22 16:42:16.219321
- Title: Improving Fairness in AI Models on Electronic Health Records: The Case
for Federated Learning Methods
- Title(参考訳): 電子健康記録におけるAIモデルの公正性向上--フェデレートラーニング手法を事例として
- Authors: Raphael Poulain, Mirza Farhan Bin Tarek and Rahmatollah Beheshti
- Abstract要約: 我々は、医療機関が連合学習パラダイムを通じて協力することで、バイアスの懸念を軽減する1つの可能なアプローチを示す。
本稿では,様々な公正度尺度に適合する,対向的偏りを伴う包括的FL手法とフェアアグリゲーション手法を提案する。
本手法は, 判定性能(精度)に最低限の影響を伴って, 有望な公平性を達成している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Developing AI tools that preserve fairness is of critical importance,
specifically in high-stakes applications such as those in healthcare. However,
health AI models' overall prediction performance is often prioritized over the
possible biases such models could have. In this study, we show one possible
approach to mitigate bias concerns by having healthcare institutions
collaborate through a federated learning paradigm (FL; which is a popular
choice in healthcare settings). While FL methods with an emphasis on fairness
have been previously proposed, their underlying model and local implementation
techniques, as well as their possible applications to the healthcare domain
remain widely underinvestigated. Therefore, we propose a comprehensive FL
approach with adversarial debiasing and a fair aggregation method, suitable to
various fairness metrics, in the healthcare domain where electronic health
records are used. Not only our approach explicitly mitigates bias as part of
the optimization process, but an FL-based paradigm would also implicitly help
with addressing data imbalance and increasing the data size, offering a
practical solution for healthcare applications. We empirically demonstrate our
method's superior performance on multiple experiments simulating large-scale
real-world scenarios and compare it to several baselines. Our method has
achieved promising fairness performance with the lowest impact on overall
discrimination performance (accuracy).
- Abstract(参考訳): 公平性を維持するAIツールの開発は、特に医療などの高度な応用において、非常に重要である。
しかしながら、ヘルスAIモデルの全体的な予測性能は、そのようなモデルが持つ可能性のあるバイアスよりも優先されることが多い。
本研究では,医療機関が連携学習パラダイム(fl;医療現場で一般的な選択である)を通じて協調させることによって,バイアスの懸念を軽減するための1つのアプローチを示す。
フェアネスを重視したflメソッドは以前にも提案されてきたが、その基礎となるモデルとローカル実装技術、および医療領域への応用の可能性については、広く調査されていない。
そこで本研究では,電子健康記録が使用される医療領域において,様々な公平度指標に適合する,敵対的デバイアスと公平なアグリゲーションを用いた包括的flアプローチを提案する。
私たちのアプローチは、最適化プロセスの一部としてバイアスを明示的に緩和するだけでなく、FLベースのパラダイムは、データ不均衡に対処し、データサイズを増やす上でも暗黙的に役立ち、医療アプリケーションに実用的なソリューションを提供します。
大規模実世界のシナリオをシミュレートした複数の実験において,本手法の優れた性能を実証し,複数のベースラインと比較した。
提案手法は,全体的な識別性能(正確性)に最も影響の少ない公平性性能を達成している。
関連論文リスト
- A New Perspective to Boost Performance Fairness for Medical Federated Learning [37.48845838838735]
機能シフトの観点から性能の公平性を改善するためにFed-LWRを提案する。
具体的には, 特徴表現の階層的差異を推定することにより, 全病院におけるグローバルモデルのバイアスを動的に知覚する。
本稿では,2種類の医用画像セグメンテーションベンチマークを用いて提案手法の評価を行った。
論文 参考訳(メタデータ) (2024-10-12T17:19:46Z) - MITA: Bridging the Gap between Model and Data for Test-time Adaptation [68.62509948690698]
テスト時間適応(TTA)は、モデルの一般化性を高めるための有望なパラダイムとして登場した。
本稿では,Met-In-The-MiddleをベースとしたMITAを提案する。
論文 参考訳(メタデータ) (2024-10-12T07:02:33Z) - FairFML: Fair Federated Machine Learning with a Case Study on Reducing Gender Disparities in Cardiac Arrest Outcome Prediction [10.016644624468762]
本稿では,Fair Federated Machine Learning (FairFML)について紹介する。
概念実証として,心停止予測における性差の低減を目的とした実世界の臨床ケーススタディを用いて,FairFMLを検証した。
その結果,FairFMLは局所モデルと集中モデルの両方に匹敵する性能を維持しながら,集中モデルと比較して最大65%のモデルフェアネス向上を実現していることがわかった。
論文 参考訳(メタデータ) (2024-10-07T13:02:04Z) - Aligning (Medical) LLMs for (Counterfactual) Fairness [2.089191490381739]
大規模言語モデル(LLM)は、医療および臨床決定支援アプリケーションのための有望なソリューションとして登場した。
LLMは様々な種類のバイアスを受けており、個人の不公平な扱い、健康格差の悪化、AIが強化された医療ツールへの信頼の低下につながる可能性がある。
本稿では, 知識蒸留フレームワークにおける優先最適化手法を用いて, LLMの整列化のための新しいモデルアライメント手法を提案する。
論文 参考訳(メタデータ) (2024-08-22T01:11:27Z) - Policy Optimization for Personalized Interventions in Behavioral Health [8.10897203067601]
デジタルプラットフォームを通じて提供される行動的健康介入は、健康結果を大幅に改善する可能性がある。
患者に対するパーソナライズされた介入を最適化して長期的効果を最大化する問題について検討した。
患者システムの状態空間を個別のレベルに分解するDecompPIをダブする新しい手法を提案する。
論文 参考訳(メタデータ) (2023-03-21T21:42:03Z) - Decentralized Distributed Learning with Privacy-Preserving Data
Synthesis [9.276097219140073]
医療分野では、患者と臨床データの均一性を生かして、多施設共同研究がより一般化可能な発見をもたらすことがしばしばある。
最近のプライバシー規制は、データの共有を妨げ、その結果、診断と予後をサポートする機械学習ベースのソリューションを考案する。
ローカルノードの機能を統合する分散分散手法を提案し、プライバシを維持しながら複数のデータセットをまたいで一般化可能なモデルを提供する。
論文 参考訳(メタデータ) (2022-06-20T23:49:38Z) - Federated Offline Reinforcement Learning [55.326673977320574]
マルチサイトマルコフ決定プロセスモデルを提案する。
我々は,オフラインRLを対象とした最初のフェデレーション最適化アルゴリズムを設計する。
提案アルゴリズムでは,学習ポリシーの準最適性は,データが分散していないような速度に匹敵する,理論的保証を与える。
論文 参考訳(メタデータ) (2022-06-11T18:03:26Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z) - Learning the Truth From Only One Side of the Story [58.65439277460011]
一般化線形モデルに焦点をあて、このサンプリングバイアスを調整しなければ、モデルは準最適に収束するか、あるいは最適解に収束しないかもしれないことを示す。
理論的保証を伴って適応的なアプローチを提案し、いくつかの既存手法を実証的に上回っていることを示す。
論文 参考訳(メタデータ) (2020-06-08T18:20:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。