論文の概要: Algorithm Fairness in AI for Medicine and Healthcare
- arxiv url: http://arxiv.org/abs/2110.00603v1
- Date: Fri, 1 Oct 2021 18:18:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-05 15:48:51.879447
- Title: Algorithm Fairness in AI for Medicine and Healthcare
- Title(参考訳): 医療・医療におけるAIのアルゴリズムフェアネス
- Authors: Richard J. Chen, Tiffany Y. Chen, Jana Lipkova, Judy J. Wang, Drew
F.K. Williamson, Ming Y. Lu, Sharifa Sahai, and Faisal Mahmood
- Abstract要約: アルゴリズムの公平性は 公平なケアを提供する上で 難しい問題です
人種のサブ人口にまたがるAIモデルの最近の評価では、患者の診断、治療、医療費の請求などにおいて、大きな不平等が明らかになっている。
- 参考スコア(独自算出の注目度): 4.626801344708786
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the current development and deployment of many artificial intelligence
(AI) systems in healthcare, algorithm fairness is a challenging problem in
delivering equitable care. Recent evaluation of AI models stratified across
race sub-populations have revealed enormous inequalities in how patients are
diagnosed, given treatments, and billed for healthcare costs. In this
perspective article, we summarize the intersectional field of fairness in
machine learning through the context of current issues in healthcare, outline
how algorithmic biases (e.g. - image acquisition, genetic variation,
intra-observer labeling variability) arise in current clinical workflows and
their resulting healthcare disparities. Lastly, we also review emerging
strategies for mitigating bias via decentralized learning, disentanglement, and
model explainability.
- Abstract(参考訳): 医療における多くの人工知能(AI)システムの開発と展開において、アルゴリズムの公平性は、公平なケアを提供する上で難しい問題である。
人種のサブ人口にまたがるAIモデルの最近の評価は、患者がどのように診断され、治療を受け、医療費を請求されるかに大きな不平等が明らかになっている。
本稿では,医療における現在の課題の文脈を通して,機械学習における公平性の交叉領域を概説し,現在の臨床ワークフローとその結果生じる医療格差において,アルゴリズムバイアス(画像取得,遺伝的変異,オブザーバ内ラベリング変動など)がどのように発生するかを概説する。
最後に,分散学習,絡み合い,モデル説明可能性によるバイアス軽減のための新たな戦略について検討する。
関連論文リスト
- Detecting algorithmic bias in medical AI-models [8.673428350514166]
本稿では,医療AI意思決定支援システムにおけるアルゴリズムバイアスの領域を検出するための革新的な枠組みを提案する。
本手法は,医学・AIモデルにおける潜在的なバイアスを,特に敗血症予測の文脈で効果的に同定する。
AIベースの医療判断における公平性と公平性を保証するための重要な手段として機能する。
論文 参考訳(メタデータ) (2023-12-05T18:47:34Z) - An objective validation of polyp and instrument segmentation methods in
colonoscopy through Medico 2020 polyp segmentation and MedAI 2021
transparency challenges [58.402720481042365]
メディコオートマチックポリープセグメンテーション(Medico 2020)と「メディコ:医療画像の透明性(MedAI 2021)」コンペティション。
本報告では, それぞれのコントリビューションを包括的に分析し, ベストパフォーマンスメソッドの強さを強調し, クリニックへの臨床翻訳の可能性について考察する。
論文 参考訳(メタデータ) (2023-07-30T16:08:45Z) - Unbiased Pain Assessment through Wearables and EHR Data: Multi-attribute
Fairness Loss-based CNN Approach [3.799109312082668]
本稿では,MAFL(Multi-Atribute Fairness Loss)に基づくCNNモデルを提案する。
提案手法と既存の緩和手順を比較し, 実装されたモデルが最先端の手法と対照的に良好に機能することを明らかにする。
論文 参考訳(メタデータ) (2023-07-03T09:21:36Z) - Towards clinical AI fairness: A translational perspective [13.061383127966872]
本稿では,AIフェアネスの技術的視点と臨床的視点の相違について論じる。
知識ギャップを埋め、可能な解決策を提供するために、多分野の協力を提唱する。
論文 参考訳(メタデータ) (2023-04-26T12:38:40Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - ImDrug: A Benchmark for Deep Imbalanced Learning in AI-aided Drug
Discovery [79.08833067391093]
現実世界の医薬品のデータセットは、しばしば高度に不均衡な分布を示す。
ImDrugはオープンソースのPythonライブラリを備えたベンチマークで、4つの不均衡設定、11のAI対応データセット、54の学習タスク、16のベースラインアルゴリズムで構成されています。
ドラッグ発見パイプラインの幅広い範囲にまたがる問題やソリューションに対して、アクセス可能でカスタマイズ可能なテストベッドを提供する。
論文 参考訳(メタデータ) (2022-09-16T13:35:57Z) - Detecting Shortcut Learning for Fair Medical AI using Shortcut Testing [62.9062883851246]
機械学習は医療の改善に大いに貢献するが、その利用が健康格差を広めたり増幅したりしないことを確実にすることは重要である。
アルゴリズムの不公平性の潜在的な要因の1つ、ショートカット学習は、トレーニングデータにおける不適切な相関に基づいてMLモデルが予測した時に発生する。
マルチタスク学習を用いて,臨床MLシステムの公平性評価の一環として,ショートカット学習の評価と緩和を行う手法を提案する。
論文 参考訳(メタデータ) (2022-07-21T09:35:38Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - The Medkit-Learn(ing) Environment: Medical Decision Modelling through
Simulation [81.72197368690031]
医用シーケンシャルな意思決定に特化して設計された新しいベンチマークスイートを提案する。
Medkit-Learn(ing) Environmentは、高忠実度合成医療データに簡単かつ簡単にアクセスできるPythonパッケージである。
論文 参考訳(メタデータ) (2021-06-08T10:38:09Z) - Assessing Fairness in Classification Parity of Machine Learning Models
in Healthcare [19.33981403623531]
医療における分類の公平性に関する予備的結果を示す。
また,医療の文脈において,公平性を向上し,適切な分類アルゴリズムを選択するための探索的手法を提案する。
論文 参考訳(メタデータ) (2021-02-07T04:46:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。