論文の概要: Globalizing Fairness Attributes in Machine Learning: A Case Study on
Health in Africa
- arxiv url: http://arxiv.org/abs/2304.02190v1
- Date: Wed, 5 Apr 2023 02:10:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-06 13:49:28.823492
- Title: Globalizing Fairness Attributes in Machine Learning: A Case Study on
Health in Africa
- Title(参考訳): 機械学習における公正な属性のグローバル化:アフリカにおける健康のケーススタディ
- Authors: Mercy Nyamewaa Asiedu, Awa Dieng, Abigail Oppong, Maria Nagawa, Sanmi
Koyejo, Katherine Heller
- Abstract要約: フェアネスは、アフリカにおける世界的な健康に影響を及ぼすが、既にグローバル・ノースとサウスの間には不平等な権力不均衡がある。
本稿では,アフリカの文脈で考慮すべき公平性属性を提案し,それらがML対応の異なる医療モダリティでどのような役割を果たすのかを明記する。
- 参考スコア(独自算出の注目度): 8.566023181495929
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With growing machine learning (ML) applications in healthcare, there have
been calls for fairness in ML to understand and mitigate ethical concerns these
systems may pose. Fairness has implications for global health in Africa, which
already has inequitable power imbalances between the Global North and South.
This paper seeks to explore fairness for global health, with Africa as a case
study. We propose fairness attributes for consideration in the African context
and delineate where they may come into play in different ML-enabled medical
modalities. This work serves as a basis and call for action for furthering
research into fairness in global health.
- Abstract(参考訳): 医療における機械学習(ML)アプリケーションの増加に伴い、これらのシステムがもたらす倫理的懸念を理解し緩和するために、MLの公平性を求める声が上がっている。
フェアネスはアフリカにおける世界的な健康に影響を及ぼすが、これは既にグローバル・ノースとサウスの間に不平等な権力不均衡がある。
本稿では,アフリカを事例として,世界保健の公正性を探究する。
アフリカの文脈で考慮すべき公平性属性を提案し、異なるml対応の医療的モダリティに作用する可能性を示す。
この研究は、世界保健における公正性の研究を促進するための基盤となり、行動を呼び起こす。
関連論文リスト
- What is Fair? Defining Fairness in Machine Learning for Health [0.6311610943467981]
本稿では,健康のための機械学習におけるフェアネスの概念について検討する。
本研究は、一般に使われている公正度指標の概要と、公開電子健康記録データセットのケーススタディによる議論を補完するものである。
また、健康の公平性を定義する上での現在の課題と機会を強調し、今後の研究の展望についても論じる。
論文 参考訳(メタデータ) (2024-06-13T16:41:30Z) - The Impossibility of Fair LLMs [59.424918263776284]
大規模言語モデル(LLM)の時代において、公正なAIの必要性はますます明確になっている。
我々は、機械学習研究者が公正性を評価するために使った技術フレームワークについてレビューする。
我々は、特定のユースケースにおける公平性を達成するためのより現実的な目標のためのガイドラインを策定する。
論文 参考訳(メタデータ) (2024-05-28T04:36:15Z) - The Case for Globalizing Fairness: A Mixed Methods Study on Colonialism,
AI, and Health in Africa [16.7528939567041]
我々は,アフリカにおける公平性を考慮した不均質の軸を提案するために,スコーピングレビューを実施している。
次に,一般人口調査参加者672名と,ML,健康,政策の専門家28名と質的研究を行った。
我々の分析は、関心の属性として植民地主義に焦点を当て、人工知能(AI)、健康、植民地主義の相互作用を調べる。
論文 参考訳(メタデータ) (2024-03-05T22:54:15Z) - Connecting Fairness in Machine Learning with Public Health Equity [0.0]
データとモデル設計のバイアスは、特定の保護されたグループの格差をもたらし、医療における既存の不平等を増幅します。
本研究は,MLフェアネスに関する基礎文献を要約し,データとモデルのバイアスを特定し緩和するための枠組みを提案する。
ケーススタディは、このフレームワークがこれらのバイアスを防ぎ、公衆衛生における公平で公平なMLモデルの必要性を強調するためにどのように使用できるかを示している。
論文 参考訳(メタデータ) (2023-04-08T10:21:49Z) - Can Fairness be Automated? Guidelines and Opportunities for
Fairness-aware AutoML [52.86328317233883]
本報告では、公平性に関連する害が発生する様々な方法の概要を概説する。
この方向に進むためには、いくつかのオープンな技術的課題を強調します。
論文 参考訳(メタデータ) (2023-03-15T09:40:08Z) - Auditing Algorithmic Fairness in Machine Learning for Health with
Severity-Based LOGAN [70.76142503046782]
臨床予測タスクにおいて,局所バイアスを自動検出するSLOGANを用いて,機械学習ベースの医療ツールを補足することを提案する。
LOGANは、患者の重症度と過去の医療史における集団バイアス検出を文脈化することにより、既存のツールであるLOcal Group biAs detectioNに適応する。
SLOGANは, クラスタリング品質を維持しながら, 患者群の75%以上において, SLOGANよりも高い公平性を示す。
論文 参考訳(メタデータ) (2022-11-16T08:04:12Z) - Detecting Shortcut Learning for Fair Medical AI using Shortcut Testing [62.9062883851246]
機械学習は医療の改善に大いに貢献するが、その利用が健康格差を広めたり増幅したりしないことを確実にすることは重要である。
アルゴリズムの不公平性の潜在的な要因の1つ、ショートカット学習は、トレーニングデータにおける不適切な相関に基づいてMLモデルが予測した時に発生する。
マルチタスク学習を用いて,臨床MLシステムの公平性評価の一環として,ショートカット学習の評価と緩和を行う手法を提案する。
論文 参考訳(メタデータ) (2022-07-21T09:35:38Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - What Is Fairness? On the Role of Protected Attributes and Fictitious Worlds [8.223468651994352]
フェアネス対応機械学習(fairML)における文献の増大は、自動意思決定(ADM)における機械学習(ML)に関連する不公平性を緩和することを目的としている。
しかしながら、フェアネスの概念の根底にある概念は、何世紀にもわたって哲学的な議論と、MLコミュニティにおけるこの概念の最近の採用との間に大きなギャップを残している、ほとんど議論されない。
公平性という一貫した概念を定式化し、哲学的考察をADMシステムにおけるMLモデルのトレーニングと評価のための形式的枠組みに変換することにより、このギャップを埋めようとしている。
論文 参考訳(メタデータ) (2022-05-19T15:37:26Z) - The zoo of Fairness metrics in Machine Learning [62.997667081978825]
近年,機械学習(ML)と自動意思決定における公平性の問題が注目されている。
MLにおける公平性の定義の多様さが提案され、人口の個人に影響を与える状況において「公正な決定」とは何かという異なる概念が検討されている。
本研究では、この定義の動物園からある程度の順序付けを試みる。
論文 参考訳(メタデータ) (2021-06-01T13:19:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。