論文の概要: Multi-disciplinary fairness considerations in machine learning for
clinical trials
- arxiv url: http://arxiv.org/abs/2205.08875v1
- Date: Wed, 18 May 2022 11:59:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-19 14:04:23.972423
- Title: Multi-disciplinary fairness considerations in machine learning for
clinical trials
- Title(参考訳): 臨床試験における機械学習の学際的公正性の検討
- Authors: Isabel Chien, Nina Deliu, Richard E. Turner, Adrian Weller, Sofia S.
Villar, Niki Kilbertus
- Abstract要約: 本研究は, 臨床試験, すなわち, 人体を用いた医療評価研究に焦点をあてる。
本研究の目的は,臨床試験研究と実践の文脈において,機械学習の公平性がどのように適合するかを,複数の学際評価することである。
- 参考スコア(独自算出の注目度): 43.00377806138086
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While interest in the application of machine learning to improve healthcare
has grown tremendously in recent years, a number of barriers prevent deployment
in medical practice. A notable concern is the potential to exacerbate
entrenched biases and existing health disparities in society. The area of
fairness in machine learning seeks to address these issues of equity; however,
appropriate approaches are context-dependent, necessitating domain-specific
consideration. We focus on clinical trials, i.e., research studies conducted on
humans to evaluate medical treatments. Clinical trials are a relatively
under-explored application in machine learning for healthcare, in part due to
complex ethical, legal, and regulatory requirements and high costs. Our aim is
to provide a multi-disciplinary assessment of how fairness for machine learning
fits into the context of clinical trials research and practice. We start by
reviewing the current ethical considerations and guidelines for clinical trials
and examine their relationship with common definitions of fairness in machine
learning. We examine potential sources of unfairness in clinical trials,
providing concrete examples, and discuss the role machine learning might play
in either mitigating potential biases or exacerbating them when applied without
care. Particular focus is given to adaptive clinical trials, which may employ
machine learning. Finally, we highlight concepts that require further
investigation and development, and emphasize new approaches to fairness that
may be relevant to the design of clinical trials.
- Abstract(参考訳): 近年、医療改善のための機械学習の適用に対する関心は飛躍的に高まっているが、多くの障壁が医療実践への展開を妨げる。
顕著な懸念は、社会における定着したバイアスと既存の健康格差を悪化させる可能性があることである。
機械学習における公平性の領域は、これらのエクイティの問題に対処しようとするが、適切なアプローチはコンテキストに依存し、ドメイン固有の考慮を必要とする。
本研究は, 臨床試験, すなわち, 人体を用いた医療評価研究に焦点をあてる。
臨床試験は、複雑な倫理的、法的、規制的要件と高いコストのために、医療のための機械学習の比較的未熟な応用である。
本研究の目的は,機械学習の公平性が臨床研究や実践の文脈にどのように適合するかを,学際的に評価することである。
まず、現在行われている臨床試験の倫理的考察とガイドラインを見直し、機械学習におけるフェアネスの共通定義との関係を検討することから始める。
臨床試験における不公平な原因の可能性を検証し、具体的な例を示し、潜在的なバイアスを軽減するか、無注意で適用した場合に機械学習が果たす役割について議論する。
特に、機械学習を用いた適応型臨床試験に焦点が当てられている。
最後に、さらなる調査と開発を必要とする概念を強調し、臨床試験の設計にかかわるフェアネスに対する新しいアプローチを強調した。
関連論文リスト
- TrialDura: Hierarchical Attention Transformer for Interpretable Clinical Trial Duration Prediction [19.084936647082632]
マルチモーダルデータを用いて臨床試験期間を推定する機械学習に基づくTrialDuraを提案する。
バイオメディカルコンテキストに特化されたBio-BERT埋め込みにエンコードして,より深く,より関連するセマンティック理解を提供する。
提案モデルでは, 平均絶対誤差(MAE)が1.04年, 根平均二乗誤差(RMSE)が1.39年であった。
論文 参考訳(メタデータ) (2024-04-20T02:12:59Z) - AutoTrial: Prompting Language Models for Clinical Trial Design [53.630479619856516]
本稿では,言語モデルを用いた臨床検査基準の設計を支援するAutoTrialという手法を提案する。
70K以上の臨床試験で、AutoTrialが高品質な基準テキストを生成することが確認された。
論文 参考訳(メタデータ) (2023-05-19T01:04:16Z) - Towards Fair Patient-Trial Matching via Patient-Criterion Level Fairness
Constraint [50.35075018041199]
本研究は,患者基準値の公正度制約を発生させることにより,公正な患者間マッチングの枠組みを提案する。
実世界における患者基準と患者基準の整合性に関する実験結果から,提案手法が偏りやすい予測を効果的に緩和できることが示唆された。
論文 参考訳(メタデータ) (2023-03-24T03:59:19Z) - Detecting Shortcut Learning for Fair Medical AI using Shortcut Testing [62.9062883851246]
機械学習は医療の改善に大いに貢献するが、その利用が健康格差を広めたり増幅したりしないことを確実にすることは重要である。
アルゴリズムの不公平性の潜在的な要因の1つ、ショートカット学習は、トレーニングデータにおける不適切な相関に基づいてMLモデルが予測した時に発生する。
マルチタスク学習を用いて,臨床MLシステムの公平性評価の一環として,ショートカット学習の評価と緩和を行う手法を提案する。
論文 参考訳(メタデータ) (2022-07-21T09:35:38Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Causal Machine Learning for Healthcare and Precision Medicine [16.846051073534966]
因果機械学習(CML)は、医療で人気が高まっている。
臨床意思決定支援システムの様々な側面に因果推論を組み込む方法について検討する。
論文 参考訳(メタデータ) (2022-05-23T15:45:21Z) - Clinical trial site matching with improved diversity using fair policy
learning [56.01170456417214]
我々は,臨床治験記述を潜在的な試験現場のランクリストにマッピングするモデルを学習する。
既存のフェアネスフレームワークとは異なり、各トライアルサイトのグループメンバーシップは非バイナリである。
このようなマルチグループメンバーシップシナリオに対処するために、人口統計学的妥当性に基づく公平性基準を提案する。
論文 参考訳(メタデータ) (2022-04-13T16:35:28Z) - Deploying clinical machine learning? Consider the following... [4.320268614534372]
いくつかの考察に対する感謝の欠如が、この期待と現実の相違の大きな原因であると考えている。
臨床用機械学習アプリケーションを設計・開発するために,課題のいくつかの主要なカテゴリを特定した。
論文 参考訳(メタデータ) (2021-09-14T18:41:36Z) - An Empirical Characterization of Fair Machine Learning For Clinical Risk
Prediction [7.945729033499554]
臨床的意思決定を導くための機械学習の使用は、既存の健康格差を悪化させる可能性がある。
近年のいくつかの研究は、この問題をアルゴリズム的公正(英語版)の問題と位置づけている。
我々は,グループフェアネス違反の罰則がモデル性能とグループフェアネスの一連の尺度に与える影響を実験的に評価する。
論文 参考訳(メタデータ) (2020-07-20T17:46:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。