論文の概要: Algorithmic encoding of protected characteristics and its implications
on disparities across subgroups
- arxiv url: http://arxiv.org/abs/2110.14755v1
- Date: Wed, 27 Oct 2021 20:30:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-29 13:42:28.419654
- Title: Algorithmic encoding of protected characteristics and its implications
on disparities across subgroups
- Title(参考訳): 保護特性のアルゴリズム的符号化とその部分群間の差異への影響
- Authors: Ben Glocker and Stefan Winzeck
- Abstract要約: 機械学習モデルは、患者の人種的アイデンティティと臨床結果の間に望ましくない相関関係を拾うことができる。
これらのバイアスがどのようにコード化され、どのように異なるパフォーマンスを減らしたり、取り除いたりするかについては、ほとんど分かっていない。
- 参考スコア(独自算出の注目度): 17.415882865534638
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It has been rightfully emphasized that the use of AI for clinical decision
making could amplify health disparities. A machine learning model may pick up
undesirable correlations, for example, between a patient's racial identity and
clinical outcome. Such correlations are often present in (historical) data used
for model development. There has been an increase in studies reporting biases
in disease detection models across patient subgroups. Besides the scarcity of
data from underserved populations, very little is known about how these biases
are encoded and how one may reduce or even remove disparate performance. There
is some speculation whether algorithms may recognize patient characteristics
such as biological sex or racial identity, and then directly or indirectly use
this information when making predictions. But it remains unclear how we can
establish whether such information is actually used. This article aims to shed
some light on these issues by exploring new methodology allowing intuitive
inspections of the inner working of machine learning models for image-based
detection of disease. We also evaluate an effective yet debatable technique for
addressing disparities leveraging the automatic prediction of patient
characteristics, resulting in models with comparable true and false positive
rates across subgroups. Our findings may stimulate the discussion about safe
and ethical use of AI.
- Abstract(参考訳): 臨床意思決定におけるAIの使用は、健康格差を増幅する可能性があると、正しく強調されている。
機械学習モデルは、例えば患者の人種的アイデンティティと臨床結果との間の望ましくない相関関係を拾うことができる。
このような相関は、モデル開発に使用される(歴史的)データにしばしば存在する。
患者サブグループ間で疾患検出モデルのバイアスを報告している研究が増えている。
人口不足によるデータの不足に加えて、これらのバイアスがどのようにコード化され、どのように異なるパフォーマンスを減らしたり、あるいは取り除いたりするかについては、ほとんど分かっていない。
アルゴリズムは、生物学的性や人種的アイデンティティなどの患者の特徴を認識し、予測を行う際に直接的または間接的にこの情報を使用するのではないかという憶測がある。
しかし、その情報が実際にどのように使われているかは定かではない。
本稿は、画像に基づく疾患検出のための機械学習モデルの内部動作を直感的に検査できる新しい方法論を探求することで、これらの問題に光を当てることを目的としている。
また,患者特性の自動予測を活用し,サブグループ間での真偽陽性率と偽陽性率を比較検討した。
我々の発見は、AIの安全と倫理的利用に関する議論を刺激するかもしれない。
関連論文リスト
- Towards a Transportable Causal Network Model Based on Observational
Healthcare Data [1.333879175460266]
本稿では,選択図,不足グラフ,因果発見,事前知識を1つのグラフィカルモデルに組み合わせた新しい手法を提案する。
このモデルは、患者の2つの異なるコホートからなるデータから学習する。
結果として得られた因果ネットワークモデルは、リスク評価、正確性、説明可能性の観点から専門家臨床医によって検証される。
論文 参考訳(メタデータ) (2023-11-13T13:23:31Z) - Learning and DiSentangling Patient Static Information from Time-series
Electronic HEalth Record (STEER) [3.079694232219292]
医療における機械学習の最近の研究は、患者のプライバシとアルゴリズムの公正性に関する懸念を提起している。
そこで我々は,患者の静的情報を予測するための時系列電子健康記録データの有用性を体系的に検討した。
生の時系列データだけでなく、機械学習モデルから学習した表現も、さまざまな静的情報を予測するためにトレーニングできることがわかった。
論文 参考訳(メタデータ) (2023-09-20T14:54:48Z) - Stubborn Lexical Bias in Data and Models [50.79738900885665]
我々は、データに基づいてトレーニングされたモデルに、データのスプリアスパターンが現れるかどうかを調べるために、新しい統計手法を用いる。
トレーニングデータに*reweight*に最適化アプローチを適用し、数千のスプリアス相関を低減します。
驚くべきことに、この方法ではトレーニングデータの語彙バイアスを低減できますが、トレーニングされたモデルで対応するバイアスの強い証拠がまだ見つかっていません。
論文 参考訳(メタデータ) (2023-06-03T20:12:27Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Deep Learning Discovery of Demographic Biomarkers in Echocardiography [0.3957768262206625]
深層学習アルゴリズムを用いて、心エコー画像から年齢、人種、性別を予測することができるかどうかを検証する。
年齢、性別、人種を予測するために、ビデオベースの畳み込みニューラルネットワークをトレーニングしました。
ディープラーニングモデルは、人種を確実に予測できず、年齢と性別を識別できることがわかった。
論文 参考訳(メタデータ) (2022-07-13T16:48:49Z) - Benchmarking Heterogeneous Treatment Effect Models through the Lens of
Interpretability [82.29775890542967]
治療のパーソナライズされた効果を見積もるのは複雑だが、普及している問題である。
ヘテロジニアス処理効果推定に関する機械学習文献の最近の進歩は、洗練されたが不透明なツールの多くを生み出した。
我々は、ポストホックな特徴重要度法を用いて、モデルの予測に影響を及ぼす特徴を特定する。
論文 参考訳(メタデータ) (2022-06-16T17:59:05Z) - What Do You See in this Patient? Behavioral Testing of Clinical NLP
Models [69.09570726777817]
本稿では,入力の変化に関する臨床結果モデルの振る舞いを評価する拡張可能なテストフレームワークを提案する。
私たちは、同じデータを微調整しても、モデル行動は劇的に変化し、最高のパフォーマンスのモデルが常に最も医学的に可能なパターンを学習していないことを示しています。
論文 参考訳(メタデータ) (2021-11-30T15:52:04Z) - Explaining medical AI performance disparities across sites with
confounder Shapley value analysis [8.785345834486057]
マルチサイト評価は、このような格差を診断する鍵となる。
本フレームワークは,各種類のバイアスが全体の性能差に与える影響を定量化する手法を提供する。
本研究は, 深部学習モデルを用いて気胸の有無を検知し, その有用性を実証するものである。
論文 参考訳(メタデータ) (2021-11-12T18:54:10Z) - Bootstrapping Your Own Positive Sample: Contrastive Learning With
Electronic Health Record Data [62.29031007761901]
本稿では,新しいコントラスト型正規化臨床分類モデルを提案する。
EHRデータに特化した2つのユニークなポジティブサンプリング戦略を紹介します。
私たちのフレームワークは、現実世界のCOVID-19 EHRデータの死亡リスクを予測するために、競争の激しい実験結果をもたらします。
論文 参考訳(メタデータ) (2021-04-07T06:02:04Z) - Select-ProtoNet: Learning to Select for Few-Shot Disease Subtype
Prediction [55.94378672172967]
本研究は, 類似患者のサブグループを同定し, 数発の疾患のサブタイプ予測問題に焦点を当てた。
新しいモデルを開発するためにメタラーニング技術を導入し、関連する臨床課題から共通の経験や知識を抽出する。
我々の新しいモデルは、単純だが効果的なメタ学習マシンであるPrototypeal Networkと呼ばれる、慎重に設計されたメタラーナーに基づいて構築されている。
論文 参考訳(メタデータ) (2020-09-02T02:50:30Z) - Analysing Risk of Coronary Heart Disease through Discriminative Neural
Networks [18.124078832445967]
診断のような重要なアプリケーションでは、このクラス不均衡は見過ごせない。
我々は、識別モデルと対照的な損失を用いて、ニューラルネットワークを介して、このクラス不均衡をどう扱えるかを説明する。
論文 参考訳(メタデータ) (2020-06-17T06:30:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。