論文の概要: Towards Assessing Data Bias in Clinical Trials
- arxiv url: http://arxiv.org/abs/2212.09633v1
- Date: Mon, 19 Dec 2022 17:10:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 15:45:08.120013
- Title: Towards Assessing Data Bias in Clinical Trials
- Title(参考訳): 臨床試験におけるデータバイアスの評価に向けて
- Authors: Chiara Criscuolo, Tommaso Dolci and Mattia Salnitri
- Abstract要約: 医療データセットはデータバイアスの影響を受けます。
データバイアスは現実の歪んだ見方を与え、誤った分析結果をもたらし、結果として決定を下す。
i)データセットに存在する可能性のあるデータバイアスの種類を定義し、(ii)適切なメトリクスでデータバイアスを特徴付け、定量化し、(iii)異なるデータソースに対してデータバイアスを特定し、測定し、緩和するためのガイドラインを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Algorithms and technologies are essential tools that pervade all aspects of
our daily lives. In the last decades, health care research benefited from new
computer-based recruiting methods, the use of federated architectures for data
storage, the introduction of innovative analyses of datasets, and so on.
Nevertheless, health care datasets can still be affected by data bias. Due to
data bias, they provide a distorted view of reality, leading to wrong analysis
results and, consequently, decisions. For example, in a clinical trial that
studied the risk of cardiovascular diseases, predictions were wrong due to the
lack of data on ethnic minorities. It is, therefore, of paramount importance
for researchers to acknowledge data bias that may be present in the datasets
they use, eventually adopt techniques to mitigate them and control if and how
analyses results are impacted. This paper proposes a method to address bias in
datasets that: (i) defines the types of data bias that may be present in the
dataset, (ii) characterizes and quantifies data bias with adequate metrics,
(iii) provides guidelines to identify, measure, and mitigate data bias for
different data sources. The method we propose is applicable both for
prospective and retrospective clinical trials. We evaluate our proposal both
through theoretical considerations and through interviews with researchers in
the health care environment.
- Abstract(参考訳): アルゴリズムとテクノロジーは私たちの日常生活のあらゆる側面に浸透する必須のツールです。
過去数十年間、医療研究は、新しいコンピュータベースの採用方法、データストレージのためのフェデレーションアーキテクチャの使用、データセットの革新的な分析の導入などの恩恵を受けてきた。
それでも、医療データセットはデータバイアスの影響を受け得る。
データバイアスのため、それらは現実の歪んだ見方を提供し、間違った分析結果とその結果、決定につながる。
例えば、心血管疾患のリスクを研究した臨床試験では、少数民族のデータがないために予測が間違っていた。
したがって、研究者は、使用するデータセットに存在する可能性のあるデータバイアスを認識し、最終的にそれらを緩和し、分析結果がどう影響するかを制御する技術を採用することが重要である。
本稿では,データセットのバイアスに対処する手法を提案する。
(i)データセットに存在する可能性のあるデータバイアスの種類を定義します。
(ii)適切なメトリクスでデータのバイアスを特徴づけ、定量化する。
(iii)異なるデータソースのデータバイアスを特定し、測定し、緩和するためのガイドラインを提供する。
本提案法は,前向きおよび後向きの臨床試験に応用できる。
本提案は,理論的考察と,医療環境研究者へのインタビューを通じて評価する。
関連論文リスト
- Lazy Data Practices Harm Fairness Research [49.02318458244464]
本稿では,公正な機械学習データセットを包括的に分析し,不反射的手法がアルゴリズム的公正度発見の到達度と信頼性をいかに妨げているかを示す。
本分析では,(1)データと評価における特定の保護属性の表現のテクスブフラック,(2)データ前処理におけるマイノリティの広汎なテキストbf,(3)フェアネス研究の一般化を脅かすテキストbfopaqueデータ処理の3つの分野について検討した。
この研究は、公正なMLにおけるデータプラクティスの批判的な再評価の必要性を強調し、データセットのソーシングと使用の両方を改善するための指針を提供する。
論文 参考訳(メタデータ) (2024-04-26T09:51:24Z) - An AI-Guided Data Centric Strategy to Detect and Mitigate Biases in
Healthcare Datasets [32.25265709333831]
我々は、小さなサンプルサイズ(AEquity)で異なるグループをいかに容易に学習するかを調査することによって、データセットバイアスを評価するために、データ中心、モデルに依存しないタスク非依存のアプローチを生成する。
次に、サブポピュレーション全体にわたるAEq値の体系的分析を適用し、医療における2つの既知の事例において、人種的偏見の特定と顕在化を図った。
AEqは、医療データセットのバイアスを診断し、修正することで、エクイティの前進に適用できる、新しく広く適用可能なメトリクスである。
論文 参考訳(メタデータ) (2023-11-06T17:08:41Z) - Systematic Evaluation of Predictive Fairness [60.0947291284978]
バイアス付きデータセットのトレーニングにおけるバイアスの緩和は、重要なオープンな問題である。
複数のタスクにまたがる様々なデバイアス化手法の性能について検討する。
データ条件が相対モデルの性能に強い影響を与えることがわかった。
論文 参考訳(メタデータ) (2022-10-17T05:40:13Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Social Bias Meets Data Bias: The Impacts of Labeling and Measurement
Errors on Fairness Criteria [4.048444203617942]
我々は、ラベル付けプロセスにおける事前決定者による誤りと、不利な個人の特徴の測定における誤りの2つの形態を考察する。
分析により、ある統計的バイアスに直面した場合、いくつかの制約が頑健であることを示し、他の制約(等化オッドなど)はバイアスデータでトレーニングされた場合、著しく侵害される。
以上の結果から,既存の公正基準の中から選択するためのガイドラインや,利用可能なデータセットに偏りがある場合の新たな基準を提案するためのガイドラインが提示された。
論文 参考訳(メタデータ) (2022-05-31T22:43:09Z) - Predicting Seriousness of Injury in a Traffic Accident: A New Imbalanced
Dataset and Benchmark [62.997667081978825]
本稿では,交通事故における傷害の重大性を予測するために,機械学習アルゴリズムの性能を評価する新しいデータセットを提案する。
データセットは、英国運輸省から公開されているデータセットを集約することで作成される。
論文 参考訳(メタデータ) (2022-05-20T21:15:26Z) - TRAPDOOR: Repurposing backdoors to detect dataset bias in machine
learning-based genomic analysis [15.483078145498085]
データセット内のグループの下位表現は、特定のグループの不正確な予測につながる可能性があるため、システム的識別問題を悪化させる可能性がある。
本稿では,ニューラルネットワークのバックドアであるTRAPDOORを提案する。
実世界のがんデータセットを用いて、すでに白人個人に対して存在するバイアスでデータセットを分析し、データセットにバイアスを人工的に導入する。
論文 参考訳(メタデータ) (2021-08-14T17:02:02Z) - Machine Learning and Data Science approach towards trend and predictors
analysis of CDC Mortality Data for the USA [0.0]
調査では、性別やその中心的な傾向に関わらず(サンプルに基づいて)平均寿命が決定された。
この研究は、機械学習の予測が、データにとって明らかなほど有効ではないことを示しています。
論文 参考訳(メタデータ) (2020-09-11T12:46:57Z) - Trajectories, bifurcations and pseudotime in large clinical datasets:
applications to myocardial infarction and diabetes data [94.37521840642141]
混合データ型と欠落値を特徴とする大規模臨床データセット分析のための半教師付き方法論を提案する。
この手法は、次元の減少、データの可視化、クラスタリング、特徴の選択と、部分的に順序付けられた観測列における測地距離(擬時)の定量化のタスクを同時に扱うことのできる弾性主グラフの適用に基づいている。
論文 参考訳(メタデータ) (2020-07-07T21:04:55Z) - Enabling Counterfactual Survival Analysis with Balanced Representations [64.17342727357618]
生存データは様々な医学的応用、すなわち薬物開発、リスクプロファイリング、臨床試験で頻繁に見られる。
本稿では,生存結果に適用可能な対実的推論のための理論的基盤を持つ統一的枠組みを提案する。
論文 参考訳(メタデータ) (2020-06-14T01:15:00Z) - Overly Optimistic Prediction Results on Imbalanced Data: a Case Study of
Flaws and Benefits when Applying Over-sampling [13.463035357173045]
データを相互に排他的なトレーニングとテストセットに分割する前にオーバーサンプリングを適用する。
この結果が,2つの人工データセットを用いて偏りを生じさせ,この欠陥が同定された研究結果を再現することを示す。
論文 参考訳(メタデータ) (2020-01-15T12:53:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。