論文の概要: Bias Discovery in Machine Learning Models for Mental Health
- arxiv url: http://arxiv.org/abs/2205.12093v1
- Date: Tue, 24 May 2022 14:17:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-25 20:33:45.618241
- Title: Bias Discovery in Machine Learning Models for Mental Health
- Title(参考訳): メンタルヘルスのための機械学習モデルにおけるバイアス発見
- Authors: Pablo Mosteiro and Jesse Kuiper and Judith Masthoff and Floortje
Scheepers and Marco Spruit
- Abstract要約: 公平性と偏見は人工知能において重要な概念であるが、精神医学における機械学習の応用においては比較的無視されている。
我々は,臨床精神保健データに基づくモデルを用いて,公正度測定値とバイアス軽減戦略を算出した。
これは、実際の臨床精神医学データに基づいてトレーニングされた機械学習モデルにおけるバイアス探索と緩和の最初の応用である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fairness and bias are crucial concepts in artificial intelligence, yet they
are relatively ignored in machine learning applications in clinical psychiatry.
We computed fairness metrics and present bias mitigation strategies using a
model trained on clinical mental health data. We collected structured data
related to the admission, diagnosis, and treatment of patients in the
psychiatry department of the University Medical Center Utrecht. We trained a
machine learning model to predict future administrations of benzodiazepines on
the basis of past data. We found that gender plays an unexpected role in the
predictions-this constitutes bias. Using the AI Fairness 360 package, we
implemented reweighing and discrimination-aware regularization as bias
mitigation strategies, and we explored their implications for model
performance. This is the first application of bias exploration and mitigation
in a machine learning model trained on real clinical psychiatry data.
- Abstract(参考訳): 公平性とバイアスは人工知能において重要な概念であるが、臨床精神医学における機械学習の応用においては比較的無視されている。
臨床精神保健データに基づくモデルを用いて公平度指標を算出し,バイアス緩和戦略を提案する。
ユトレヒト大学医学部精神科における入院,診断,治療に関する構造化データを収集した。
我々は過去のデータに基づいてベンゾジアゼピンの将来の投与を予測するために機械学習モデルを訓練した。
性別が予測に予期せぬ役割を担っていることがわかりました。
AI Fairness 360パッケージを用いて、バイアス軽減戦略として、リウィーディングと差別意識の正則化を実装し、モデル性能への影響について検討した。
これは、実際の臨床精神医学データに基づいてトレーニングされた機械学習モデルにおけるバイアス探索と緩和の最初の応用である。
関連論文リスト
- Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Precision psychiatry: predicting predictability [0.0]
私は精密精神医学の分野での10の課題をレビューします。
現実の人口と現実的な臨床結果の定義についての研究が必要である。
プラセボ効果や処方薬の非順守などの治療関連因子について検討する。
論文 参考訳(メタデータ) (2023-06-21T13:10:46Z) - Fairness in Machine Learning meets with Equity in Healthcare [6.842248432925292]
本研究では,データやモデルのバイアスを識別・緩和する人工知能フレームワークを提案する。
ケーススタディでは、データの体系的バイアスがモデル予測における増幅バイアスにどのように寄与するかを示す。
今後の研究は、提案するMLフレームワークを実世界の臨床環境でテストし、検証することを目的としており、その影響が健康株の促進に与える影響を評価する。
論文 参考訳(メタデータ) (2023-05-11T14:25:34Z) - Algorithmic Bias, Generalist Models,and Clinical Medicine [1.9143819780453073]
臨床機械学習における支配的なパラダイムは、モデルが特定の臨床タスクのためのバイオメディカルデータセットに基づいて訓練されるという意味で狭くなっている。
新たなパラダイムは、GoogleのBERTやPaLMといった汎用言語モデルが、臨床ユースケースに適応しつつあるという意味で、一般論である。
これらの次世代モデルの多くは、以前の臨床モデルよりもかなりの性能向上をもたらすが、同時に新しい種類のアルゴリズムバイアスも導入している。
本稿では, 一般モデルにおける偏見が, 先行臨床モデルにおける偏見とどのように異なるのかを詳述し, アルゴリズム的偏見緩和のための実践的推奨事項を抽出する。
論文 参考訳(メタデータ) (2023-05-06T10:48:51Z) - Bias Reducing Multitask Learning on Mental Health Prediction [18.32551434711739]
メンタルヘルスの検出や予測のための機械学習モデルの開発では、研究が増加している。
本研究では,マルチタスク学習に基づくバイアス緩和手法を不安予測モデルに適用し,公平性分析を行うことを目的とする。
分析の結果、我々の不安予測ベースモデルでは、年齢、収入、民族性、そして参加者が米国で生まれたかどうかに偏りが生じていた。
論文 参考訳(メタデータ) (2022-08-07T02:28:32Z) - Detecting Shortcut Learning for Fair Medical AI using Shortcut Testing [62.9062883851246]
機械学習は医療の改善に大いに貢献するが、その利用が健康格差を広めたり増幅したりしないことを確実にすることは重要である。
アルゴリズムの不公平性の潜在的な要因の1つ、ショートカット学習は、トレーニングデータにおける不適切な相関に基づいてMLモデルが予測した時に発生する。
マルチタスク学習を用いて,臨床MLシステムの公平性評価の一環として,ショートカット学習の評価と緩和を行う手法を提案する。
論文 参考訳(メタデータ) (2022-07-21T09:35:38Z) - A Machine Learning Model for Predicting, Diagnosing, and Mitigating
Health Disparities in Hospital Readmission [0.0]
本稿では,データ中のバイアスの検出と緩和とモデル予測が可能な機械学習パイプラインを提案する。
提案手法の有効性を,精度と公正度の測定値を用いて評価した。
論文 参考訳(メタデータ) (2022-06-13T16:07:25Z) - Pseudo Bias-Balanced Learning for Debiased Chest X-ray Classification [57.53567756716656]
本研究では, バイアスラベルを正確に把握せず, 脱バイアス胸部X線診断モデルの開発について検討した。
本稿では,まずサンプルごとのバイアスラベルをキャプチャし,予測する新しいアルゴリズム,擬似バイアスバランス学習を提案する。
提案手法は他の最先端手法よりも一貫した改善を実現した。
論文 参考訳(メタデータ) (2022-03-18T11:02:18Z) - What Do You See in this Patient? Behavioral Testing of Clinical NLP
Models [69.09570726777817]
本稿では,入力の変化に関する臨床結果モデルの振る舞いを評価する拡張可能なテストフレームワークを提案する。
私たちは、同じデータを微調整しても、モデル行動は劇的に変化し、最高のパフォーマンスのモデルが常に最も医学的に可能なパターンを学習していないことを示しています。
論文 参考訳(メタデータ) (2021-11-30T15:52:04Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Hemogram Data as a Tool for Decision-making in COVID-19 Management:
Applications to Resource Scarcity Scenarios [62.997667081978825]
新型コロナウイルス(COVID-19)のパンデミックは世界中の緊急対応システムに挑戦している。
本研究は, 症状患者の血液検査データから得られた機械学習モデルについて述べる。
提案されたモデルでは、新型コロナウイルスqRT-PCRの結果を、高い精度、感度、特異性で症状のある個人に予測することができる。
論文 参考訳(メタデータ) (2020-05-10T01:45:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。