論文の概要: Wearable-based Fair and Accurate Pain Assessment Using Multi-Attribute Fairness Loss in Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2307.05333v2
- Date: Sun, 16 Feb 2025 09:41:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 17:33:49.590743
- Title: Wearable-based Fair and Accurate Pain Assessment Using Multi-Attribute Fairness Loss in Convolutional Neural Networks
- Title(参考訳): 畳み込みニューラルネットワークにおける多属性公正損失を用いたウェアラブル型公正度評価と正確な痛み評価
- Authors: Yidong Zhu, Shao-Hsien Liu, Mohammad Arif Ul Alam,
- Abstract要約: 臨床的な痛み評価におけるAIの採用は、パーソナライゼーションや公平性といった課題によって妨げられている。
機械学習やディープラーニングを含む多くのAIモデルは偏見を示し、性別や民族に基づいて特定のグループを識別する。
本稿では、データ中の保護属性を考慮に入れたマルチ属性フェアネス損失(MAFL)に基づく畳み込みニューラルネットワーク(CNN)モデルを提案する。
- 参考スコア(独自算出の注目度): 4.451479907610764
- License:
- Abstract: The integration of diverse health data, such as IoT (Internet of Things), EHR (Electronic Health Record), and clinical surveys, with scalable AI(Artificial Intelligence) has enabled the identification of physical, behavioral, and psycho-social indicators of pain. However, the adoption of AI in clinical pain evaluation is hindered by challenges like personalization and fairness. Many AI models, including machine and deep learning, exhibit biases, discriminating against specific groups based on gender or ethnicity, causing skepticism among medical professionals about their reliability. This paper proposes a Multi-attribute Fairness Loss (MAFL) based Convolutional Neural Network (CNN) model designed to account for protected attributes in data, ensuring fair pain status predictions while minimizing disparities between privileged and unprivileged groups. We evaluate whether a balance between accuracy and fairness is achievable by comparing the proposed model with existing mitigation methods. Our findings indicate that the model performs favorably against state-of-the-art techniques. Using the NIH All-Of-US dataset, comprising data from 868 individuals over 1500 days, we demonstrate our model's effectiveness, achieving accuracy rates between 75% and 85%.
- Abstract(参考訳): IoT(IoT of Things)やEHR(Electronic Health Record)といった多様な健康データとスケーラブルなAI(Artificial Intelligence)との統合により、苦痛の物理的、行動的、精神社会的指標の識別が可能になった。
しかし、臨床的な痛み評価におけるAIの採用は、パーソナライゼーションや公平性といった課題によって妨げられている。
機械学習やディープラーニングを含む多くのAIモデルは、偏見を示し、性別や民族に基づいて特定のグループを差別し、医療専門家の間でその信頼性について懐疑的になっている。
本稿では,データ中の保護属性を考慮に入れたマルチ属性公正損失(MAFL)に基づく畳み込みニューラルネットワーク(CNN)モデルを提案する。
提案手法を既存の緩和法と比較することにより,精度と公平性のバランスが達成可能かどうかを評価する。
以上の結果から,本モデルは最先端技術に対して良好に機能することが示唆された。
NIH All-Of-USデータセットを用いて、1500日間に868名の個人から得られたデータを用いて、モデルの有効性を実証し、75%から85%の精度を達成した。
関連論文リスト
- Disparate Model Performance and Stability in Machine Learning Clinical Support for Diabetes and Heart Diseases [2.9247093478805324]
調査により、慢性疾患データセットとその派生した機械学習モデルにおいて、性別と年齢に関連する不等式が広く明らかになった。
25,000人以上の慢性疾患患者のデータを分析したところ、男女差は軽度であり、男性には予測精度が好ましく、若年者には有意な年齢差がみられた。
特に高齢患者では、7つのデータセットで矛盾した予測精度を示し、データの複雑さとモデルの性能が低下した。
論文 参考訳(メタデータ) (2024-12-27T07:31:14Z) - Using Pre-training and Interaction Modeling for ancestry-specific disease prediction in UK Biobank [69.90493129893112]
近年のゲノムワイド・アソシエーション(GWAS)研究は、複雑な形質の遺伝的基盤を明らかにしているが、非ヨーロッパ系個体の低発現を示している。
そこで本研究では,マルチオミクスデータを用いて,多様な祖先間での疾患予測を改善することができるかを評価する。
論文 参考訳(メタデータ) (2024-04-26T16:39:50Z) - Towards a Transportable Causal Network Model Based on Observational
Healthcare Data [1.333879175460266]
本稿では,選択図,不足グラフ,因果発見,事前知識を1つのグラフィカルモデルに組み合わせた新しい手法を提案する。
このモデルは、患者の2つの異なるコホートからなるデータから学習する。
結果として得られた因果ネットワークモデルは、リスク評価、正確性、説明可能性の観点から専門家臨床医によって検証される。
論文 参考訳(メタデータ) (2023-11-13T13:23:31Z) - FairAdaBN: Mitigating unfairness with adaptive batch normalization and
its application to dermatological disease classification [14.589159162086926]
バッチ正規化をセンシティブ属性に適応させるFairAdaBNを提案する。
本研究では,FATE(Fairness-Accuracy Trade-off efficiency)と呼ばれる新しい指標を提案する。
2つの皮膚科学データセットを用いた実験により,提案手法はフェアネス基準とFATEの他の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-03-15T02:22:07Z) - Mitigating Health Disparities in EHR via Deconfounder [5.511343163506091]
我々は、医療データセットの格差問題に対処する新しいフレームワーク、Parity Medical Deconfounder(PriMeD)を提案する。
PriMeDはCVAE(Conditional Variational Autoencoder)を採用して、観測データに対する潜伏要因(代替共同設立者)を学習する。
論文 参考訳(メタデータ) (2022-10-28T05:16:50Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Intelligent Sight and Sound: A Chronic Cancer Pain Dataset [74.77784420691937]
本稿では,Intelligent Sight and Sound (ISS) 臨床試験の一環として収集された,最初の慢性ガン痛データセットを紹介する。
これまで収集されたデータは29の患者、509のスマートフォンビデオ、189,999のフレーム、そして自己報告された感情と活動の痛みのスコアから成っている。
静的画像とマルチモーダルデータを用いて、自己報告された痛みレベルを予測する。
論文 参考訳(メタデータ) (2022-04-07T22:14:37Z) - Explaining medical AI performance disparities across sites with
confounder Shapley value analysis [8.785345834486057]
マルチサイト評価は、このような格差を診断する鍵となる。
本フレームワークは,各種類のバイアスが全体の性能差に与える影響を定量化する手法を提供する。
本研究は, 深部学習モデルを用いて気胸の有無を検知し, その有用性を実証するものである。
論文 参考訳(メタデータ) (2021-11-12T18:54:10Z) - Bootstrapping Your Own Positive Sample: Contrastive Learning With
Electronic Health Record Data [62.29031007761901]
本稿では,新しいコントラスト型正規化臨床分類モデルを提案する。
EHRデータに特化した2つのユニークなポジティブサンプリング戦略を紹介します。
私たちのフレームワークは、現実世界のCOVID-19 EHRデータの死亡リスクを予測するために、競争の激しい実験結果をもたらします。
論文 参考訳(メタデータ) (2021-04-07T06:02:04Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - UNITE: Uncertainty-based Health Risk Prediction Leveraging Multi-sourced
Data [81.00385374948125]
我々はUNcertaInTyベースのhEalth Risk Prediction(UNITE)モデルを提案する。
UNITEは、複数ソースの健康データを活用した正確な疾患リスク予測と不確実性推定を提供する。
非アルコール性脂肪肝疾患(NASH)とアルツハイマー病(AD)の実態予測タスクにおけるUNITEの評価を行った。
UNITEはAD検出のF1スコアで最大0.841点、NASH検出のPR-AUCで最大0.609点を達成し、最高のベースラインで最大19%の高パフォーマンスを達成している。
論文 参考訳(メタデータ) (2020-10-22T02:28:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。