論文の概要: Gender Fairness of Machine Learning Algorithms for Pain Detection
- arxiv url: http://arxiv.org/abs/2506.11132v1
- Date: Tue, 10 Jun 2025 18:08:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-16 17:50:49.496716
- Title: Gender Fairness of Machine Learning Algorithms for Pain Detection
- Title(参考訳): 痛覚検出のための機械学習アルゴリズムのジェンダーフェアネス
- Authors: Dylan Green, Yuting Shang, Jiaee Cheong, Yang Liu, Hatice Gunes,
- Abstract要約: 本稿では,UNBC-McMaster Shoulder Pain Expression Archive Databaseで学習した機械学習(ML)とディープラーニング(DL)アルゴリズムの性別フェアネスについて検討する。
従来のMLアルゴリズムである線形サポートベクトルマシン(L SVM)と放射基底関数SVM(RBF SVM)をDL法、畳み込みニューラルネットワーク(CNN)、視覚変換器(ViT)と比較した。
ViTは最高精度と公正度指標の選択を達成したが、すべてのモデルは性別ベースの偏見を示していた。
- 参考スコア(独自算出の注目度): 10.23966283602802
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automated pain detection through machine learning (ML) and deep learning (DL) algorithms holds significant potential in healthcare, particularly for patients unable to self-report pain levels. However, the accuracy and fairness of these algorithms across different demographic groups (e.g., gender) remain under-researched. This paper investigates the gender fairness of ML and DL models trained on the UNBC-McMaster Shoulder Pain Expression Archive Database, evaluating the performance of various models in detecting pain based solely on the visual modality of participants' facial expressions. We compare traditional ML algorithms, Linear Support Vector Machine (L SVM) and Radial Basis Function SVM (RBF SVM), with DL methods, Convolutional Neural Network (CNN) and Vision Transformer (ViT), using a range of performance and fairness metrics. While ViT achieved the highest accuracy and a selection of fairness metrics, all models exhibited gender-based biases. These findings highlight the persistent trade-off between accuracy and fairness, emphasising the need for fairness-aware techniques to mitigate biases in automated healthcare systems.
- Abstract(参考訳): 機械学習(ML)とディープラーニング(DL)アルゴリズムによる痛みの自動検出は、特に痛みレベルを自己報告できない患者にとって、医療において大きな可能性を秘めている。
しかし、これらのアルゴリズムの精度と妥当性は、異なる人口集団(例えば、性別)にまたがって調査されていない。
本稿では, UNBC-McMaster Shoulder Pain Expression Archive Databaseで訓練されたMLモデルとDLモデルの性公正性について検討し, 参加者の表情の視覚的モダリティのみに基づく痛み検出における各種モデルの性能評価を行った。
我々は,従来のMLアルゴリズムである線形サポートベクトルマシン(L SVM)と放射基底関数SVM(RBF SVM)と,DL法,畳み込みニューラルネットワーク(CNN),ビジョントランスフォーマー(ViT)とを,様々な性能と公平性指標を用いて比較した。
ViTは最高精度と公正度指標の選択を達成したが、すべてのモデルは性別ベースの偏見を示していた。
これらの知見は、自動医療システムにおけるバイアスを軽減するために、公正を意識する技術の必要性を強調し、正確性と公正性の間の永続的なトレードオフを強調している。
関連論文リスト
- Evaluating and Mitigating Bias in AI-Based Medical Text Generation [35.24191727599811]
AIシステムは人間の偏見を反映し、増幅し、歴史的に貧弱な人口におけるパフォーマンスの質を低下させる。
本研究では,医療分野におけるテキスト生成における公平性問題について検討する。
偏りを低減するために,不整合群を選択的に最適化するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-04-24T06:10:40Z) - Machine Vision Therapy: Multimodal Large Language Models Can Enhance Visual Robustness via Denoising In-Context Learning [67.0609518552321]
本稿では,視覚モデルからノイズ予測を補正するマシンビジョンセラピーを提案する。
復調ラベルを微調整することにより、教師なしの方法で学習モデルの性能を高めることができる。
論文 参考訳(メタデータ) (2023-12-05T07:29:14Z) - Wearable-based Fair and Accurate Pain Assessment Using Multi-Attribute Fairness Loss in Convolutional Neural Networks [4.451479907610764]
臨床的な痛み評価におけるAIの採用は、パーソナライゼーションや公平性といった課題によって妨げられている。
機械学習やディープラーニングを含む多くのAIモデルは偏見を示し、性別や民族に基づいて特定のグループを識別する。
本稿では、データ中の保護属性を考慮に入れたマルチ属性フェアネス損失(MAFL)に基づく畳み込みニューラルネットワーク(CNN)モデルを提案する。
論文 参考訳(メタデータ) (2023-07-03T09:21:36Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Studying Drowsiness Detection Performance while Driving through Scalable
Machine Learning Models using Electroencephalography [0.0]
運転者の眠気は交通事故の主な原因の1つである。
Brain-Computer Interfaces (BCI) と Machine Learning (ML) はドライバの眠気の検出を可能にしている。
本研究は、BCIを用いたインテリジェントなフレームワークと、脳波に基づく運転シナリオの眠気を検出する特徴を示す。
論文 参考訳(メタデータ) (2022-09-08T22:14:33Z) - Detecting Shortcut Learning for Fair Medical AI using Shortcut Testing [62.9062883851246]
機械学習は医療の改善に大いに貢献するが、その利用が健康格差を広めたり増幅したりしないことを確実にすることは重要である。
アルゴリズムの不公平性の潜在的な要因の1つ、ショートカット学習は、トレーニングデータにおける不適切な相関に基づいてMLモデルが予測した時に発生する。
マルチタスク学習を用いて,臨床MLシステムの公平性評価の一環として,ショートカット学習の評価と緩和を行う手法を提案する。
論文 参考訳(メタデータ) (2022-07-21T09:35:38Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。