論文の概要: Towards Fairness in Classifying Medical Conversations into SOAP Sections
- arxiv url: http://arxiv.org/abs/2012.07749v1
- Date: Wed, 2 Dec 2020 14:55:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 03:54:01.422199
- Title: Towards Fairness in Classifying Medical Conversations into SOAP Sections
- Title(参考訳): 医療会話をSOAPセクションに分類する公平性を目指して
- Authors: Elisa Ferracane, Sandeep Konam
- Abstract要約: 我々は、医師と患者の会話を医療用SOAPノートのセクションに分類するモデルにおいて、格差を特定し、理解する。
これらの会話における言語に関するより深い分析は、これらの違いが医学的アポイントメントのタイプに関係しており、しばしば関連していることを示している。
我々の発見は、データ自体に存在する可能性のある格差を理解することの重要性と、モデルが利益を均等に分配する能力にどのように影響するかを強調します。
- 参考スコア(独自算出の注目度): 2.1485350418225244
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As machine learning algorithms are more widely deployed in healthcare, the
question of algorithmic fairness becomes more critical to examine. Our work
seeks to identify and understand disparities in a deployed model that
classifies doctor-patient conversations into sections of a medical SOAP note.
We employ several metrics to measure disparities in the classifier performance,
and find small differences in a portion of the disadvantaged groups. A deeper
analysis of the language in these conversations and further stratifying the
groups suggests these differences are related to and often attributable to the
type of medical appointment (e.g., psychiatric vs. internist). Our findings
stress the importance of understanding the disparities that may exist in the
data itself and how that affects a model's ability to equally distribute
benefits.
- Abstract(参考訳): 機械学習アルゴリズムが医療に広く展開されるにつれて、アルゴリズムの公平性の問題がより重要になる。
我々の研究は、医師と患者の会話を医療用SOAPノートのセクションに分類するデプロイモデルにおける格差を特定し、理解することを目指している。
分類器の性能のばらつきを計測するために,いくつかの指標を用い,不利なグループの一部に小さな差異を見いだした。
これらの会話における言語をより深く分析し、グループをさらに階層化することは、これらの違いが医学的アポイントメント(精神科医と内科医)のタイプに関連し、しばしば帰属することを示唆している。
本研究は,データそのものに存在する可能性のある異質性を理解することの重要性と,利益を均等に分配するモデルの能力にどのように影響するかを強調する。
関連論文リスト
- FedMedICL: Towards Holistic Evaluation of Distribution Shifts in Federated Medical Imaging [68.6715007665896]
FedMedICLは統合されたフレームワークであり、フェデレートされた医療画像の課題を全体評価するためのベンチマークである。
6種類の医用画像データセットについて,いくつかの一般的な手法を総合的に評価した。
単純なバッチ分散手法はFedMedICL実験全体の平均性能において,高度な手法を超越していることがわかった。
論文 参考訳(メタデータ) (2024-07-11T19:12:23Z) - Health Disparities through Generative AI Models: A Comparison Study
Using A Domain Specific large language model [0.0]
大規模言語モデル(LLM)と呼ばれる人工知能プログラムは、人間の言語を理解し、生成することができる。
本稿では,SciBERTのようなドメイン固有な大規模言語モデルの比較研究を紹介する。
臨床医は、患者と非同期に通信する際に、生成AIを使用してドラフトレスポンスを作成することができると信じている。
論文 参考訳(メタデータ) (2023-10-23T21:24:05Z) - Multi-task Explainable Skin Lesion Classification [54.76511683427566]
少ないラベル付きデータでよく一般化する皮膚病変に対する数発のショットベースアプローチを提案する。
提案手法は,アテンションモジュールや分類ネットワークとして機能するセグメンテーションネットワークの融合を含む。
論文 参考訳(メタデータ) (2023-10-11T05:49:47Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - The Role of Subgroup Separability in Group-Fair Medical Image
Classification [18.29079361470428]
診断などの系統的バイアスを伴うデータを用いて, サブグループ分離性, サブグループ分離性, 性能劣化の関係について検討した。
私たちの発見は、モデルがどのように偏見を抱くかという問題に新たな光を当て、公正な医療画像AIの開発に重要な洞察を与えました。
論文 参考訳(メタデータ) (2023-07-06T06:06:47Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - Auditing Algorithmic Fairness in Machine Learning for Health with
Severity-Based LOGAN [70.76142503046782]
臨床予測タスクにおいて,局所バイアスを自動検出するSLOGANを用いて,機械学習ベースの医療ツールを補足することを提案する。
LOGANは、患者の重症度と過去の医療史における集団バイアス検出を文脈化することにより、既存のツールであるLOcal Group biAs detectioNに適応する。
SLOGANは, クラスタリング品質を維持しながら, 患者群の75%以上において, SLOGANよりも高い公平性を示す。
論文 参考訳(メタデータ) (2022-11-16T08:04:12Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Towards an Automated SOAP Note: Classifying Utterances from Medical
Conversations [0.6875312133832078]
我々は、(i)SOAPセクションと(ii)話者の役割に従って、医療会話から発話を分類するためのギャップを橋渡しします。
本稿では,既存のディープラーニングアーキテクチャを上記の2つのタスクに適応させるシステム分析を提案する。
その結果,単語レベルと発話レベルの両方をキャプチャする階層的な文脈をモデル化することで,両者の分類作業を大幅に改善することが示唆された。
論文 参考訳(メタデータ) (2020-07-17T04:19:30Z) - Hurtful Words: Quantifying Biases in Clinical Contextual Word Embeddings [16.136832979324467]
本研究は,MIMIC-III 病院データセットから医療用ノートにディープ埋め込みモデル(BERT)を事前訓練する。
文脈的単語埋め込みによって捉えられる危険な潜伏関係を同定する。
我々は,50以上の下流臨床予測課題において,フェアネスの定義の異なる性能ギャップを評価する。
論文 参考訳(メタデータ) (2020-03-11T23:21:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。