論文の概要: Process Knowledge-infused Learning for Clinician-friendly Explanations
- arxiv url: http://arxiv.org/abs/2306.09824v1
- Date: Fri, 16 Jun 2023 13:08:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-19 13:51:38.886854
- Title: Process Knowledge-infused Learning for Clinician-friendly Explanations
- Title(参考訳): クリニックフレンドリーな説明のためのプロセス知識融合学習
- Authors: Kaushik Roy, Yuxin Zi, Manas Gaur, Jinendra Malekar, Qi Zhang, Vignesh
Narayanan, Amit Sheth
- Abstract要約: 言語モデルはソーシャルメディアデータを用いてメンタルヘルスを評価することができる。
彼らは臨床医の診断過程とポストを比較しない。
臨床医が理解できる概念を使って言語モデルのアウトプットを説明するのは難しいです。
- 参考スコア(独自算出の注目度): 14.405002816231477
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Language models have the potential to assess mental health using social media
data. By analyzing online posts and conversations, these models can detect
patterns indicating mental health conditions like depression, anxiety, or
suicidal thoughts. They examine keywords, language markers, and sentiment to
gain insights into an individual's mental well-being. This information is
crucial for early detection, intervention, and support, improving mental health
care and prevention strategies. However, using language models for mental
health assessments from social media has two limitations: (1) They do not
compare posts against clinicians' diagnostic processes, and (2) It's
challenging to explain language model outputs using concepts that the clinician
can understand, i.e., clinician-friendly explanations. In this study, we
introduce Process Knowledge-infused Learning (PK-iL), a new learning paradigm
that layers clinical process knowledge structures on language model outputs,
enabling clinician-friendly explanations of the underlying language model
predictions. We rigorously test our methods on existing benchmark datasets,
augmented with such clinical process knowledge, and release a new dataset for
assessing suicidality. PK-iL performs competitively, achieving a 70% agreement
with users, while other XAI methods only achieve 47% agreement (average
inter-rater agreement of 0.72). Our evaluations demonstrate that PK-iL
effectively explains model predictions to clinicians.
- Abstract(参考訳): 言語モデルは、ソーシャルメディアデータを用いてメンタルヘルスを評価する可能性がある。
オンライン投稿や会話を分析することで、これらのモデルはうつ病、不安、自殺思考などの精神状態を示すパターンを検出することができる。
彼らはキーワード、言語マーカー、感情を調べ、個人の精神的幸福について洞察を得る。
この情報は、早期発見、介入、支援、メンタルヘルスケアおよび予防戦略の改善に不可欠である。
しかし,ソーシャルメディアのメンタルヘルス評価に言語モデルを使うことには,(1)臨床医の診断プロセスとポストを比較しない,(2)臨床医が理解可能な概念,すなわち臨床医に優しい説明を用いて言語モデルアウトプットを説明することが難しい,という2つの制限がある。
本研究では,言語モデル出力に臨床プロセス知識構造を階層化する新しい学習パラダイムであるプロセス知識注入学習(PK-iL)を導入し,基礎となる言語モデル予測の臨床的フレンドリな説明を可能にする。
本手法を既存のベンチマークデータセット上で厳格に検証し,そのような臨床プロセスの知識を付加し,自殺評価のための新たなデータセットをリリースする。
PK-iLは競争力があり、ユーザーとの70%の合意を達成する一方、他のXAI手法は47%の合意しか達成していない。
PK-iLは,臨床医に効果的にモデル予測を説明できることを示す。
関連論文リスト
- Adapting Mental Health Prediction Tasks for Cross-lingual Learning via Meta-Training and In-context Learning with Large Language Model [3.3590922002216193]
モデルに依存しないメタラーニングと,このギャップに対処するために大規模言語モデル(LLM)を活用する。
まず,自己超越型メタラーニングモデルを適用し,迅速な適応と言語間移動のためのモデル初期化を改良する。
並行して、LLMのインコンテキスト学習機能を用いて、スワヒリのメンタルヘルス予測タスクにおけるパフォーマンスの精度を評価する。
論文 参考訳(メタデータ) (2024-04-13T17:11:35Z) - Assertion Detection Large Language Model In-context Learning LoRA
Fine-tuning [2.401755243180179]
本稿では,大規模言語モデル(LLM)を多数の医療データに基づいて事前学習してアサーション検出を行う手法を提案する。
提案手法は従来の手法よりも0.31高い0.74のF-1を達成した。
論文 参考訳(メタデータ) (2024-01-31T05:11:00Z) - From Classification to Clinical Insights: Towards Analyzing and
Reasoning About Mobile and Behavioral Health Data With Large Language Models [22.140953523632724]
我々は,多センサデータから臨床的に有用な知見を合成するために,大規模言語モデルを活用する新しいアプローチを採っている。
うつ病や不安などの症状とデータの傾向がどのように関連しているかを,LSMを用いて推論する思考促進手法の連鎖を構築した。
GPT-4のようなモデルでは数値データの75%を正確に参照しており、臨床参加者は、この手法を用いて自己追跡データを解釈することへの強い関心を表明している。
論文 参考訳(メタデータ) (2023-11-21T23:53:27Z) - Explainable Depression Symptom Detection in Social Media [2.433983268807517]
本稿では, トランスフォーマーアーキテクチャを用いて, ユーザの文章中の抑うつ症状マーカーの出現を検知し, 説明する。
我々の自然言語による説明により、臨床医はバリデーションされた症状に基づいてモデルの判断を解釈できる。
論文 参考訳(メタデータ) (2023-10-20T17:05:27Z) - Evaluation of Popular XAI Applied to Clinical Prediction Models: Can
They be Trusted? [2.0089256058364358]
透明性と説明可能性の欠如は、機械学習(ML)アルゴリズムの臨床的採用を妨げる。
本研究は、医療現場における予測モデルの説明に使用される2つの一般的なXAI手法を評価する。
論文 参考訳(メタデータ) (2023-06-21T02:29:30Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - VBridge: Connecting the Dots Between Features, Explanations, and Data
for Healthcare Models [85.4333256782337]
VBridgeは、臨床医の意思決定ワークフローに機械学習の説明をシームレスに組み込むビジュアル分析ツールである。
我々は,臨床医がMLの特徴に慣れていないこと,文脈情報の欠如,コホートレベルの証拠の必要性など,3つの重要な課題を特定した。
症例スタディと専門医4名のインタビューを通じて, VBridgeの有効性を実証した。
論文 参考訳(メタデータ) (2021-08-04T17:34:13Z) - CBLUE: A Chinese Biomedical Language Understanding Evaluation Benchmark [51.38557174322772]
中国初のバイオメディカル言語理解評価ベンチマークを提示する。
名前付きエンティティ認識、情報抽出、臨床診断正規化、単文/文対分類を含む自然言語理解タスクのコレクションである。
本研究は,現在の11種類の中国モデルによる実験結果について報告し,その実験結果から,現在最先端のニューラルモデルがヒトの天井よりもはるかに悪い性能を示すことが示された。
論文 参考訳(メタデータ) (2021-06-15T12:25:30Z) - Clinical Outcome Prediction from Admission Notes using Self-Supervised
Knowledge Integration [55.88616573143478]
臨床テキストからのアウトカム予測は、医師が潜在的なリスクを見落としないようにする。
退院時の診断,手術手順,院内死亡率,長期予測は4つの一般的な結果予測対象である。
複数の公開資料から得られた患者結果に関する知識を統合するために,臨床結果の事前学習を提案する。
論文 参考訳(メタデータ) (2021-02-08T10:26:44Z) - Benchmarking Automated Clinical Language Simplification: Dataset,
Algorithm, and Evaluation [48.87254340298189]
我々はMedLaneという名の新しいデータセットを構築し、自動化された臨床言語簡易化手法の開発と評価を支援する。
我々は,人間のアノテーションの手順に従い,最先端のパフォーマンスを実現するDECLAREと呼ばれる新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-12-04T06:09:02Z) - MET: Multimodal Perception of Engagement for Telehealth [52.54282887530756]
ビデオから人間のエンゲージメントレベルを知覚する学習ベースアルゴリズムMETを提案する。
我々はメンタルヘルス患者のエンゲージメント検出のための新しいデータセットMEDICAをリリースした。
論文 参考訳(メタデータ) (2020-11-17T15:18:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。