論文の概要: MedFilter: Improving Extraction of Task-relevant Utterances from
Doctor-Patient Conversations through Integration of Discourse Structure and
Ontological Knowledge
- arxiv url: http://arxiv.org/abs/2010.02246v3
- Date: Tue, 21 Jun 2022 22:06:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 20:21:39.187258
- Title: MedFilter: Improving Extraction of Task-relevant Utterances from
Doctor-Patient Conversations through Integration of Discourse Structure and
Ontological Knowledge
- Title(参考訳): MedFilter:談話構造とオントロジー知識の統合による博士論文からのタスク関連発話の抽出の改善
- Authors: Sopan Khosla, Shikhar Vashishth, Jill Fain Lehman, Carolyn Rose
- Abstract要約: 本稿では,タスク関連発話の識別・分類における性能向上を目的としたモデリング手法 MedFilter を提案する。
我々は,7000人近い医師と患者との会話のコーパスに対して,このアプローチを評価した。
- 参考スコア(独自算出の注目度): 14.774816839365025
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Information extraction from conversational data is particularly challenging
because the task-centric nature of conversation allows for effective
communication of implicit information by humans, but is challenging for
machines. The challenges may differ between utterances depending on the role of
the speaker within the conversation, especially when relevant expertise is
distributed asymmetrically across roles. Further, the challenges may also
increase over the conversation as more shared context is built up through
information communicated implicitly earlier in the dialogue. In this paper, we
propose the novel modeling approach MedFilter, which addresses these insights
in order to increase performance at identifying and categorizing task-relevant
utterances, and in so doing, positively impacts performance at a downstream
information extraction task. We evaluate this approach on a corpus of nearly
7,000 doctor-patient conversations where MedFilter is used to identify
medically relevant contributions to the discussion (achieving a 10% improvement
over SOTA baselines in terms of area under the PR curve). Identifying
task-relevant utterances benefits downstream medical processing, achieving
improvements of 15%, 105%, and 23% respectively for the extraction of symptoms,
medications, and complaints.
- Abstract(参考訳): 会話のタスク中心の性質は、人間による暗黙的な情報の効果的なコミュニケーションを可能にするが、機械にとって難しいため、会話データからの情報抽出は特に困難である。
課題は、会話における話者の役割、特に役割間で関連する専門知識が非対称に分配される場合によって異なる可能性がある。
さらに、より共有されたコンテキストが対話の早い段階で暗黙的にコミュニケーションされる情報によって構築されるため、これらの課題は会話を越えて増加する可能性がある。
本稿では,これらの知見に対処し,タスク関連発話を識別・分類し,下流情報抽出タスクの性能に正の影響を与える新しいモデリング手法 medfilter を提案する。
本手法は,MedFilter が医療関連貢献者を特定するために用いられる 7000 人近い医師と患者との会話コーパスを用いて評価した(PR曲線下におけるSOTA ベースラインよりも10% 向上した)。
課題関連発話の特定は下流の医療処理に効果があり、症状、薬物、苦情の抽出にそれぞれ15%、105%、23%の改善が達成される。
関連論文リスト
- Generating medically-accurate summaries of patient-provider dialogue: A
multi-stage approach using large language models [6.252236971703546]
効果的な要約は、対話におけるすべての医学的関連情報を一貫性と精度良く捉えることが要求される。
本稿では, 医療会話の要約問題に, タスクを, より小さな対話に基づくタスクに分解することで対処する。
論文 参考訳(メタデータ) (2023-05-10T08:48:53Z) - SPeC: A Soft Prompt-Based Calibration on Performance Variability of
Large Language Model in Clinical Notes Summarization [50.01382938451978]
本稿では,ソフトプロンプトを用いたモデルに依存しないパイプラインを導入し,確率に基づく要約の利点を保ちながら分散を減少させる。
実験結果から,本手法は性能を向上するだけでなく,様々な言語モデルの分散を効果的に抑制することが明らかとなった。
論文 参考訳(メタデータ) (2023-03-23T04:47:46Z) - Weakly Supervised Data Augmentation Through Prompting for Dialogue
Understanding [103.94325597273316]
本稿では,弱教師付きフィルタを適用して拡張品質を反復する手法を提案する。
我々は、デイリーダイアログにおける感情と行動の分類タスクと、Facebook Multilingual Task-Oriented Dialogueにおける意図の分類タスクについて評価した。
特にDailyDialogでは、真理データの10%を使用して、100%のデータを使用する現在の最先端モデルよりも優れています。
論文 参考訳(メタデータ) (2022-10-25T17:01:30Z) - Domain-specific Language Pre-training for Dialogue Comprehension on
Clinical Inquiry-Answering Conversations [28.567701055153385]
自然言語処理の最近の進歩は、大規模な事前訓練された言語バックボーンを機械理解や情報抽出のタスクに活用できることを示唆している。
しかし、事前トレーニングと下流臨床ドメインのギャップのため、ドメイン固有のアプリケーションに一般的なバックボーンを活用することは依然として困難である。
本稿では,対話理解などの下流タスクの性能向上を目的とした,ドメイン固有言語事前学習を提案する。
論文 参考訳(メタデータ) (2022-06-06T08:45:03Z) - Training Conversational Agents with Generative Conversational Networks [74.9941330874663]
我々は、生成会話ネットワークを使用して、自動的にデータを生成し、社会的会話エージェントを訓練する。
自動メトリクスと人的評価器を用いてTopicalChatのアプローチを評価し、10%のシードデータで100%のデータを使用するベースラインに近いパフォーマンスを示す。
論文 参考訳(メタデータ) (2021-10-15T21:46:39Z) - CAiRE in DialDoc21: Data Augmentation for Information-Seeking Dialogue
System [55.43871578056878]
DialDoc21コンペティションでは,サブタスク1で74.95 F1スコア,60.74 Exact Matchスコア,サブタスク2で37.72 SacreBLEUスコアを達成した。
論文 参考訳(メタデータ) (2021-06-07T11:40:55Z) - Comparison of Speaker Role Recognition and Speaker Enrollment Protocol
for conversational Clinical Interviews [9.728371067160941]
エンドツーエンドのニューラルネットワークアーキテクチャをトレーニングし、各タスクに適応し、各アプローチを同じメトリクスで評価します。
結果は面接者の人口統計にも依存せず,その臨床的意義を浮き彫りにした。
論文 参考訳(メタデータ) (2020-10-30T09:07:37Z) - MedDG: An Entity-Centric Medical Consultation Dataset for Entity-Aware
Medical Dialogue Generation [86.38736781043109]
MedDGという12種類の消化器疾患に関連する大規模医用対話データセットを構築し,公開する。
MedDGデータセットに基づく2種類の医療対話タスクを提案する。1つは次のエンティティ予測であり、もう1つは医師の反応生成である。
実験結果から,プレトレイン言語モデルと他のベースラインは,両方のタスクに苦戦し,データセットの性能が劣ることがわかった。
論文 参考訳(メタデータ) (2020-10-15T03:34:33Z) - Extracting Structured Data from Physician-Patient Conversations By
Predicting Noteworthy Utterances [39.888619005843246]
本稿では,会話の書き起こし,ビジット後要約,対応する証拠(転写文),構造化ラベルからなる新しいデータセットについて述べる。
方法論的な課題の1つは、会話が長く(約1500語)、現代のディープラーニングモデルではそれらを入力として使うのが難しいことである。
予測音声を初めてフィルタリングすることにより,診断とRoS異常の両方を認識するための予測性能を著しく向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-07-14T16:10:37Z) - Multi-Stage Conversational Passage Retrieval: An Approach to Fusing Term
Importance Estimation and Neural Query Rewriting [56.268862325167575]
マルチステージアドホックIRシステムにクエリ再構成を組み込んだ会話経路検索(ConvPR)に取り組む。
本稿では,1項の重要度推定と2項のニューラルクエリ書き換えという2つの手法を提案する。
前者に対しては、周波数に基づく信号を用いて会話コンテキストから抽出した重要な用語を用いて会話クエリを拡張する。
後者では,会話クエリを,事前訓練されたシーケンス列列列モデルを用いて,自然な,スタンドアロンの,人間の理解可能なクエリに再構成する。
論文 参考訳(メタデータ) (2020-05-05T14:30:20Z) - Topic Propagation in Conversational Search [0.0]
会話の文脈では、ユーザは、自然言語質問のシーケンスとして、多面的な情報を必要とすることを表現します。
筆者らは,2019 TREC Conversational Assistant Track (CAsT) フレームワークを用いて, (i) トピック認識発話の書き直し, (ii) 書き直された発話の候補節の検索, (iii) ニューラルネットワークによる候補節の再ランク付けを行う。
論文 参考訳(メタデータ) (2020-04-29T10:06:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。