論文の概要: Focus-Driven Contrastive Learniang for Medical Question Summarization
- arxiv url: http://arxiv.org/abs/2209.00484v1
- Date: Thu, 1 Sep 2022 14:15:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-02 13:20:47.716046
- Title: Focus-Driven Contrastive Learniang for Medical Question Summarization
- Title(参考訳): 医学的質問要約のためのフォーカス駆動コントラスト学習
- Authors: Ming Zhang, Shuai Dou, Ziyang Wang, Yunfang Wu
- Abstract要約: 焦点駆動型コントラスト学習フレームワーク(QFCL)を提案する。
3つの医用ベンチマーク・データセットを用いて,提案したモデルにより,新たな最先端結果が得られた。
我々のQFCLモデルは、異なる文の意味を識別する能力により、より良い文表現を学習する。
- 参考スコア(独自算出の注目度): 18.33686557238865
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automatic medical question summarization can significantly help the system to
understand consumer health questions and retrieve correct answers. The Seq2Seq
model based on maximum likelihood estimation (MLE) has been applied in this
task, which faces two general problems: the model can not capture well question
focus and and the traditional MLE strategy lacks the ability to understand
sentence-level semantics. To alleviate these problems, we propose a novel
question focus-driven contrastive learning framework (QFCL). Specially, we
propose an easy and effective approach to generate hard negative samples based
on the question focus, and exploit contrastive learning at both encoder and
decoder to obtain better sentence level representations. On three medical
benchmark datasets, our proposed model achieves new state-of-the-art results,
and obtains a performance gain of 5.33, 12.85 and 3.81 points over the baseline
BART model on three datasets respectively. Further human judgement and detailed
analysis prove that our QFCL model learns better sentence representations with
the ability to distinguish different sentence meanings, and generates
high-quality summaries by capturing question focus.
- Abstract(参考訳): 自動的な医療質問要約は、消費者の健康問題を理解し、正しい回答を得るのに役立つ。
このタスクには,最大推定(MLE)に基づくSeq2Seqモデルが適用されており,このモデルでは十分な疑問の焦点を捉えることができず,従来のMLE戦略では文レベルのセマンティクスを理解する能力に欠ける2つの一般的な問題に直面している。
そこで本研究では,これらの問題を緩和するために,QFCL(Contentive Learning framework)を提案する。
特に,質問焦点に基づく難解なサンプルを生成するための簡便で効果的な手法を提案し,コントラスト学習をエンコーダとデコーダの両方で活用し,文章レベルの表現性を向上させる。
3つの医用ベンチマーク・データセットにおいて,提案モデルでは,3つのデータセットのベースラインBARTモデルに対して,それぞれ5.33,12.85,3.81点の性能向上が得られた。
さらに人間の判断と詳細な分析により、我々のQFCLモデルは、異なる文の意味を識別してより良い文表現を学習し、質問焦点を捉えて高品質な要約を生成する。
関連論文リスト
- Insight Over Sight? Exploring the Vision-Knowledge Conflicts in Multimodal LLMs [55.74117540987519]
本稿では,マルチモーダル大言語モデル(MLLM)におけるコモンセンスレベルの視覚知識衝突の問題について考察する。
MLLMのコンフリクトのシミュレーションと評価を目的としたベンチマークを確立するため,人間のループ品質制御を付加した自動パイプラインを導入する。
各種モデルファミリーにおける9つの代表MLLMのコンフリクト分解能を評価し,テキストクエリに顕著なオーバー信頼度を求める。
論文 参考訳(メタデータ) (2024-10-10T17:31:17Z) - Precision Empowers, Excess Distracts: Visual Question Answering With Dynamically Infused Knowledge In Language Models [36.56689822791777]
KBVQA (Knowledge-Based Visual Question Answering) は、外部知識と質問に答える画像を追加することで、この概念を前進させる。
本研究の主な貢献は、動的トリプル抽出法を用いて知識グラフから抽出した外部知識を組み込むことにより、質問を強化することである。
知識に富んだ我々のモデルは,3種類のKBVQAデータセット上での最先端技術よりも,Exact Match Scoreの平均4.75%向上を示す。
論文 参考訳(メタデータ) (2024-06-14T13:07:46Z) - Multi-Modal Prompt Learning on Blind Image Quality Assessment [65.0676908930946]
画像品質評価(IQA)モデルは意味情報から大きな恩恵を受け、異なる種類のオブジェクトを明瞭に扱うことができる。
十分な注釈付きデータが不足している従来の手法では、セマンティックな認識を得るために、CLIPイメージテキスト事前学習モデルをバックボーンとして使用していた。
近年のアプローチでは、このミスマッチに即時技術を使って対処する試みがあるが、これらの解決策には欠点がある。
本稿では、IQAのための革新的なマルチモーダルプロンプトベースの手法を提案する。
論文 参考訳(メタデータ) (2024-04-23T11:45:32Z) - VALOR-EVAL: Holistic Coverage and Faithfulness Evaluation of Large Vision-Language Models [57.43276586087863]
LVLM(Large Vision-Language Models)は幻覚に悩まされ、このモデルでは可聴音を発生させるが、実際には誤出力を発生させる。
既存のベンチマークはスコープに限られており、主にオブジェクト幻覚に焦点を当てている。
対象,属性,関係を多次元のベンチマークで表現し,連想バイアスに基づいて画像を選択する。
論文 参考訳(メタデータ) (2024-04-22T04:49:22Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Medical Question Summarization with Entity-driven Contrastive Learning [12.008269098530386]
本稿では,エンティティ駆動型コントラスト学習(ECL)を用いた新しい医療質問要約フレームワークを提案する。
ECLは、しばしば質問される質問(FAQ)に医療機関を採用し、硬い負のサンプルを生成する効果的なメカニズムを考案している。
iCliniqデータセットの33%の重複率など、いくつかのMQAデータセットが深刻なデータ漏洩問題に悩まされていることが分かりました。
論文 参考訳(メタデータ) (2023-04-15T00:19:03Z) - Improving Visual Question Answering Models through Robustness Analysis
and In-Context Learning with a Chain of Basic Questions [70.70725223310401]
本研究は,VQAモデルのロバスト性を評価するために,基本質問と呼ばれる意味的関連質問を利用する新しい手法を提案する。
実験により,提案手法はVQAモデルのロバスト性を効果的に解析することを示した。
論文 参考訳(メタデータ) (2023-04-06T15:32:35Z) - Towards Improving Faithfulness in Abstractive Summarization [37.19777407790153]
本稿では,抽象的な要約における忠実度を改善するために,FES(Fithfulness Enhanced Summarization Model)を提案する。
我々のモデルはCNN/DMとXSumの実験において強いベースラインを上回ります。
論文 参考訳(メタデータ) (2022-10-04T19:52:09Z) - SANCL: Multimodal Review Helpfulness Prediction with Selective Attention
and Natural Contrastive Learning [41.92038829041499]
MRHP(Multimodal Review Helpfulness Prediction)は、製品レビューを予測された有用度スコアに従ってソートすることを目的としている。
この課題のこれまでの研究は、注意に基づくモダリティ融合、情報統合、関係モデリングに重点を置いていた。
MRHPのためのSANCL: Selective Attention and Natural Contrastive Learningを提案する。
論文 参考訳(メタデータ) (2022-09-12T06:31:13Z) - Reinforcement Learning for Abstractive Question Summarization with
Question-aware Semantic Rewards [20.342580435464072]
本稿では,抽象的な質問要約のための強化学習に基づくフレームワークを提案する。
i)質問型識別と(ii)質問焦点認識の下流タスクから得られる2つの新しい報酬を提案する。
これらの報酬は意味論的に有効な質問の生成を確実にし、質問要約に重要な医療機関/焦点を取り入れることを奨励する。
論文 参考訳(メタデータ) (2021-07-01T02:06:46Z) - Loss re-scaling VQA: Revisiting the LanguagePrior Problem from a
Class-imbalance View [129.392671317356]
本稿では,クラス不均衡の観点から,VQAにおける言語先行問題を理解することを提案する。
これは、なぜVQAモデルが頻繁に、そして明らかに間違った答えをもたらすのかを明確に示している。
また,顔認識や画像分類などの他のコンピュータビジョンタスクに対して,クラス不均衡解釈方式の有効性を正当化する。
論文 参考訳(メタデータ) (2020-10-30T00:57:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。