論文の概要: Knowledge Planning in Large Language Models for Domain-Aligned Counseling Summarization
- arxiv url: http://arxiv.org/abs/2409.14907v1
- Date: Mon, 23 Sep 2024 11:01:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-26 15:26:12.922139
- Title: Knowledge Planning in Large Language Models for Domain-Aligned Counseling Summarization
- Title(参考訳): 大規模言語モデルにおける知識プランニング
- Authors: Aseem Srivastava, Smriti Joshi, Tanmoy Chakraborty, Md Shad Akhtar,
- Abstract要約: 大規模言語モデル(LLM)は、様々な生成タスクにおいて顕著な能力を示す。
メンタルヘルスの専門家はまず、要約を書く際にドメイン知識を適用する計画だ。
構造化知識のアライメントを編成する新しい計画エンジンを導入する。
- 参考スコア(独自算出の注目度): 30.27904166070852
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In mental health counseling, condensing dialogues into concise and relevant summaries (aka counseling notes) holds pivotal significance. Large Language Models (LLMs) exhibit remarkable capabilities in various generative tasks; however, their adaptation to domain-specific intricacies remains challenging, especially within mental health contexts. Unlike standard LLMs, mental health experts first plan to apply domain knowledge in writing summaries. Our work enhances LLMs' ability by introducing a novel planning engine to orchestrate structuring knowledge alignment. To achieve high-order planning, we divide knowledge encapsulation into two major phases: (i) holding dialogue structure and (ii) incorporating domain-specific knowledge. We employ a planning engine on Llama-2, resulting in a novel framework, PIECE. Our proposed system employs knowledge filtering-cum-scaffolding to encapsulate domain knowledge. Additionally, PIECE leverages sheaf convolution learning to enhance its understanding of the dialogue's structural nuances. We compare PIECE with 14 baseline methods and observe a significant improvement across ROUGE and Bleurt scores. Further, expert evaluation and analyses validate the generation quality to be effective, sometimes even surpassing the gold standard. We further benchmark PIECE with other LLMs and report improvement, including Llama-2 (+2.72%), Mistral (+2.04%), and Zephyr (+1.59%), to justify the generalizability of the planning engine.
- Abstract(参考訳): メンタルヘルスカウンセリングにおいて、簡潔で関連する要約(いわゆるカウンセリングノート)に対話を凝縮することは重要な意味を持つ。
大きな言語モデル(LLM)は、様々な生成タスクにおいて顕著な能力を示すが、特にメンタルヘルスの文脈において、ドメイン固有の複雑さへの適応は困難である。
通常のLSMとは異なり、メンタルヘルスの専門家はまず要約を書く際にドメイン知識を適用することを計画している。
我々の研究は、構造化知識のアライメントを編成する新しい計画エンジンを導入することで、LLMの能力を高める。
高次計画を達成するために、私たちは知識カプセル化を2つの主要なフェーズに分けます。
(i)対話構造を有して
(二)ドメイン固有の知識を取り入れること。
我々はLlama-2に計画エンジンを採用し、結果として新しいフレームワークであるPIECEを生み出した。
提案システムでは,ドメイン知識のカプセル化に知識フィルタリング-cum-scaffoldingを採用している。
さらに、PIECEはせん断畳み込み学習を利用して、対話の構造的ニュアンスを理解する。
PIECEと14のベースライン法を比較し,ROUGEとBleurtのスコア間で有意な改善が見られた。
さらに、専門家による評価と分析は、時に金の基準を超越した生成品質を効果的に評価する。
Llama-2(+2.72%)、Mistral(+2.04%)、Zephyr(+1.59%)など、PIECEを他のLCMとベンチマークして、計画エンジンの一般化性を正当化する。
関連論文リスト
- Structure-aware Domain Knowledge Injection for Large Language Models [37.089378357827826]
本稿では,基礎言語モデル(LLM)をドメインスペシャリストに効率的に変換する手法であるStructTuningを紹介する。
従来の知識注入性能の50%を達成しながら、トレーニングコーパスの要求をわずか0.3%まで大幅に削減する。
本手法は,MMedBench の最先端 MMedLM2 に対して,トレーニングコストが5% に大幅に削減される可能性を示した。
論文 参考訳(メタデータ) (2024-07-23T12:38:48Z) - Incorporating External Knowledge and Goal Guidance for LLM-based Conversational Recommender Systems [55.24980128638365]
推薦精度と言語品質に大きく貢献する外部知識と目標ガイダンスの必要性を示す。
本稿では,複雑なCRSタスクを複数のサブタスクに分解するChatCRSフレームワークを提案する。
2つのマルチゴールCRSデータセットの実験結果から、ChatCRSが新しい最先端ベンチマークを設定することが明らかになった。
論文 参考訳(メタデータ) (2024-05-03T05:42:57Z) - FAC$^2$E: Better Understanding Large Language Model Capabilities by Dissociating Language and Cognition [56.76951887823882]
大規模言語モデル(LLM)は、主に様々なテキスト理解および生成タスクにおける全体的なパフォーマンスによって評価される。
FAC$2$E, FAC$2$Eについて述べる。
論文 参考訳(メタデータ) (2024-02-29T21:05:37Z) - Knowledge Plugins: Enhancing Large Language Models for Domain-Specific
Recommendations [50.81844184210381]
本稿では,大規模言語モデルをDOmain固有のKnowledgEで拡張し,実践的アプリケーション,すなわちDOKEの性能を向上させるためのパラダイムを提案する。
このパラダイムはドメイン知識抽出器に依存し,1)タスクに効果的な知識を準備すること,2)特定のサンプルごとに知識を選択すること,3)LLMで理解可能な方法で知識を表現すること,の3つのステップで動作する。
論文 参考訳(メタデータ) (2023-11-16T07:09:38Z) - Systematic Assessment of Factual Knowledge in Large Language Models [48.75961313441549]
本稿では,知識グラフ(KG)を活用して,大規模言語モデル(LLM)の事実知識を評価する枠組みを提案する。
本フレームワークは,所定のKGに格納された事実から質問の集合と期待された回答を自動的に生成し,これらの質問に答える際のLCMの精度を評価する。
論文 参考訳(メタデータ) (2023-10-18T00:20:50Z) - Towards Verifiable Generation: A Benchmark for Knowledge-aware Language Model Attribution [48.86322922826514]
本稿では,知識認識型言語モデル属性(KaLMA)の新たな課題について述べる。
まず、属性のソースを構造化されていないテキストから知識グラフ(KG)に拡張し、そのリッチな構造は属性のパフォーマンスと作業シナリオの両方に役立ちます。
第2に,不完全な知識リポジトリを考慮した「意識的非能力」の設定を提案する。
第3に,テキスト品質,引用品質,引用アライメントを含む総合的な自動評価指標を提案する。
論文 参考訳(メタデータ) (2023-10-09T11:45:59Z) - KoLA: Carefully Benchmarking World Knowledge of Large Language Models [87.96683299084788]
我々は知識指向LLMアセスメントベンチマーク(KoLA)を構築した。
人間の認知を模倣して、知識関連能力の4段階の分類を形成し、19ドルのタスクをカバーします。
私たちは、LLMによって事前訓練されたコーパスであるウィキペディアと、継続的に収集された新興コーパスを使用して、目に見えないデータや進化する知識を扱う能力を評価します。
論文 参考訳(メタデータ) (2023-06-15T17:20:46Z) - Knowledge Prompting in Pre-trained Language Model for Natural Language
Understanding [24.315130086787374]
知識プロンプトに基づく PLM フレームワーク KP-PLM を提案する。
このフレームワークは、既存の主流PLMと柔軟に組み合わせることができる。
これらのプロンプトから事実知識を更に活用するために,我々は2つの新しい知識認識型自己監督タスクを提案する。
論文 参考訳(メタデータ) (2022-10-16T13:36:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。