論文の概要: Curriculum-guided Abstractive Summarization for Mental Health Online
Posts
- arxiv url: http://arxiv.org/abs/2302.00954v1
- Date: Thu, 2 Feb 2023 08:48:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-03 14:37:35.081417
- Title: Curriculum-guided Abstractive Summarization for Mental Health Online
Posts
- Title(参考訳): メンタルヘルスオンラインポストのためのカリキュラム誘導抽象要約
- Authors: Sajad Sotudeh, Nazli Goharian, Hanieh Deilamsalehy, Franck Dernoncourt
- Abstract要約: そこで本研究では,学習過程の効率化を図るためのカリキュラム学習手法を提案する。
Redditソーシャルメディアからのメンタルヘルス関連投稿の極端な要約データセットに本モデルを適用した。
現状のモデルと比較すると,提案手法はルージュとベルトスコア評価の指標で大きく向上する。
- 参考スコア(独自算出の注目度): 45.57561926145256
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automatically generating short summaries from users' online mental health
posts could save counselors' reading time and reduce their fatigue so that they
can provide timely responses to those seeking help for improving their mental
state. Recent Transformers-based summarization models have presented a
promising approach to abstractive summarization. They go beyond sentence
selection and extractive strategies to deal with more complicated tasks such as
novel word generation and sentence paraphrasing. Nonetheless, these models have
a prominent shortcoming; their training strategy is not quite efficient, which
restricts the model's performance. In this paper, we include a curriculum
learning approach to reweigh the training samples, bringing about an efficient
learning procedure. We apply our model on extreme summarization dataset of
MentSum posts -- a dataset of mental health related posts from Reddit social
media. Compared to the state-of-the-art model, our proposed method makes
substantial gains in terms of Rouge and Bertscore evaluation metrics, yielding
3.5% (Rouge-1), 10.4% (Rouge-2), and 4.7% (Rouge-L), 1.5% (Bertscore) relative
improvements.
- Abstract(参考訳): オンラインのメンタルヘルス投稿から短い要約を自動生成することで、カウンセラーの読書時間を節約し、疲労を軽減し、精神状態を改善する手助けを求める人たちにタイムリーな回答を提供することができる。
近年のトランスフォーマーに基づく要約モデルは抽象的な要約に有望なアプローチを示している。
文選択や抽出戦略を超越して、新しい単語生成や文言い換えといったより複雑なタスクに対処する。
しかしながら、これらのモデルには顕著な欠点があり、トレーニング戦略はあまり効率的ではなく、モデルの性能を制限している。
本稿では,学習サンプルを充実させ,効率的な学習手順を実現するためのカリキュラム学習手法を提案する。
我々は、Redditソーシャルメディアのメンタルヘルス関連投稿のデータセットであるMentSumポストの極端な要約データセットに適用する。
現状のモデルと比較して,提案手法はルージュとベルツコアの評価基準において,3.5% (ルージュ-1),10.4% (ルージュ-2),4.7% (ルージュ-L),1.5% (ベルツコア) の相対的改善が得られた。
関連論文リスト
- Information-Theoretic Distillation for Reference-less Summarization [67.51150817011617]
本稿では,要約のための情報理論的目的に基づいて,強力な要約器を蒸留する新しい枠組みを提案する。
我々は,教師モデルとしてPythia-2.8Bから出発する。
我々は,ChatGPTと競合する5億8800万のパラメータしか持たないコンパクトだが強力な要約器に到達した。
論文 参考訳(メタデータ) (2024-03-20T17:42:08Z) - Generative Deduplication For Socia Media Data Selection [4.545354973721937]
本稿では,ソーシャルメディアデータ選択のための新しい生成重複フレームワークを提案する。
我々のモデルはソーシャルメディアのNLPパイプラインを普遍的に拡張するための効率的な前処理手法として機能する。
論文 参考訳(メタデータ) (2024-01-11T12:43:26Z) - Noisy Self-Training with Synthetic Queries for Dense Retrieval [49.49928764695172]
合成クエリと組み合わせた,ノイズの多い自己学習フレームワークを提案する。
実験結果から,本手法は既存手法よりも一貫した改善が得られた。
我々の手法はデータ効率が良く、競争のベースラインより優れています。
論文 参考訳(メタデータ) (2023-11-27T06:19:50Z) - Learning with Rejection for Abstractive Text Summarization [42.15551472507393]
本稿では,拒絶学習に基づく抽象的な要約のための学習目標を提案する。
本手法は, 自動評価と人的評価において, 生成した要約の事実性を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-02-16T19:07:08Z) - Curriculum-Guided Abstractive Summarization [45.57561926145256]
最近のTransformerベースの要約モデルは、抽象的な要約に有望なアプローチを提供してきた。
これらのモデルには2つの欠点がある:(1)コンテンツ選択が不十分な場合が多く、(2)トレーニング戦略があまり効率的ではないため、モデルの性能が制限される。
本稿では,これらの落とし穴を補うための2つの方法について検討する。まず,デコーダ内に文のクロスアテンションモジュールを配置することでトランスフォーマーネットワークを拡張し,より健全なコンテンツの抽象化を促進する。
論文 参考訳(メタデータ) (2023-02-02T11:09:37Z) - Leveraging Pretrained Models for Automatic Summarization of
Doctor-Patient Conversations [9.184616102949228]
BARTを微調整することで,限られたトレーニングデータを用いて,流動的で適切な要約を生成することができることを示す。
慎重に選択された微調整データセットを用いて、この手法はより長い会話を扱うのに効果的であることが示されている。
論文 参考訳(メタデータ) (2021-09-24T20:18:59Z) - Recursively Summarizing Books with Human Feedback [10.149048526411434]
本論では,小説全体の抽象的要約の課題について述べる。
タスクの小さな部分でトレーニングされたモデルを使用して、より広範なタスクに対するフィードバックの提供を支援します。
書籍長要約のための最近のBookSumデータセットについて,最先端の成果を得た。
論文 参考訳(メタデータ) (2021-09-22T17:34:18Z) - Improving Zero and Few-Shot Abstractive Summarization with Intermediate
Fine-tuning and Data Augmentation [101.26235068460551]
大規模テキストコーパス上での自己教師対象による事前学習モデルは、英語テキスト要約タスクにおける最先端のパフォーマンスを達成する。
モデルは通常、数十万のデータポイントで微調整されるが、これは新しいニッチなドメインに要約を適用する際に、実現不可能な要件である。
我々は、教師なし、データセット固有の方法で要約のための訓練済みモデルを微調整するための、WikiTransferと呼ばれる新しい一般化可能な手法を紹介した。
論文 参考訳(メタデータ) (2020-10-24T08:36:49Z) - Few-Shot Learning for Opinion Summarization [117.70510762845338]
オピニオン要約は、複数の文書で表現された主観的な情報を反映したテキストの自動生成である。
本研究では,要約テキストの生成をブートストラップするのには,少数の要約でも十分であることを示す。
提案手法は, 従来の抽出法および抽象法を, 自動的, 人的評価において大きく上回っている。
論文 参考訳(メタデータ) (2020-04-30T15:37:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。