論文の概要: CHIMA: Headline-Guided Extractive Summarization for Thai News Articles
- arxiv url: http://arxiv.org/abs/2412.01624v1
- Date: Mon, 02 Dec 2024 15:43:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:46:56.421977
- Title: CHIMA: Headline-Guided Extractive Summarization for Thai News Articles
- Title(参考訳): チマ:タイニュース記事の見出し誘導抽出要約
- Authors: Pimpitchaya Kositcharoensuk, Nakarin Sritrakool, Ploy N. Pratanwanich,
- Abstract要約: タイ語ニュース記事の見出しの文脈情報を組み込んだ抽出要約モデルであるCHIMAを提案する。
我々のモデルは、事前訓練された言語モデルを用いて、複雑な言語意味をキャプチャし、要約に含まれる各文に確率を割り当てる。
公開されたタイのニュースデータセットの実験では、CHIMAはROUGE、BLEU、F1のスコアでベースラインモデルを上回っている。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Text summarization is a process of condensing lengthy texts while preserving their essential information. Previous studies have predominantly focused on high-resource languages, while low-resource languages like Thai have received less attention. Furthermore, earlier extractive summarization models for Thai texts have primarily relied on the article's body, without considering the headline. This omission can result in the exclusion of key sentences from the summary. To address these limitations, we propose CHIMA, an extractive summarization model that incorporates the contextual information of the headline for Thai news articles. Our model utilizes a pre-trained language model to capture complex language semantics and assigns a probability to each sentence to be included in the summary. By leveraging the headline to guide sentence selection, CHIMA enhances the model's ability to recover important sentences and discount irrelevant ones. Additionally, we introduce two strategies for aggregating headline-body similarities, simple average and harmonic mean, providing flexibility in sentence selection to accommodate varying writing styles. Experiments on publicly available Thai news datasets demonstrate that CHIMA outperforms baseline models across ROUGE, BLEU, and F1 scores. These results highlight the effectiveness of incorporating the headline-body similarities as model guidance. The results also indicate an enhancement in the model's ability to recall critical sentences, even those scattered throughout the middle or end of the article. With this potential, headline-guided extractive summarization offers a promising approach to improve the quality and relevance of summaries for Thai news articles.
- Abstract(参考訳): テキスト要約は、本質的な情報を保持しながら、長いテキストを凝縮する過程である。
タイ語のような低リソース言語があまり注目されていないのに対して、以前の研究は主に高リソース言語に焦点を当てていた。
さらに、タイ語テキストの以前の抽出要約モデルは、見出しを考慮せずに、主に記事の身体に依存している。
この省略により、要約からキー文を除外することができる。
これらの制約に対処するため,タイ語ニュース記事の見出しの文脈情報を組み込んだ抽出要約モデルであるCHIMAを提案する。
我々のモデルは、事前訓練された言語モデルを用いて、複雑な言語意味をキャプチャし、要約に含まれる各文に確率を割り当てる。
見出しを利用して文選択をガイドすることで、重要文を復元し、無関係なものを割引するモデルの能力を高める。
さらに,見出し本体の類似性,単純平均平均,調和平均の2つの戦略を導入し,文選択の柔軟性を提供し,様々な書体スタイルに対応する。
公開されているタイのニュースデータセットの実験では、CHIMAはROUGE、BLEU、F1スコアでベースラインモデルを上回っている。
これらの結果は,ヘッドラインボディの類似性をモデルガイダンスとして組み込むことの有効性を浮き彫りにした。
また, 論文中端に散らばっても, 批判文をリコールする能力の向上が示唆された。
この可能性により、見出し誘導抽出要約はタイのニュース記事の品質と関連性を改善するための有望なアプローチを提供する。
関連論文リスト
- P^3SUM: Preserving Author's Perspective in News Summarization with Diffusion Language Models [57.571395694391654]
既存のアプローチは、要約の50%以上で、ニュース記事の政治的意見やスタンスを変えている。
政治的視点分類器によって制御される拡散モデルに基づく要約手法であるP3SUMを提案する。
3つのニュース要約データセットの実験により、P3SUMは最先端の要約システムより優れていることが示された。
論文 参考訳(メタデータ) (2023-11-16T10:14:28Z) - GreekT5: A Series of Greek Sequence-to-Sequence Models for News
Summarization [0.0]
本稿では,ギリシャのニュース記事を対象とした新しいTSモデルを提案する。
提案したモデルは、ギリシャのBARTに対して同じデータセットで徹底的に評価された。
評価結果から, 提案したモデルのほとんどは, 様々な評価指標において, ギリシャ語BARTを著しく上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2023-11-13T21:33:12Z) - mFACE: Multilingual Summarization with Factual Consistency Evaluation [79.60172087719356]
抽象的な要約は、事前訓練された言語モデルと大規模データセットの可用性のおかげで、近年で新たな関心を集めている。
有望な結果にもかかわらず、現在のモデルはいまだに現実的に矛盾した要約を生み出すことに苦しむ。
事実整合性評価モデルを利用して、多言語要約を改善する。
論文 参考訳(メタデータ) (2022-12-20T19:52:41Z) - Salience Allocation as Guidance for Abstractive Summarization [61.31826412150143]
本稿では, サリエンセ・サリエンス・ガイダンス(SEASON, SaliencE Allocation as Guidance for Abstractive SummarizatiON)を用いた新しい要約手法を提案する。
SEASONは、サリエンス予測の割り当てを利用して抽象的な要約を導き、異なる抽象性のある記事に順応する。
論文 参考訳(メタデータ) (2022-10-22T02:13:44Z) - CNewSum: A Large-scale Chinese News Summarization Dataset with
Human-annotated Adequacy and Deducibility Level [15.969302324314516]
大規模中国語ニュース要約データセットCNewSumについて述べる。
304,307件の文書と人によるニュースフィードの要約で構成されている。
そのテストセットには、要約のための妥当性と再現性アノテーションが含まれている。
論文 参考訳(メタデータ) (2021-10-21T03:37:46Z) - Fine-tuning GPT-3 for Russian Text Summarization [77.34726150561087]
本稿では,テキストを要約するruGPT3(ruGPT3)機能について紹介し,それに対応する人文要約を用いてロシア語ニュースのコーパスを微調整する。
得られたテキストを一連のメトリクスで評価し、アーキテクチャや損失関数に付加的な変更を加えることなく、我々のソリューションが最先端のモデルの性能を上回ることができることを示す。
論文 参考訳(メタデータ) (2021-08-07T19:01:40Z) - Text Summarization of Czech News Articles Using Named Entities [0.0]
我々はチェコのニュース記事の要約に名前付きエンティティが与える影響に注目した。
本論文では, 実体と生成されたサマリ間の名前付きエンティティの重なりを計測する新しいメトリック ROUGE_NE を提案する。
要約システムが高いスコアに達することは依然として困難であることを示す。
論文 参考訳(メタデータ) (2021-04-21T10:48:14Z) - Bengali Abstractive News Summarization(BANS): A Neural Attention
Approach [0.8793721044482612]
本稿では,エンコーダ・デコーダに着目したSeq2seqベースのLong Short-Term Memory(LSTM)ネットワークモデルを提案する。
提案システムでは,単語の長い列を人文や人文で生成する,局所的な注意に基づくモデルを構築している。
また,Bangla.bdnews24.com1から収集した19k以上の記事とそれに対応する人文要約のデータセットも作成した。
論文 参考訳(メタデータ) (2020-12-03T08:17:31Z) - Mixed-Lingual Pre-training for Cross-lingual Summarization [54.4823498438831]
言語間の要約は、ソース言語の記事に対する対象言語の要約を作成することを目的としている。
本稿では,翻訳のような言語間タスクと,マスク付き言語モデルのようなモノリンガルタスクの両方を活用する混合言語事前学習に基づくソリューションを提案する。
本モデルでは,2.82(中国語)と1.15(中国語,英語)のROUGE-1スコアを最先端の結果に対して改善する。
論文 参考訳(メタデータ) (2020-10-18T00:21:53Z) - A Deep Reinforced Model for Zero-Shot Cross-Lingual Summarization with
Bilingual Semantic Similarity Rewards [40.17497211507507]
言語間テキスト要約は、実際は重要だが未探索の課題である。
本稿では,エンドツーエンドのテキスト要約モデルを提案する。
論文 参考訳(メタデータ) (2020-06-27T21:51:38Z) - Few-Shot Learning for Opinion Summarization [117.70510762845338]
オピニオン要約は、複数の文書で表現された主観的な情報を反映したテキストの自動生成である。
本研究では,要約テキストの生成をブートストラップするのには,少数の要約でも十分であることを示す。
提案手法は, 従来の抽出法および抽象法を, 自動的, 人的評価において大きく上回っている。
論文 参考訳(メタデータ) (2020-04-30T15:37:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。