論文の概要: Unsupervised Broadcast News Summarization; a comparative study on
Maximal Marginal Relevance (MMR) and Latent Semantic Analysis (LSA)
- arxiv url: http://arxiv.org/abs/2301.02284v1
- Date: Thu, 5 Jan 2023 20:13:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-09 23:31:58.551706
- Title: Unsupervised Broadcast News Summarization; a comparative study on
Maximal Marginal Relevance (MMR) and Latent Semantic Analysis (LSA)
- Title(参考訳): 教師なし放送ニュース要約:MMR(Maximal Marginal Relevance)とLSA(Latent Semantic Analysis)の比較研究
- Authors: Majid Ramezani and Mohammad-Salar Shahryari and Amir-Reza
Feizi-Derakhshi and Mohammad-Reza Feizi-Derakhshi
- Abstract要約: 音声の自動要約法は,教師なしと教師なしの2つのグループに分類される。
音声の自動要約において,Latent Semantic Analysis (LSA) とMaximal Marginal Relevance (MMR) が最も重要かつよく知られた教師なしの手法と考えられている。
本研究は,ペルシア放送ニュース要約の書き起こしにおける,前述の2つの教師なし手法の性能について検討することを目的とした。
- 参考スコア(独自算出の注目度): 3.8137985834223507
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The methods of automatic speech summarization are classified into two groups:
supervised and unsupervised methods. Supervised methods are based on a set of
features, while unsupervised methods perform summarization based on a set of
rules. Latent Semantic Analysis (LSA) and Maximal Marginal Relevance (MMR) are
considered the most important and well-known unsupervised methods in automatic
speech summarization. This study set out to investigate the performance of two
aforementioned unsupervised methods in transcriptions of Persian broadcast news
summarization. The results show that in generic summarization, LSA outperforms
MMR, and in query-based summarization, MMR outperforms LSA in broadcast news
summarization.
- Abstract(参考訳): 自動音声要約の方法は教師なしと教師なしの2つのグループに分類される。
監視されたメソッドは一連の機能に基づいており、教師なしメソッドは一連のルールに基づいて要約を行う。
音声の自動要約において,Latent Semantic Analysis (LSA) とMaximal Marginal Relevance (MMR) が最も重要かつよく知られた教師なしの手法と考えられている。
本研究は,ペルシア放送ニュース要約の書き起こしにおける前述の2つの教師なし手法の性能について検討した。
その結果,総括要約ではlsaがmmrを上回り,クエリベースの要約では,放送ニュース要約ではmmrがlsaを上回った。
関連論文リスト
- Evaluating Consistencies in LLM responses through a Semantic Clustering of Question Answering [1.9214041945441436]
本稿では,Large Language Model (LLM) のセマンティクスを評価するための新しいアプローチを提案する。
本稿では,LLM再応答が意味論的に一致しているかどうかを考察し,構文的に異なる文が同じ意味を持つ可能性があることを認識した。
TruthfulQAデータセットを用いてLLM応答を評価することにより、37のカテゴリにわたる意味的一貫性を測定するために、質問毎にNの応答を誘導し、意味的に等価な文をクラスタ化する。
論文 参考訳(メタデータ) (2024-10-20T16:21:25Z) - Evaluating Human Alignment and Model Faithfulness of LLM Rationale [66.75309523854476]
大規模言語モデル(LLM)が,その世代を理論的にどのように説明するかを考察する。
提案手法は帰属に基づく説明よりも「偽り」が少ないことを示す。
論文 参考訳(メタデータ) (2024-06-28T20:06:30Z) - Look Before You Decide: Prompting Active Deduction of MLLMs for Assumptive Reasoning [68.83624133567213]
そこで本研究では,MLLMの最も普及している手法が,その問題に先入観を導入することで,容易に騙せることを示す。
また, モデルに対して, 合成推論を積極的に行うための, 単純かつ効果的な手法であるアクティブ推論(AD)を提案する。
論文 参考訳(メタデータ) (2024-04-19T15:53:27Z) - SIFiD: Reassess Summary Factual Inconsistency Detection with LLM [27.392514180175283]
本研究では,Large Language Models (LLMs) を用いた要約不整合検出について再検討する。
本稿では,自然言語推論を用いて文書内のキー文を識別するSIFiD(Summary Inconsistency Detection with Filtered Document)を提案する。
論文 参考訳(メタデータ) (2024-03-12T11:41:51Z) - Hierarchical Indexing for Retrieval-Augmented Opinion Summarization [60.5923941324953]
本稿では,抽出アプローチの帰属性と拡張性と,大規模言語モデル(LLM)の一貫性と拡散性を組み合わせた,教師なし抽象的意見要約手法を提案する。
我々の方法であるHIROは、意味的に整理された離散的な階層を通して文を経路にマッピングするインデックス構造を学習する。
推測時にインデックスを投入し、入力レビューから人気意見を含む文群を識別し、検索する。
論文 参考訳(メタデータ) (2024-03-01T10:38:07Z) - On Learning to Summarize with Large Language Models as References [101.79795027550959]
大型言語モデル (LLM) は、一般的な要約データセットにおける元の参照要約よりも人間のアノテーションに好まれる。
より小さなテキスト要約モデルに対するLLM-as-reference学習設定について検討し,その性能が大幅に向上するかどうかを検討する。
論文 参考訳(メタデータ) (2023-05-23T16:56:04Z) - Evaluating Factual Consistency of Summaries with Large Language Models [24.416837319515896]
大規模言語モデル(LLM)の直接的推進による要約の事実整合性の評価について検討する。
実験により, LLM のプロンプトは, 全ての設定において, 過去の最良事実性システムより優れていることが示された。
論文 参考訳(メタデータ) (2023-05-23T13:48:32Z) - Multi-document Summarization with Maximal Marginal Relevance-guided
Reinforcement Learning [54.446686397551275]
RL-MMRは、古典的MDSで使用される高度な神経SDS法と統計測度を統一する。
RL-MMRは、より少ない有望な候補にMMRガイダンスを投入し、探索空間を抑え、より良い表現学習をもたらす。
論文 参考訳(メタデータ) (2020-09-30T21:50:46Z) - Revisiting LSTM Networks for Semi-Supervised Text Classification via
Mixed Objective Function [106.69643619725652]
我々は,単純なBiLSTMモデルであっても,クロスエントロピー損失でトレーニングした場合に,競争的な結果が得られるようなトレーニング戦略を開発する。
いくつかのベンチマークデータセット上で,テキスト分類タスクの最先端結果について報告する。
論文 参考訳(メタデータ) (2020-09-08T21:55:22Z) - Discrete Optimization for Unsupervised Sentence Summarization with
Word-Level Extraction [31.648764677078837]
自動要約は、その最も重要な情報を保存しながら、文章の短いバージョンを生成する。
我々はこれら2つの側面を言語モデリングと意味的類似度メトリクスからなる教師なし目的関数でモデル化する。
提案手法は,ROUGEスコアによる教師なし文要約のための新しい最先端技術を実現する。
論文 参考訳(メタデータ) (2020-05-04T19:01:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。