論文の概要: Neighborhood Rough Set based Multi-document Summarization
- arxiv url: http://arxiv.org/abs/2106.07338v1
- Date: Thu, 27 May 2021 00:43:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-20 22:16:13.814169
- Title: Neighborhood Rough Set based Multi-document Summarization
- Title(参考訳): 近傍粗い集合に基づくマルチドキュメント要約
- Authors: Nidhika Yadav
- Abstract要約: 本研究は,MDTSの要約結果の分析と影響を考慮した,教師付き多文書テキスト要約(MDTS)のための新しいNeighbourhood Rough Setアプローチを提案する。
本稿では,MDTS の基本 LERS 技術よりも優れていることが実験的に証明された,多文書要約のためのNighborhood-LERS を適用・評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This research paper proposes a novel Neighbourhood Rough Set based approach
for supervised Multi-document Text Summarization (MDTS) with analysis and
impact on the summarization results for MDTS. Here, Rough Set based LERS
algorithm is improved using Neighborhood Rough Set which is itself a novel
combination called Neighborhood-LERS to be experimented for evaluations of
efficacy and efficiency. In this paper, we shall apply and evaluate the
proposed Neighborhood-LERS for Multi-document Summarization which here is
proved experimentally to be superior to the base LERS technique for MDTS.
- Abstract(参考訳): 本研究は,MDTSの要約結果の分析と影響を考慮した,教師付き多文書テキスト要約(MDTS)のための新しいNeighbourhood Rough Setアプローチを提案する。
そこで,Rough SetをベースとしたLERSアルゴリズムを,Neighborhood-LERSと呼ばれる新しい組み合わせであるNeighborhood Rough Setを用いて改良し,有効性と有効性を評価する。
本稿では,MDTS の基本 LERS 技術よりも優れていることが実験的に証明された多文書要約のためのNighborhood-LERS を適用・評価する。
関連論文リスト
- Enhancing Annotated Bibliography Generation with LLM Ensembles [0.0]
大規模言語モデルアンサンブルは、学術的なタスクにおけるモデル性能を高めるために導入され、検証される。
その結果,アノテーションの品質が38%向上し,コンテンツ冗長性が51%低下した。
論文 参考訳(メタデータ) (2024-12-30T11:07:05Z) - Top-K Pairwise Ranking: Bridging the Gap Among Ranking-Based Measures for Multi-Label Classification [120.37051160567277]
本稿では,Top-K Pairwise Ranking(TKPR)という新しい尺度を提案する。
一連の分析により、TKPRは既存のランキングベースの尺度と互換性があることが示されている。
一方,データ依存縮約法という新しい手法に基づいて,提案手法の急激な一般化を確立する。
論文 参考訳(メタデータ) (2024-07-09T09:36:37Z) - Large Multimodal Agents: A Survey [78.81459893884737]
大規模言語モデル(LLM)は、テキストベースのAIエージェントのパワーで優れたパフォーマンスを実現している。
LLMを利用したAIエージェントをマルチモーダルドメインに拡張することに焦点を当てた、新たな研究トレンドがある。
本総説は, この急速に発展する分野において, 今後の研究に有用な洞察とガイドラインを提供することを目的としている。
論文 参考訳(メタデータ) (2024-02-23T06:04:23Z) - InFoBench: Evaluating Instruction Following Ability in Large Language
Models [57.27152890085759]
Decomposed Requirements following Ratio (DRFR) は、命令に従うLarge Language Models (LLM) 能力を評価するための新しい指標である。
InFoBenchは500の多様な命令と2250の分解された質問を複数の制約カテゴリに分けたベンチマークである。
論文 参考訳(メタデータ) (2024-01-07T23:01:56Z) - BLESS: Benchmarking Large Language Models on Sentence Simplification [55.461555829492866]
我々は、テキスト単純化(TS)タスク上で、最新の最先端の大規模言語モデル(LLM)のパフォーマンスベンチマークであるBLESSを紹介する。
異なるドメイン(Wikipedia、ニュース、医療)の3つのテストセットに対して、サイズ、アーキテクチャ、事前学習方法、アクセシビリティの異なる44のモデルを評価する。
評価の結果,最高のLSMはTSのトレーニングを受けていないにもかかわらず,最先端のTSベースラインと相容れない性能を示した。
論文 参考訳(メタデータ) (2023-10-24T12:18:17Z) - Unsupervised Multi-document Summarization with Holistic Inference [41.58777650517525]
本稿では,教師なし多文書抽出要約のための新しい総合的枠組みを提案する。
サブセット代表指数(SRI)は、原文からの文のサブセットの重要性と多様性のバランスをとる。
その結果,多文書要約性能の向上には多様性が不可欠であることが示唆された。
論文 参考訳(メタデータ) (2023-09-08T02:56:30Z) - Evaluating and Improving Factuality in Multimodal Abstractive
Summarization [91.46015013816083]
そこで我々は,CLIPBERTScoreを提案する。
ゼロショットにおけるこの2つの指標の単純な組み合わせは、文書要約のための既存の事実度指標よりも高い相関性が得られることを示す。
本分析は,CLIPBERTScoreとそのコンポーネントの信頼性と高い相関性を示す。
論文 参考訳(メタデータ) (2022-11-04T16:50:40Z) - Parallel Hierarchical Transformer with Attention Alignment for
Abstractive Multi-Document Summarization [4.035753155957699]
MDS (Abstractive Multi-Document Summarization) は、その長大かつリンクされたソースの表現とカバレッジに課題をもたらす。
本研究は,MDSのアライメントを考慮した並列階層変換器(PHT)を開発した。
論文 参考訳(メタデータ) (2022-08-16T17:02:48Z) - A Multi-Document Coverage Reward for RELAXed Multi-Document
Summarization [11.02198476454955]
本稿では,MDSの基準値と入力文書のカバレッジのバランスをとる報酬を付与したMDSベースラインの微調整を提案する。
Multi-NewsおよびWCEP MDSデータセットに対する実験結果から、ベースライン上での平均ROUGEスコアが+0.95pp、METEORスコアが+3.17ppと大幅に改善された。
論文 参考訳(メタデータ) (2022-03-06T07:33:01Z) - PoBRL: Optimizing Multi-Document Summarization by Blending Reinforcement
Learning Policies [68.8204255655161]
マルチドキュメントの要約を解くための強化学習ベースのフレームワーク PoBRL を提案する。
私たちの戦略は、この多対象最適化を、強化学習によって個別に解決できるさまざまなサブ問題に分離します。
実験結果から,複数のマルチドキュメントデータセットにおける最先端の性能を示す。
論文 参考訳(メタデータ) (2021-05-18T02:55:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。