論文の概要: Abstractive and mixed summarization for long-single documents
- arxiv url: http://arxiv.org/abs/2007.01918v1
- Date: Fri, 3 Jul 2020 19:30:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 04:25:49.765676
- Title: Abstractive and mixed summarization for long-single documents
- Title(参考訳): 長文文書の要約と混合要約
- Authors: Roger Barrull, Jugal Kalita
- Abstract要約: 本稿では、異なるモデルが訓練されたデータセットとして、科学的論文を用いる。
この研究では、6つの異なるモデルを比較した。2つはRNNアーキテクチャ、もう1つはCNNアーキテクチャ、もう1つはTransformerアーキテクチャ、もう1つは強化学習を組み合わせたTransformerアーキテクチャである。
- 参考スコア(独自算出の注目度): 2.792030485253753
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The lack of diversity in the datasets available for automatic summarization
of documents has meant that the vast majority of neural models for automatic
summarization have been trained with news articles. These datasets are
relatively small, with an average size of about 600 words, and the models
trained with such data sets see their performance limited to short documents.
In order to surmount this problem, this paper uses scientific papers as the
dataset on which different models are trained. These models have been chosen
based on their performance on the CNN/Daily Mail data set, so that the highest
ranked model of each architectural variant is selected. In this work, six
different models are compared, two with an RNN architecture, one with a CNN
architecture, two with a Transformer architecture and one with a Transformer
architecture combined with reinforcement learning. The results from this work
show that those models that use a hierarchical encoder to model the structure
of the document has a better performance than the rest.
- Abstract(参考訳): ドキュメントの自動要約に利用可能なデータセットの多様性の欠如は、自動要約のためのニューラルモデルの大部分をニュース記事でトレーニングしていることを意味する。
これらのデータセットは比較的小さく、平均サイズは約600ワードで、そのようなデータセットでトレーニングされたモデルは、パフォーマンスが短いドキュメントに限られている。
この問題を克服するために,本論文では,異なるモデルの学習データセットとして科学論文を用いる。
これらのモデルは、CNN/Daily Mailデータセット上での性能に基づいて選択され、各アーキテクチャの最も上位のモデルが選択される。
この研究では、6つの異なるモデルを比較し、2つはRNNアーキテクチャ、もう1つはCNNアーキテクチャ、もう1つはTransformerアーキテクチャ、もう1つは強化学習を組み合わせたTransformerアーキテクチャである。
この研究の結果、文書の構造をモデル化するために階層エンコーダを使用するモデルが、他のモデルよりも優れたパフォーマンスを示している。
関連論文リスト
- Adaptable Embeddings Network (AEN) [49.1574468325115]
我々はカーネル密度推定(KDE)を用いた新しいデュアルエンコーダアーキテクチャであるAdaptable Embeddings Networks (AEN)を紹介する。
AENは、再トレーニングせずに分類基準のランタイム適応を可能にし、非自己回帰的である。
アーキテクチャのプリプロセスとキャッシュ条件の埋め込み能力は、エッジコンピューティングアプリケーションやリアルタイム監視システムに最適である。
論文 参考訳(メタデータ) (2024-11-21T02:15:52Z) - Transfer Learning with Point Transformers [3.678615604632945]
Point Transformerは、Point Cloudデータの分類、セグメンテーション、検出のための最先端モデルである。
モデルNet10データセットに基づくこれらの注目ネットワークの分類性能について検討し、3次元MNISTデータセットを微調整後に分類するためにトレーニングされたモデルを用いた。
論文 参考訳(メタデータ) (2024-04-01T01:23:58Z) - Reformulating Vision-Language Foundation Models and Datasets Towards
Universal Multimodal Assistants [65.47222691674074]
Muffinフレームワークは、事前訓練された視覚言語モデルを使用して視覚信号のプロバイダとして機能する。
UniMM-Chatデータセットはデータセットの相補性を探求し、高品質で多様なマルチモーダル命令を生成する。
論文 参考訳(メタデータ) (2023-10-01T12:35:18Z) - Dissecting Multimodality in VideoQA Transformer Models by Impairing Modality Fusion [54.33764537135906]
VideoQA Transformerモデルは標準ベンチマークで競合性能を示す。
これらのモデルはビデオとテキストからリッチなマルチモーダル構造とダイナミックスを一緒に捉えていますか?
彼らはバイアスと刺激的な特徴を利用して高いスコアを達成していますか?
論文 参考訳(メタデータ) (2023-06-15T06:45:46Z) - Comparing a composite model versus chained models to locate a nearest
visual object [0.6882042556551609]
地理画像やテキストから情報を抽出するための,適切な人工知能ニューラルネットワークモデルの選択について検討する。
その結果,これらの2つのアーキテクチャは,根平均二乗誤差(RMSE)が0.055,0.056であった。
タスクをサブタスクに分解できる場合、チェーンアーキテクチャは、複合モデルと比較してトレーニング速度が12倍に向上する。
論文 参考訳(メタデータ) (2023-06-02T13:58:59Z) - Parameter-Efficient Abstractive Question Answering over Tables or Text [60.86457030988444]
QAシステムを求める情報の長期的な野望は、マルチモーダルなコンテキストを推論し、ユーザクエリに対する自然な回答を生成することである。
メモリ集約型事前学習言語モデルは、構造化されていないテキストや構造化テーブルのような特定のモードでQAデータ上のモデルを微調整することで、QAのような下流タスクに適応する。
パラメータ効率の良いアダプタは、トランス層間の小さなタスク固有のボトルネック層を加算し、訓練する。
論文 参考訳(メタデータ) (2022-04-07T10:56:29Z) - Long Document Summarization with Top-down and Bottom-up Inference [113.29319668246407]
本稿では、2つの側面の要約モデルを改善するための原則的推論フレームワークを提案する。
我々のフレームワークは、トップレベルが長距離依存性をキャプチャするドキュメントの階層的な潜在構造を前提としています。
本稿では,様々な要約データセットに対して提案手法の有効性を示す。
論文 参考訳(メタデータ) (2022-03-15T01:24:51Z) - PRIMER: Pyramid-based Masked Sentence Pre-training for Multi-document
Summarization [16.830963601598242]
要約に着目した多文書表現のための事前学習モデルであるPRIMERを提案する。
具体的には,マルチドキュメント入力に適した適切な入力変換とグローバルアテンションを備えたLongformerアーキテクチャを採用する。
私たちのモデルであるPRIMERは、これらのほとんどの設定において、現在の最先端モデルよりも大きなマージンでパフォーマンスします。
論文 参考訳(メタデータ) (2021-10-16T07:22:24Z) - Revisiting Deep Learning Models for Tabular Data [40.67427600770095]
研究者と実践者の両方にとって、どのモデルが優れているかは定かではない。
ひとつはResNetのようなアーキテクチャで、以前の作業でしばしば欠落する強力なベースラインであることが分かりました。
第2のモデルは、表データに対するTransformerアーキテクチャの簡単な適応であり、ほとんどのタスクにおいて他のソリューションよりも優れています。
論文 参考訳(メタデータ) (2021-06-22T17:58:10Z) - Data Augmentation for Abstractive Query-Focused Multi-Document
Summarization [129.96147867496205]
2つのQMDSトレーニングデータセットを提示し,2つのデータ拡張手法を用いて構築する。
これらの2つのデータセットは相補的な性質を持ち、すなわちQMDSCNNは実際のサマリを持つが、クエリはシミュレートされる。
組み合わせたデータセット上にエンドツーエンドのニューラルネットワークモデルを構築し、DUCデータセットに最新の転送結果をもたらします。
論文 参考訳(メタデータ) (2021-03-02T16:57:01Z) - NASE: Learning Knowledge Graph Embedding for Link Prediction via Neural
Architecture Search [9.634626241415916]
リンク予測は、知識グラフ(KG)におけるエンティティ間の欠落した接続を予測するタスクである
これまでの研究では、Automated Machine Learning(AutoML)を使用して、データセットに最適なモデルを探していた。
リンク予測タスクのための新しいニューラルネットワーク探索(NAS)フレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-18T03:34:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。