論文の概要: Abstractive Text Summarization using Attentive GRU based Encoder-Decoder
- arxiv url: http://arxiv.org/abs/2302.13117v1
- Date: Sat, 25 Feb 2023 16:45:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-28 18:47:55.023587
- Title: Abstractive Text Summarization using Attentive GRU based Encoder-Decoder
- Title(参考訳): 注意GRUに基づくエンコーダデコーダを用いた抽象テキスト要約
- Authors: Tohida Rehman, Suchandan Das, Debarshi Kumar Sanyal, Samiran
Chattopadhyay
- Abstract要約: テキスト処理における機械学習の重要な応用として,自動テキスト要約が登場している。
本稿では,GRUベースのエンコーダとデコーダを用いて,英文要約器を構築した。
出力は文献の競争モデルより優れていることが観察される。
- 参考スコア(独自算出の注目度): 4.339043862780233
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In todays era huge volume of information exists everywhere. Therefore, it is
very crucial to evaluate that information and extract useful, and often
summarized, information out of it so that it may be used for relevant purposes.
This extraction can be achieved through a crucial technique of artificial
intelligence, namely, machine learning. Indeed automatic text summarization has
emerged as an important application of machine learning in text processing. In
this paper, an english text summarizer has been built with GRU-based encoder
and decoder. Bahdanau attention mechanism has been added to overcome the
problem of handling long sequences in the input text. A news-summary dataset
has been used to train the model. The output is observed to outperform
competitive models in the literature. The generated summary can be used as a
newspaper headline.
- Abstract(参考訳): 現代では至る所に膨大な情報が存在する。
したがって、その情報を評価し、有用かつしばしば要約された情報を抽出し、関連する目的に利用できるようにすることが極めて重要である。
この抽出は、人工知能、すなわち機械学習の重要な技術によって達成することができる。
実際、テキスト処理における機械学習の重要な応用として、自動テキスト要約が登場している。
本稿では,GRUベースのエンコーダとデコーダを用いて,英文要約器を構築した。
入力テキストの長いシーケンスを扱う問題を克服するために、bahdanau attention機構が追加された。
モデルのトレーニングには、ニュースサマリーデータセットが使用されている。
出力は文献の競争モデルより優れていることが観察される。
生成された要約は新聞の見出しとして使用できる。
関連論文リスト
- Text2Data: Low-Resource Data Generation with Textual Control [104.38011760992637]
自然言語は、人間が機械とシームレスに対話するための共通かつ直接的な制御信号として機能する。
ラベルのないデータを用いて教師なし拡散モデルを用いて基礎となるデータ分布を理解する新しいアプローチであるText2Dataを提案する。
制御性を確保し、破滅的な忘れを効果的に防止する、新しい制約最適化ベースの学習目標を通じて制御可能な微調整を行う。
論文 参考訳(メタデータ) (2024-02-08T03:41:39Z) - Optimizing Factual Accuracy in Text Generation through Dynamic Knowledge
Selection [71.20871905457174]
言語モデル(LM)は、私たちが情報と対話する方法に革命をもたらしたが、しばしば非現実的なテキストを生成する。
従来の手法では、外部知識をテキスト生成の参照として使用して事実性を高めるが、無関係な参照の知識の混在に苦慮することが多い。
本稿では,テキスト生成プロセスを反復処理に分割するDKGenを提案する。
論文 参考訳(メタデータ) (2023-08-30T02:22:40Z) - Abstractive Summary Generation for the Urdu Language [1.9594639581421422]
我々は、自己認識機構を利用して入力テキストを符号化し、要約を生成するトランスフォーマーベースのモデルを用いる。
実験の結果,我々のモデルは文法的に正し,意味的に意味のある要約を生成できることがわかった。
論文 参考訳(メタデータ) (2023-05-25T15:55:42Z) - Tram: A Token-level Retrieval-augmented Mechanism for Source Code Summarization [76.57699934689468]
ニューラルモデルの性能を高めるために,デコーダ側で詳細なTokenレベル検索強化機構(Tram)を提案する。
文脈的コードセマンティクスの取得におけるトークンレベルの検索の課題を克服するために,コードセマンティクスを個々の要約トークンに統合することを提案する。
論文 参考訳(メタデータ) (2023-05-18T16:02:04Z) - Automated News Summarization Using Transformers [4.932130498861987]
我々は,テキスト要約のためのトランスフォーマーアーキテクチャに基づく事前学習モデルについて,包括的に比較する。
分析と比較のために,要約や人為的な要約に使用できるテキストデータを含むBBCニュースデータセットを用いた。
論文 参考訳(メタデータ) (2021-04-23T04:22:33Z) - TEACHTEXT: CrossModal Generalized Distillation for Text-Video Retrieval [103.85002875155551]
本研究では,大規模言語前訓練を利用した一般化蒸留法TeachTextを提案する。
提案手法をビデオ側モダリティに拡張し,テスト時に使用するモダリティの数を効果的に削減できることを示す。
提案手法は,いくつかのビデオ検索ベンチマークの精度を著しく向上させ,テスト時の計算オーバーヘッドを増加させない。
論文 参考訳(メタデータ) (2021-04-16T17:55:28Z) - A Survey on Semi-parametric Machine Learning Technique for Time Series
Forecasting [4.9341230675162215]
Grey Machine Learning(GML)は、大きなデータセットと、可能性のある結果を予測する時系列用の小さなデータセットを扱うことができる。
本稿では,時系列予測のための半パラメトリック機械学習技術の概要を概観する。
論文 参考訳(メタデータ) (2021-04-02T03:26:20Z) - A Transformer-based Approach for Source Code Summarization [86.08359401867577]
コードトークン間のペア関係をモデル化することにより,要約のためのコード表現を学習する。
アプローチは単純であるにもかかわらず、最先端技術よりもかなりの差があることが示される。
論文 参考訳(メタデータ) (2020-05-01T23:29:36Z) - Salience Estimation with Multi-Attention Learning for Abstractive Text
Summarization [86.45110800123216]
テキスト要約のタスクでは、単語、フレーズ、文のサリエンス推定が重要な要素である。
本稿では,サラレンス推定のための2つの新しい注目学習要素を含むマルチアテンション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-07T02:38:56Z) - Hybrid Attention-Based Transformer Block Model for Distant Supervision
Relation Extraction [20.644215991166902]
DSREタスクを実行するために,マルチインスタンス学習を用いたハイブリッドアテンションベースのトランスフォーマーブロックを用いた新しいフレームワークを提案する。
提案手法は評価データセットの最先端アルゴリズムより優れている。
論文 参考訳(メタデータ) (2020-03-10T13:05:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。