論文の概要: Amharic Abstractive Text Summarization
- arxiv url: http://arxiv.org/abs/2003.13721v1
- Date: Mon, 30 Mar 2020 18:15:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 06:31:17.104683
- Title: Amharic Abstractive Text Summarization
- Title(参考訳): アンハリック抽象テキスト要約
- Authors: Amr M. Zaki, Mahmoud I. Khalil, Hazem M. Abbas
- Abstract要約: テキスト要約は、長いテキストをほんの一握りの文に凝縮するタスクである。
本稿では、カリキュラム学習とディープラーニングを組み合わせた新しいアプローチの一つとして、スケジューリングサンプリング(Schduled Smpling)というモデルについて論じる。
我々はこの研究を、アフリカンNLPコミュニティをトップノートのディープラーニングアーキテクチャで豊かにしようとする中で、Amharic Language(英語版)と呼ばれる最も広く話されているアフリカの言語に応用する。
- 参考スコア(独自算出の注目度): 0.6703429330486277
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text Summarization is the task of condensing long text into just a handful of
sentences. Many approaches have been proposed for this task, some of the very
first were building statistical models (Extractive Methods) capable of
selecting important words and copying them to the output, however these models
lacked the ability to paraphrase sentences, as they simply select important
words without actually understanding their contexts nor understanding their
meaning, here comes the use of Deep Learning based architectures (Abstractive
Methods), which effectively tries to understand the meaning of sentences to
build meaningful summaries. In this work we discuss one of these new novel
approaches which combines curriculum learning with Deep Learning, this model is
called Scheduled Sampling. We apply this work to one of the most widely spoken
African languages which is the Amharic Language, as we try to enrich the
African NLP community with top-notch Deep Learning architectures.
- Abstract(参考訳): テキスト要約は、長いテキストをほんの一握りの文に凝縮するタスクである。
Many approaches have been proposed for this task, some of the very first were building statistical models (Extractive Methods) capable of selecting important words and copying them to the output, however these models lacked the ability to paraphrase sentences, as they simply select important words without actually understanding their contexts nor understanding their meaning, here comes the use of Deep Learning based architectures (Abstractive Methods), which effectively tries to understand the meaning of sentences to build meaningful summaries.
本稿では、カリキュラム学習とディープラーニングを組み合わせた新しいアプローチの一つとして、スケジューリングサンプリング(Schduled Smpling)というモデルについて論じる。
我々はこの研究を、アフリカNLPコミュニティをトップノートのディープラーニングアーキテクチャで豊かにしようとする中で、最も広く話されているアフリカ言語の一つであるアムハラ語に応用する。
関連論文リスト
- Surveying the Landscape of Text Summarization with Deep Learning: A
Comprehensive Review [2.4185510826808487]
ディープラーニングは、言語データの複雑な表現を学習できるモデルの開発を可能にすることによって、自然言語処理(NLP)に革命をもたらした。
NLPのディープラーニングモデルは、通常、大量のデータを使用してディープニューラルネットワークをトレーニングし、言語データ内のパターンと関係を学習する。
テキスト要約にディープラーニングを適用することは、テキスト要約タスクを実行するためにディープニューラルネットワークを使用することを指す。
論文 参考訳(メタデータ) (2023-10-13T21:24:37Z) - Human Inspired Progressive Alignment and Comparative Learning for
Grounded Word Acquisition [6.47452771256903]
我々は、人間の赤ちゃんが最初の言語をどのように習得するかからインスピレーションを得て、比較学習を通じて単語獲得のための計算プロセスを開発した。
認知的発見を動機として,様々な属性の類似点と相違点を計算モデルで比較できる小さなデータセットを作成した。
我々は、単語の獲得を情報フィルタリングのプロセスだけでなく、表現-シンボルマッピングにもとづいている。
論文 参考訳(メタデータ) (2023-07-05T19:38:04Z) - Uzbek text summarization based on TF-IDF [0.0]
本稿では,ウズベク語における要約課題について実験する。
この手法はTF-IDFアルゴリズムに基づくテキスト抽象化に基づいている。
テキスト全体の重要な部分にn-gram法を適用することで、与えられたテキストを要約する。
論文 参考訳(メタデータ) (2023-03-01T12:39:46Z) - Ensemble Transfer Learning for Multilingual Coreference Resolution [60.409789753164944]
非英語で作業する場合に頻繁に発生する問題は、注釈付きトレーニングデータの不足である。
我々は,様々なトランスファー学習技術を組み合わせた,シンプルだが効果的なアンサンブルベースのフレームワークを設計する。
また、ウィキペディアアンカーテキストを利用して、コア参照解決モデルをブートストラップする低コストのTL手法を提案する。
論文 参考訳(メタデータ) (2023-01-22T18:22:55Z) - Beyond Contrastive Learning: A Variational Generative Model for
Multilingual Retrieval [109.62363167257664]
本稿では,多言語テキスト埋め込み学習のための生成モデルを提案する。
我々のモデルは、$N$言語で並列データを操作する。
本手法は, 意味的類似性, ビットクストマイニング, 言語間質問検索などを含む一連のタスクに対して評価を行う。
論文 参考訳(メタデータ) (2022-12-21T02:41:40Z) - Improving Keyphrase Extraction with Data Augmentation and Information
Filtering [67.43025048639333]
キーフレーズ抽出はNLPにおける文書理解に不可欠なタスクの1つである。
本稿では,Behanceプラットフォーム上でストリームされたビデオからキーフレーズを抽出するための新しいコーパスと手法を提案する。
論文 参考訳(メタデータ) (2022-09-11T22:38:02Z) - Neural Abstractive Text Summarizer for Telugu Language [0.0]
提案手法は注意機構を有するエンコーダ・デコーダシーケンシャルモデルに基づく。
我々は、このモデルを手作業で作成したデータセットに適用し、ソーステキストの1文要約を生成する。
論文 参考訳(メタデータ) (2021-01-18T15:22:50Z) - SLM: Learning a Discourse Language Representation with Sentence
Unshuffling [53.42814722621715]
談話言語表現を学習するための新しい事前学習目的である文レベル言語モデリングを導入する。
本モデルでは,この特徴により,従来のBERTの性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-10-30T13:33:41Z) - Abstractive Summarization of Spoken and Written Instructions with BERT [66.14755043607776]
本稿では,BERTSumモデルの最初の対話型言語への応用について述べる。
我々は多種多様な話題にまたがるナレーションビデオの抽象要約を生成する。
我々は、これをインテリジェントな仮想アシスタントの機能として統合し、要求に応じて文字と音声の両方の指導内容の要約を可能にすることを想定する。
論文 参考訳(メタデータ) (2020-08-21T20:59:34Z) - Exploring the Limits of Transfer Learning with a Unified Text-to-Text
Transformer [64.22926988297685]
下流タスクで微調整される前に、まずデータリッチタスクでモデルが事前訓練されるトランスファーラーニングは、自然言語処理(NLP)において強力な手法として登場した。
本稿では,すべてのテキストベースの言語問題をテキスト・トゥ・テキスト・フォーマットに変換する統一フレームワークにより,NLPのためのトランスファー学習手法を導入する状況について検討する。
論文 参考訳(メタデータ) (2019-10-23T17:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。