論文の概要: Automatic Summarization of Russian Texts: Comparison of Extractive and
Abstractive Methods
- arxiv url: http://arxiv.org/abs/2206.09253v1
- Date: Sat, 18 Jun 2022 17:28:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-22 15:48:45.762151
- Title: Automatic Summarization of Russian Texts: Comparison of Extractive and
Abstractive Methods
- Title(参考訳): ロシア語テキストの自動要約:抽出法と抽象法の比較
- Authors: Valeriya Goloviznina, Evgeny Kotelnikov
- Abstract要約: ロシア語の議論文生成の鍵となる問題は、注釈付き議論コーパスの欠如である。
本稿では,Argumentative Microtext, Persuasive Essays および UKP Sentential corpora の翻訳版を詳細な RuBERT モデルに適用する。
その結果,従来の ruGPT-3 モデルと比較して,引数生成の精度は 20 ポイント以上向上した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The development of large and super-large language models, such as GPT-3, T5,
Switch Transformer, ERNIE, etc., has significantly improved the performance of
text generation. One of the important research directions in this area is the
generation of texts with arguments. The solution of this problem can be used in
business meetings, political debates, dialogue systems, for preparation of
student essays. One of the main domains for these applications is the economic
sphere. The key problem of the argument text generation for the Russian
language is the lack of annotated argumentation corpora. In this paper, we use
translated versions of the Argumentative Microtext, Persuasive Essays and UKP
Sentential corpora to fine-tune RuBERT model. Further, this model is used to
annotate the corpus of economic news by argumentation. Then the annotated
corpus is employed to fine-tune the ruGPT-3 model, which generates argument
texts. The results show that this approach improves the accuracy of the
argument generation by more than 20 percentage points (63.2% vs. 42.5%)
compared to the original ruGPT-3 model.
- Abstract(参考訳): GPT-3, T5, Switch Transformer, ERNIEなどの大規模・大規模言語モデルの開発により, テキスト生成の性能が大幅に向上した。
この領域における重要な研究方向の1つは、議論のあるテキストの生成である。
この問題に対する解決策は、ビジネス会議、政治討論、対話システム、学生エッセイの作成などに利用できる。
これらの応用の主要な領域の1つは経済圏である。
ロシア語における議論テキスト生成の重要な問題は、注釈付き議論コーパスの欠如である。
本稿では,Argumentative Microtext, Persuasive Essays および UKP Sentential corpora の翻訳版を詳細な RuBERT モデルに適用する。
さらに、このモデルは議論によって経済ニュースのコーパスに注釈をつけるために用いられる。
次に、注釈付きコーパスを用いて、引数テキストを生成するruGPT-3モデルを微調整する。
その結果、このアプローチは元のrugpt-3モデルと比較して20パーセンテージ(63.2%対42.5%)以上の引数生成精度が向上することが示された。
関連論文リスト
- Text Injection for Neural Contextual Biasing [57.589903308622745]
本研究では文脈テキストインジェクション(CTI)を提案する。
1000億のテキストを持つCTIは、強い神経バイアスモデルから43.3%の相対的なWER削減を達成することができる。
論文 参考訳(メタデータ) (2024-06-05T04:20:17Z) - AI, write an essay for me: A large-scale comparison of human-written
versus ChatGPT-generated essays [66.36541161082856]
ChatGPTや同様の生成AIモデルは、何億人ものユーザーを惹きつけている。
本研究は,ChatGPTが生成した議論的学生エッセイと比較した。
論文 参考訳(メタデータ) (2023-04-24T12:58:28Z) - ArguGPT: evaluating, understanding and identifying argumentative essays
generated by GPT models [9.483206389157509]
まず、7つのGPTモデルによって生成された4,038の議論的エッセイのバランスの取れたコーパスであるArguGPTを提示する。
そして、機械エッセイと人間のエッセイを区別するために英語のインストラクターを雇います。
その結果、まず機械によるエッセイに触れると、インストラクターは61%の精度しか検出できないことがわかった。
論文 参考訳(メタデータ) (2023-04-16T01:50:26Z) - Elaboration-Generating Commonsense Question Answering at Scale [77.96137534751445]
一般的な感覚を必要とする質問応答では、言語モデル(例えばGPT-3)が背景知識を表すテキストを生成するために使われてきた。
より小さな言語モデルを微調整して有用な中間コンテキストを生成します。
私たちのフレームワークは、2つの言語モデルの更新 – 開発中のジェネレータと応答予測器 – を交互に行います。
論文 参考訳(メタデータ) (2022-09-02T18:32:09Z) - Argumentative Text Generation in Economic Domain [0.11470070927586015]
ロシア語の議論文生成の鍵となる問題は、注釈付き議論コーパスの欠如である。
本稿では,Argumentative Microtext, Persuasive Essays および UKP Sentential corpora の翻訳版を詳細な RuBERT モデルに適用する。
その結果,従来の ruGPT-3 モデルと比較して,引数生成の精度は 20 ポイント以上向上した。
論文 参考訳(メタデータ) (2022-06-18T17:22:06Z) - RuArg-2022: Argument Mining Evaluation [69.87149207721035]
本稿は、ロシア語テキストを扱う議論分析システムの最初のコンペティションの主催者の報告である。
新型コロナウイルスの感染拡大に伴う3つの話題について、9,550文(ソーシャルメディア投稿記事)のコーパスを用意した。
両タスクで第一位を獲得したシステムは、BERTアーキテクチャのNLI(Natural Language Inference)変種を使用した。
論文 参考訳(メタデータ) (2022-06-18T17:13:37Z) - Fine-tuning GPT-3 for Russian Text Summarization [77.34726150561087]
本稿では,テキストを要約するruGPT3(ruGPT3)機能について紹介し,それに対応する人文要約を用いてロシア語ニュースのコーパスを微調整する。
得られたテキストを一連のメトリクスで評価し、アーキテクチャや損失関数に付加的な変更を加えることなく、我々のソリューションが最先端のモデルの性能を上回ることができることを示す。
論文 参考訳(メタデータ) (2021-08-07T19:01:40Z) - Traditional Machine Learning and Deep Learning Models for Argumentation
Mining in Russian Texts [0.0]
この領域におけるロシア語の研究の大きな障害は、注釈付きロシア語テキストコーパスの欠如である。
本稿では,ロシア語版Argumentative Micro Corpus(ArgMicro)を拡張したPersuasive Essays Corpus(PersEssays)の機械翻訳による議論の質向上の可能性を探る。
従来の機械学習技術(SVM, Bagging, XGBoost)とディープニューラルネットワークを用いて,議論的談話単位(ADU)を2つのクラス – "pro"(for)と"opp"(against)に分類する。
論文 参考訳(メタデータ) (2021-06-28T07:44:43Z) - Generating Informative Conclusions for Argumentative Texts [32.3103908466811]
論証文の目的は、ある結論を支持することである。
明確な結論は、議論文のよい候補要約である。
これは、結論が情報であり、特定の概念をテキストから強調する場合に特に当てはまる。
論文 参考訳(メタデータ) (2021-06-02T10:35:59Z) - Critical Thinking for Language Models [6.963299759354333]
本稿では,ニューラル自動回帰言語モデルの批判的思考カリキュラムに向けて第一歩を踏み出す。
我々は、GPT-2を訓練し、評価するために、人工的な議論文を生成する。
NLUベンチマークに対して一貫した有望な結果が得られる。
論文 参考訳(メタデータ) (2020-09-15T15:49:19Z) - Aspect-Controlled Neural Argument Generation [65.91772010586605]
我々は、与えられたトピック、スタンス、アスペクトの文レベル引数を生成するために、きめ細かいレベルで制御できる引数生成のための言語モデルを訓練する。
評価の結果,我々の生成モデルは高品質なアスペクト特異的な議論を生成できることがわかった。
これらの議論は、データ拡張による姿勢検出モデルの性能向上と、逆問題の生成に使用できる。
論文 参考訳(メタデータ) (2020-04-30T20:17:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。