論文の概要: Topic-Preserving Synthetic News Generation: An Adversarial Deep
Reinforcement Learning Approach
- arxiv url: http://arxiv.org/abs/2010.16324v1
- Date: Fri, 30 Oct 2020 15:29:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 16:09:59.115899
- Title: Topic-Preserving Synthetic News Generation: An Adversarial Deep
Reinforcement Learning Approach
- Title(参考訳): トピック保存型合成ニュース生成:敵対的深層強化学習アプローチ
- Authors: Ahmadreza Mosallanezhad, Kai Shu, Huan Liu
- Abstract要約: GPT-2は読みやすいテキストを生成することができ、特定のドメインのテキストを生成するように微調整することができる。
本稿では,話題保存型ニュース生成の新たな課題について考察する。
本稿では,GPT-2の出力を制御するための新しい強化学習手法を提案する。
- 参考スコア(独自算出の注目度): 40.254715367640635
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nowadays, there exist powerful language models such as OpenAI's GPT-2 that
can generate readable text and can be fine-tuned to generate text for a
specific domain. Considering GPT-2, it cannot directly generate synthetic news
with respect to a given topic and the output of the language model cannot be
explicitly controlled. In this paper, we study the novel problem of
topic-preserving synthetic news generation. We propose a novel deep
reinforcement learning-based method to control the output of GPT-2 with respect
to a given news topic. When generating text using GPT-2, by default, the most
probable word is selected from the vocabulary. Instead of selecting the best
word each time from GPT-2's output, an RL agent tries to select words that
optimize the matching of a given topic. In addition, using a fake news detector
as an adversary, we investigate generating realistic news using our proposed
method. In this paper, we consider realistic news as news that cannot be easily
detected by a fake news classifier. Experimental results demonstrate the
effectiveness of the proposed framework on generating topic-preserving news
content than state-of-the-art baselines.
- Abstract(参考訳): 現在、OpenAIのGPT-2のような強力な言語モデルがあり、読みやすいテキストを生成することができ、特定のドメイン用のテキストを生成するように微調整することができる。
gpt-2を考えると、特定のトピックに関する合成ニュースを直接生成することはできず、言語モデルの出力を明示的に制御することはできない。
本稿では,トピック保存型ニュース生成の新しい課題について検討する。
本稿では,gpt-2の出力を制御する新しい深層強化学習ベース手法を提案する。
GPT-2を用いてテキストを生成する場合、デフォルトで最も確率の高い単語が語彙から選択される。
GPT-2の出力から毎回最高の単語を選択する代わりに、RLエージェントは与えられたトピックのマッチングを最適化する単語を選択する。
また,偽ニュース検知器を敵として使用し,提案手法を用いて現実的なニュースを生成する。
本稿では,偽ニュース分類器では容易に検出できないニュースとして,現実のニュースを考察する。
実験結果は,最先端のベースラインよりもトピック保存型ニュースコンテンツ生成における提案フレームワークの有効性を示す。
関連論文リスト
- Augmenting text for spoken language understanding with Large Language
Models [13.240782495441275]
対応する音声を使わずに書き起こし構文解析データ(未ペアテキスト)の使い方を示す。
実験の結果、既存のドメインと新しいドメインの未ペアテキストは、絶対的エクサクトマッチ(EM)において、それぞれ2%と30%の性能を向上させることがわかった。
本稿では,既存のドメインや新しいドメインに対する未ペアテキストを生成するために,LLM(Large Language Models)を提案する。
論文 参考訳(メタデータ) (2023-09-17T22:25:34Z) - TieFake: Title-Text Similarity and Emotion-Aware Fake News Detection [15.386007761649251]
本稿では,マルチモーダルな文脈情報と著者の感情を共同でモデル化し,テキストの類似性と感情認識型フェイクニュース検出(TieFake)手法を提案する。
具体的には、BERT と ResNeSt を用いて、テキストや画像の表現を学習し、出版者感情抽出器を用いて、ニュースコンテンツにおける著者の主観的感情をキャプチャする。
論文 参考訳(メタデータ) (2023-04-19T04:47:36Z) - Multiverse: Multilingual Evidence for Fake News Detection [71.51905606492376]
Multiverseは、偽ニュースの検出に使用できる多言語エビデンスに基づく新機能である。
偽ニュース検出機能としての言語間証拠の使用仮説を確認した。
論文 参考訳(メタデータ) (2022-11-25T18:24:17Z) - Faking Fake News for Real Fake News Detection: Propaganda-loaded
Training Data Generation [105.20743048379387]
提案手法は,人間によるプロパガンダのスタイルや戦略から情報を得た学習例を生成するための新しいフレームワークである。
具体的には、生成した記事の有効性を確保するために、自然言語推論によって導かれる自己臨界シーケンストレーニングを行う。
実験の結果、PropaNewsでトレーニングされた偽ニュース検知器は、2つの公開データセットで3.62~7.69%のF1スコアで人書きの偽情報を検出するのに優れていることがわかった。
論文 参考訳(メタデータ) (2022-03-10T14:24:19Z) - A Plug-and-Play Method for Controlled Text Generation [38.283313068622085]
制御言語生成のためのプラグイン・アンド・プレイ復号法を提案する。
このアプローチの単純さにもかかわらず、実際に驚くほどうまく機能しているのが分かります。
論文 参考訳(メタデータ) (2021-09-20T17:27:03Z) - DeepTitle -- Leveraging BERT to generate Search Engine Optimized
Headlines [0.0]
本稿では,事前学習した言語モデルを用いて,ドイツ語のニュース見出し生成を抽象化する方法について紹介する。
我々は,抽象的なテキスト要約のための細調整技術,すなわちエンコーダとデコーダに異なるベイトを使用する技術の現状を取り入れた。
ドイツのニュースデータセット上で実験を行い, ROUGE-L-gram Fスコアを40.02で達成した。
論文 参考訳(メタデータ) (2021-07-22T21:32:54Z) - Improving Text Generation with Student-Forcing Optimal Transport [122.11881937642401]
トレーニングモードとテストモードで生成されたシーケンスに最適なトランスポート(OT)を提案する。
テキストシーケンスの構造的および文脈的情報に基づいて、OT学習を改善するための拡張も提案されている。
提案手法の有効性は,機械翻訳,テキスト要約,テキスト生成タスクにおいて検証される。
論文 参考訳(メタデータ) (2020-10-12T19:42:25Z) - Viable Threat on News Reading: Generating Biased News Using Natural
Language Models [49.90665530780664]
公開されている言語モデルは、入力されたオリジナルニュースに基づいてバイアスのあるニュースコンテンツを確実に生成できることを示す。
また、制御可能なテキスト生成を用いて、多数の高品質な偏りのあるニュース記事を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-05T16:55:39Z) - Adversarial Watermarking Transformer: Towards Tracing Text Provenance
with Data Hiding [80.3811072650087]
自然言語の透かしを防御として研究し,テキストの出所の発見と追跡に役立てる。
本稿では,適応型透かし変換器(AWT)とエンコーダ・デコーダ・デコーダを併用した対向型透かし変換器(AWT)について述べる。
AWTは、テキストにデータを隠蔽する最初のエンドツーエンドモデルである。
論文 参考訳(メタデータ) (2020-09-07T11:01:24Z) - Assessing Discourse Relations in Language Generation from GPT-2 [37.30382375828105]
GPT-2は、左から右への言語モデリングの目的から、生成タスクに適している。
有機生成シナリオと微調整シナリオの両方において, GPT-2の出力における明示的談話関係の有効性について検討した。
論文 参考訳(メタデータ) (2020-04-26T23:29:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。