論文の概要: A Mutation-based Text Generation for Adversarial Machine Learning
Applications
- arxiv url: http://arxiv.org/abs/2212.11808v1
- Date: Wed, 21 Dec 2022 04:57:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 13:51:16.609050
- Title: A Mutation-based Text Generation for Adversarial Machine Learning
Applications
- Title(参考訳): 逆機械学習アプリケーションのための突然変異に基づくテキスト生成
- Authors: Jesus Guerrero, Gongbo Liang and Izzat Alsmadi
- Abstract要約: 変異に基づくテキスト生成手法の提案と評価を行った。
突然変異演算子の例を示したが、この研究は多くの点で拡張できる。
- 参考スコア(独自算出の注目度): 1.5101132008238316
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many natural language related applications involve text generation, created
by humans or machines. While in many of those applications machines support
humans, yet in few others, (e.g. adversarial machine learning, social bots and
trolls) machines try to impersonate humans. In this scope, we proposed and
evaluated several mutation-based text generation approaches. Unlike
machine-based generated text, mutation-based generated text needs human text
samples as inputs. We showed examples of mutation operators but this work can
be extended in many aspects such as proposing new text-based mutation operators
based on the nature of the application.
- Abstract(参考訳): 多くの自然言語関連アプリケーションは、人間または機械によって作成されたテキスト生成を含む。
多くのアプリケーションでは、マシンは人間をサポートするが、他のマシン(例えば、敵対的機械学習、ソーシャルボット、トロル)は人間を偽装しようとする。
そこで本研究では,変異に基づくテキスト生成手法の提案と評価を行った。
機械ベースの生成テキストとは異なり、突然変異ベースの生成テキストは入力として人間のテキストサンプルを必要とする。
突然変異演算子の例を示したが,本研究は,本アプリケーションの性質に基づく新たなテキストベースの突然変異演算子の提案など,多くの面で拡張可能である。
関連論文リスト
- Unnatural language processing: How do language models handle
machine-generated prompts? [12.00724154801388]
我々は機械生成プロンプトを用いて、自然言語表現を含まない入力に対してモデルがどのように反応するかを探索する。
連続的および離散的な機械生成プロンプトに応答する複数の意味的タスクにおいて,異なる大きさのモデルの挙動について検討する。
論文 参考訳(メタデータ) (2023-10-24T13:32:20Z) - The Imitation Game: Detecting Human and AI-Generated Texts in the Era of
ChatGPT and BARD [3.2228025627337864]
異なるジャンルの人文・AI生成テキストのデータセットを新たに導入する。
テキストを分類するために、いくつかの機械学習モデルを使用します。
結果は、人間とAIが生成したテキストを識別する上で、これらのモデルの有効性を示す。
論文 参考訳(メタデータ) (2023-07-22T21:00:14Z) - Deepfake Text Detection in the Wild [51.07597090941853]
近年の大規模言語モデルの発展により、人間のものと同等のレベルのテキスト生成が可能になった。
これらのモデルは、ニュース記事の執筆、ストーリー生成、科学的な執筆など、幅広いコンテンツにまたがる強力な能力を示している。
このような機能は、人間によるテキストと機械によるテキストのギャップをさらに狭め、ディープフェイクテキスト検出の重要性を強調している。
論文 参考訳(メタデータ) (2023-05-22T17:13:29Z) - Mutation-Based Adversarial Attacks on Neural Text Detectors [1.5101132008238316]
そこで本研究では,現在最先端の自然テキスト検出装置を攻撃するために,対数サンプルを生成するための文字および単語ベースの突然変異演算子を提案する。
このような攻撃では、攻撃者は元のテキストにアクセスでき、この元のテキストに基づいて突然変異インスタンスを生成する。
論文 参考訳(メタデータ) (2023-02-11T22:08:32Z) - Real or Fake Text?: Investigating Human Ability to Detect Boundaries
Between Human-Written and Machine-Generated Text [23.622347443796183]
我々は、テキストが人間の書き起こしから始まり、最先端のニューラルネットワークモデルによって生成されるようになる、より現実的な状況について研究する。
この課題でアノテータはしばしば苦労するが、アノテータのスキルにはかなりのばらつきがあり、適切なインセンティブが与えられると、アノテータは時間とともに改善できることを示す。
論文 参考訳(メタデータ) (2022-12-24T06:40:25Z) - Being Comes from Not-being: Open-vocabulary Text-to-Motion Generation
with Wordless Training [178.09150600453205]
本稿では、ゼロショット学習方式でオフラインのオープン語彙テキスト・トゥ・モーション生成について検討する。
NLPの即時学習にインスパイアされ、マスクされた動きから全動作を再構築する動き生成装置を事前訓練する。
本手法では,入力テキストをマスクした動作に再構成することで,動作生成者の動作を再構築する。
論文 参考訳(メタデータ) (2022-10-28T06:20:55Z) - Event Transition Planning for Open-ended Text Generation [55.729259805477376]
オープンエンドテキスト生成タスクは、事前コンテキストに制限されたコヒーレントな継続を生成するためにモデルを必要とする。
オープンエンドテキスト生成におけるイベントを明示的にアレンジする新しい2段階手法を提案する。
我々のアプローチは、特別に訓練された粗大なアルゴリズムとして理解することができる。
論文 参考訳(メタデータ) (2022-04-20T13:37:51Z) - A Survey on Retrieval-Augmented Text Generation [53.04991859796971]
Retrieval-augmented text generationは顕著な利点があり、多くのNLPタスクで最先端のパフォーマンスを実現している。
まず、検索拡張生成の一般的なパラダイムを強調し、異なるタスクに応じて注目すべきアプローチをレビューする。
論文 参考訳(メタデータ) (2022-02-02T16:18:41Z) - Evaluating the Morphosyntactic Well-formedness of Generated Texts [88.20502652494521]
L'AMBRE – テキストのモルフォシンタク的整形性を評価する指標を提案する。
形態的に豊かな言語に翻訳するシステムのダイアクロニックスタディを通じて,機械翻訳作業におけるメトリックの有効性を示す。
論文 参考訳(メタデータ) (2021-03-30T18:02:58Z) - RoFT: A Tool for Evaluating Human Detection of Machine-Generated Text [25.80571756447762]
われわれはReal or Fake Text (RoFT)を紹介した。
本稿では,RoFTを用いたニュース記事の検出結果について述べる。
論文 参考訳(メタデータ) (2020-10-06T22:47:43Z) - PALM: Pre-training an Autoencoding&Autoregressive Language Model for
Context-conditioned Generation [92.7366819044397]
自己指導型事前学習は、自然言語の理解と生成のための強力な技術として登場した。
本研究は,大規模未ラベルコーパス上で自己エンコーディングと自己回帰言語モデルを共同で事前学習する新しいスキームをPALMに提示する。
広範な実験により、PALMは様々な言語生成ベンチマークにおいて、新しい最先端の結果を達成することが示されている。
論文 参考訳(メタデータ) (2020-04-14T06:25:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。