論文の概要: Machine-Generated Text Detection using Deep Learning
- arxiv url: http://arxiv.org/abs/2311.15425v1
- Date: Sun, 26 Nov 2023 21:16:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 17:41:31.675842
- Title: Machine-Generated Text Detection using Deep Learning
- Title(参考訳): ディープラーニングを用いた機械によるテキスト検出
- Authors: Raghav Gaggar, Ashish Bhagchandani, Harsh Oza
- Abstract要約: 本研究は,大規模言語モデルが生成するテキストを人為的テキストから識別することの課題に焦点を当てる。
我々はTwitter Sentiment, Football Commentary, Project Gutenberg, PubMedQA, SQuADなど,複数のデータセットでモデルを評価した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Our research focuses on the crucial challenge of discerning text produced by
Large Language Models (LLMs) from human-generated text, which holds
significance for various applications. With ongoing discussions about attaining
a model with such functionality, we present supporting evidence regarding the
feasibility of such models. We evaluated our models on multiple datasets,
including Twitter Sentiment, Football Commentary, Project Gutenberg, PubMedQA,
and SQuAD, confirming the efficacy of the enhanced detection approaches. These
datasets were sampled with intricate constraints encompassing every
possibility, laying the foundation for future research. We evaluate
GPT-3.5-Turbo against various detectors such as SVM, RoBERTa-base, and
RoBERTa-large. Based on the research findings, the results predominantly relied
on the sequence length of the sentence.
- Abstract(参考訳): 本研究では,大規模言語モデル (llm) が生成するテキストを人間の生成したテキストから識別するという重要な課題に焦点を当てた。
このような機能を持つモデルの実現に関する議論が進行中であることを踏まえ,モデルの実現可能性に関する証拠を提示する。
我々は,Twitter Sentiment, Football Commentary, Project Gutenberg, PubMedQA, SQuADなど,複数のデータセットでモデルを評価し,検出手法の有効性を確認した。
これらのデータセットは、あらゆる可能性を含む複雑な制約でサンプリングされ、将来の研究の基礎となった。
GPT-3.5-TurboをSVM,RoBERTa-base,RoBERTa-largeなどの各種検出器に対して評価した。
研究結果から, 文のシーケンス長に大きく依存した。
関連論文リスト
- Beyond Turing: A Comparative Analysis of Approaches for Detecting Machine-Generated Text [1.919654267936118]
従来の浅層学習,言語モデル(LM)微調整,多言語モデル微調整の評価を行った。
結果は、メソッド間でのパフォーマンスにかなりの違いが示される。
この研究は、堅牢で差別性の高いモデルを作成することを目的とした将来の研究の道を開くものである。
論文 参考訳(メタデータ) (2023-11-21T06:23:38Z) - Evaluation of Faithfulness Using the Longest Supported Subsequence [52.27522262537075]
本稿では,文脈によって支持される請求項の最長不連続性を計算し,機械生成テキストの忠実さを評価する新しい手法を提案する。
新しい人間アノテーション付きデータセットを使用して、モデルを微調整してLongest Supported Subsequence(LSS)を生成する。
提案手法は,我々のデータセットの忠実度に対する最先端のメトリクスよりも18%向上していることを示す。
論文 参考訳(メタデータ) (2023-08-23T14:18:44Z) - StableLLaVA: Enhanced Visual Instruction Tuning with Synthesized
Image-Dialogue Data [129.92449761766025]
本稿では,視覚的インストラクションチューニングのための画像と対話を同期的に合成する新しいデータ収集手法を提案する。
このアプローチは生成モデルのパワーを活用し、ChatGPTとテキスト・ツー・イメージ生成モデルの能力とを結合する。
本研究は,各種データセットを対象とした総合的な実験を含む。
論文 参考訳(メタデータ) (2023-08-20T12:43:52Z) - On the Possibilities of AI-Generated Text Detection [76.55825911221434]
機械が生成するテキストが人間に近い品質を近似するにつれて、検出に必要なサンプルサイズが増大すると主張している。
GPT-2, GPT-3.5-Turbo, Llama, Llama-2-13B-Chat-HF, Llama-2-70B-Chat-HFなどの最先端テキストジェネレータをoBERTa-Large/Base-Detector, GPTZeroなどの検出器に対して試験した。
論文 参考訳(メタデータ) (2023-04-10T17:47:39Z) - Ground-Truth, Whose Truth? -- Examining the Challenges with Annotating
Toxic Text Datasets [26.486492641924226]
本研究は,本質的な問題に光を当てることを目的として,選択された有毒なテキストデータセットについて検討する。
3つの有毒テキストデータセットからサンプルを再アノテートし、有毒テキストサンプルにアノテートするマルチラベルアプローチがデータセットの品質向上に役立ちます。
論文 参考訳(メタデータ) (2021-12-07T06:58:22Z) - AES Systems Are Both Overstable And Oversensitive: Explaining Why And
Proposing Defenses [66.49753193098356]
スコアリングモデルの驚くべき逆方向の脆さの原因について検討する。
のモデルとして訓練されているにもかかわらず、単語の袋のように振る舞うことを示唆している。
高い精度で試料を発生させる過敏性と過敏性を検出できる検出ベース保護モデルを提案する。
論文 参考訳(メタデータ) (2021-09-24T03:49:38Z) - Artificial Text Detection via Examining the Topology of Attention Maps [58.46367297712477]
トポロジカルデータ分析(TDA)に基づく3種類の解釈可能なトポロジカル特徴を提案する。
BERTモデルから派生した特徴が3つの共通データセットにおいて、カウントベースとニューラルベースベースラインを最大10%上回っていることを実証的に示す。
特徴の探索解析は表面に対する感度と構文的性質を明らかにしている。
論文 参考訳(メタデータ) (2021-09-10T12:13:45Z) - Corpus-Based Paraphrase Detection Experiments and Review [0.0]
パラフレーズ検出は、盗作検出、著者帰属、質問応答、テキスト要約など、多くのアプリケーションにとって重要である。
本稿では,多種多様なコーパスベースモデル,特にディープラーニング(DL)モデルの性能概要とパラフレーズ検出の課題について述べる。
論文 参考訳(メタデータ) (2021-05-31T23:29:24Z) - Stance Detection Benchmark: How Robust Is Your Stance Detection? [65.91772010586605]
Stance Detection (StD) は、あるトピックやクレームに対する著者の姿勢を検出することを目的としている。
マルチデータセット学習環境において、さまざまなドメインの10のStDデータセットから学習するStDベンチマークを導入する。
このベンチマーク設定では、5つのデータセットに新しい最先端結果を表示することができます。
論文 参考訳(メタデータ) (2020-01-06T13:37:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。