論文の概要: Detection of news written by the ChatGPT through authorship attribution
performed by a Bidirectional LSTM model
- arxiv url: http://arxiv.org/abs/2310.16685v1
- Date: Wed, 25 Oct 2023 14:48:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-26 14:13:04.429813
- Title: Detection of news written by the ChatGPT through authorship attribution
performed by a Bidirectional LSTM model
- Title(参考訳): 双方向LSTMモデルによる著者属性によるChatGPTによるニュースの検出
- Authors: Amanda Ferrari Iaquinta, Gustavo Voltani von Atzingen
- Abstract要約: この研究は、ChatGPTが人口が消費するニュースを生成するために使用される特定の状況を中心にしている。
それは、ChatGPTによって書かれたものを識別し、ニュース記事の著者帰属を行う人工知能モデルを構築することを目的としている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The large language based-model chatbot ChatGPT gained a lot of popularity
since its launch and has been used in a wide range of situations. This research
centers around a particular situation, when the ChatGPT is used to produce news
that will be consumed by the population, causing the facilitation in the
production of fake news, spread of misinformation and lack of trust in news
sources. Aware of these problems, this research aims to build an artificial
intelligence model capable of performing authorship attribution on news
articles, identifying the ones written by the ChatGPT. To achieve this goal, a
dataset containing equal amounts of human and ChatGPT written news was
assembled and different natural processing language techniques were used to
extract features from it that were used to train, validate and test three
models built with different techniques. The best performance was produced by
the Bidirectional Long Short Term Memory (LSTM) Neural Network model, achiving
91.57\% accuracy when tested against the data from the testing set.
- Abstract(参考訳): 大規模な言語ベースのモデルチャットボットChatGPTは、ローンチ以来多くの人気を集め、幅広い状況で使われている。
この研究は、chatgptが人口が消費するニュースを生み出すのに使われ、偽ニュースの生成の促進、誤情報の拡散、ニュースソースへの信頼の欠如の原因となっている特定の状況に焦点を当てている。
本研究は,これらの問題に対処して,ChatGPTによって書かれたものを識別し,ニュース記事の著者帰属を行う人工知能モデルの構築を目的とする。
この目的を達成するために、同じ量の人間とチャットgptの書かれたニュースを含むデータセットを組み立て、異なる自然処理言語技術を使用して、異なるテクニックで構築された3つのモデルの訓練、検証、テストに使用された特徴を抽出する。
最高の性能は双方向長短期記憶(LSTM)ニューラルネットワークモデルによって生成され、テストセットのデータに対して91.57\%の精度でテストされた。
関連論文リスト
- FakeGPT: Fake News Generation, Explanation and Detection of Large Language Models [18.543917359268345]
ChatGPTはその例外的な自然言語処理能力のために大きな注目を集めている。
フェイクニュースサンプルの生成に4つのプロンプト手法を用いて,自己評価と人的評価の両面から,これらのサンプルの品質を実証する。
偽ニュースを識別するChatGPTの能力について検討し,その性能向上のための理由認識プロンプト手法を提案する。
論文 参考訳(メタデータ) (2023-10-08T07:01:07Z) - Tackling Fake News in Bengali: Unraveling the Impact of Summarization vs. Augmentation on Pre-trained Language Models [0.0]
ベンガル語で偽ニュースを分類するための4つの異なるアプローチからなる方法論を提案する。
弊社のアプローチは、英語ニュース記事の翻訳や、偽ニュース記事の欠陥を抑えるための強化技術の利用を含む。
ベンガル語偽ニュース検出における要約と拡張の有効性を示す。
論文 参考訳(メタデータ) (2023-07-13T14:50:55Z) - Implementing BERT and fine-tuned RobertA to detect AI generated news by
ChatGPT [0.7130985926640657]
この研究は、ChatGPTが生み出したボグニュースAI生成ニュースをニューラルネットワークで識別できることを示している。
RobertA と BERT の優れた性能は、これらのモデルが誤報との戦いにおいて重要な役割を果たしていることを示している。
論文 参考訳(メタデータ) (2023-06-09T17:53:19Z) - Enhancing Chat Language Models by Scaling High-quality Instructional
Conversations [91.98516412612739]
まず,UltraChatという,体系的に設計され,多様で,情報的,大規模な会話データセットを提供する。
我々の目標は、人間がAIアシスタントで持つであろう対話の幅を捉えることです。
我々はLLaMAモデルを微調整し、強力な対話モデルであるUltraLLaMAを作成する。
論文 参考訳(メタデータ) (2023-05-23T16:49:14Z) - GPT-Sentinel: Distinguishing Human and ChatGPT Generated Content [27.901155229342375]
本稿では,言語モデルを用いたChatGPT生成対人文テキストの検出手法を提案する。
テストデータセットの精度は97%以上で,さまざまな指標から評価した。
論文 参考訳(メタデータ) (2023-05-13T17:12:11Z) - ChatGPT Beyond English: Towards a Comprehensive Evaluation of Large
Language Models in Multilingual Learning [70.57126720079971]
大規模言語モデル(LLM)は、自然言語処理(NLP)において最も重要なブレークスルーとして登場した。
本稿では,高,中,低,低リソースの37言語を対象として,ChatGPTを7つのタスクで評価する。
従来のモデルと比較すると,様々なNLPタスクや言語に対するChatGPTの性能は低下していた。
論文 参考訳(メタデータ) (2023-04-12T05:08:52Z) - To ChatGPT, or not to ChatGPT: That is the question! [78.407861566006]
本研究は,ChatGPT検出における最新の手法を包括的かつ現代的に評価するものである。
我々は、ChatGPTと人間からのプロンプトからなるベンチマークデータセットをキュレートし、医療、オープンQ&A、ファイナンスドメインからの多様な質問を含む。
評価の結果,既存の手法ではChatGPT生成内容を効果的に検出できないことがわかった。
論文 参考訳(メタデータ) (2023-04-04T03:04:28Z) - How would Stance Detection Techniques Evolve after the Launch of ChatGPT? [5.756359016880821]
2022年11月30日、新しい訓練済み言語モデルであるchatGPTが発売された。
ChatGPTは、SemEval-2016やP-Stanceといった一般的なデータセットに対して、SOTAまたは同様のパフォーマンスを達成することができる。
ChatGPTは、NLPのスタンス検出タスクにおいて、最高のAIモデルになる可能性がある。
論文 参考訳(メタデータ) (2022-12-30T05:03:15Z) - Faking Fake News for Real Fake News Detection: Propaganda-loaded
Training Data Generation [105.20743048379387]
提案手法は,人間によるプロパガンダのスタイルや戦略から情報を得た学習例を生成するための新しいフレームワークである。
具体的には、生成した記事の有効性を確保するために、自然言語推論によって導かれる自己臨界シーケンストレーニングを行う。
実験の結果、PropaNewsでトレーニングされた偽ニュース検知器は、2つの公開データセットで3.62~7.69%のF1スコアで人書きの偽情報を検出するのに優れていることがわかった。
論文 参考訳(メタデータ) (2022-03-10T14:24:19Z) - Artificial Text Detection via Examining the Topology of Attention Maps [58.46367297712477]
トポロジカルデータ分析(TDA)に基づく3種類の解釈可能なトポロジカル特徴を提案する。
BERTモデルから派生した特徴が3つの共通データセットにおいて、カウントベースとニューラルベースベースラインを最大10%上回っていることを実証的に示す。
特徴の探索解析は表面に対する感度と構文的性質を明らかにしている。
論文 参考訳(メタデータ) (2021-09-10T12:13:45Z) - InfoBERT: Improving Robustness of Language Models from An Information
Theoretic Perspective [84.78604733927887]
BERTのような大規模言語モデルは、幅広いNLPタスクで最先端のパフォーマンスを実現している。
近年の研究では、このようなBERTベースのモデルが、テキストの敵対的攻撃の脅威に直面していることが示されている。
本稿では,事前学習した言語モデルの堅牢な微調整のための新しい学習フレームワークであるInfoBERTを提案する。
論文 参考訳(メタデータ) (2020-10-05T20:49:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。