論文の概要: Identifying Automatically Generated Headlines using Transformers
- arxiv url: http://arxiv.org/abs/2009.13375v3
- Date: Sun, 25 Apr 2021 09:39:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 21:23:30.367337
- Title: Identifying Automatically Generated Headlines using Transformers
- Title(参考訳): 変圧器を用いた自動生成ヘッドラインの同定
- Authors: Antonis Maronikolakis, Hinrich Schutze, Mark Stevenson
- Abstract要約: 遠方では、深層学習モデルによって生成された偽コンテンツを特定することが、ユーザーを誤情報から守る上で重要な役割を果たすだろう。
この目的のために、人間とコンピュータが生成した見出しを含むデータセットが作成され、ユーザーの調査では、47.8%のケースにおいて、人間が偽の見出しを識別できることが示されている。
最も正確な自動手法であるトランスフォーマーは85.7%の精度を達成し、言語モデルから生成されたコンテンツを正確にフィルタリングできることを示した。
- 参考スコア(独自算出の注目度): 11.85776489581851
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: False information spread via the internet and social media influences public
opinion and user activity, while generative models enable fake content to be
generated faster and more cheaply than had previously been possible. In the not
so distant future, identifying fake content generated by deep learning models
will play a key role in protecting users from misinformation. To this end, a
dataset containing human and computer-generated headlines was created and a
user study indicated that humans were only able to identify the fake headlines
in 47.8% of the cases. However, the most accurate automatic approach,
transformers, achieved an overall accuracy of 85.7%, indicating that content
generated from language models can be filtered out accurately.
- Abstract(参考訳): インターネットやソーシャルメディアを通じて拡散した偽の情報は世論やユーザー活動に影響を与え、生成モデルは偽のコンテンツを以前より早く、より安価に生成できるようにする。
遠方では、深層学習モデルによって生成された偽コンテンツを特定することが、ユーザーを誤情報から守る上で重要な役割を果たすだろう。
この目的のために、人間とコンピュータが生成した見出しを含むデータセットが作成され、ユーザー調査によると、47.8%のケースで、人間は偽の見出しを識別できただけだった。
しかし、最も正確な自動アプローチであるトランスフォーマーは85.7%の精度を達成し、言語モデルから生成されたコンテンツを正確にフィルタリングできることを示した。
関連論文リスト
- A Regularized LSTM Method for Detecting Fake News Articles [0.0]
本稿では,偽ニュース記事を検出するための高度な機械学習ソリューションを開発する。
我々は、23,502の偽ニュース記事と21,417の正確なニュース記事を含む、包括的なニュース記事のデータセットを活用している。
私たちの研究は、そのようなモデルを現実世界のアプリケーションにデプロイする可能性を強調しています。
論文 参考訳(メタデータ) (2024-11-16T05:54:36Z) - Unsupervised Sentiment Analysis of Plastic Surgery Social Media Posts [91.3755431537592]
ソーシャルメディアプラットフォームにまたがる膨大なユーザー投稿は、主に人工知能(AI)のユースケースに使われていない。
自然言語処理(NLP)は、コーパス(corpora)として知られるドキュメントの体系を利用して、人間のような言語理解でコンピュータを訓練するAIのサブフィールドである。
本研究は, 教師なし解析の応用により, コンピュータがプラスティック手術に対する否定的, 肯定的, 中立的なユーザ感情を予測できることを示した。
論文 参考訳(メタデータ) (2023-07-05T20:16:20Z) - Smaller Language Models are Better Black-box Machine-Generated Text
Detectors [56.36291277897995]
小型で部分的に訓練されたモデルは、より優れたユニバーサルテキスト検出器である。
検出器とジェネレータが同一データでトレーニングされたかどうかが検出成功にとって重要でないことが判明した。
例えば、OPT-125Mモデルは、ChatGPT世代を検出するのにAUCが0.81であり、GPTファミリーのより大きなモデルであるGPTJ-6BはAUCが0.45である。
論文 参考訳(メタデータ) (2023-05-17T00:09:08Z) - Harnessing the Power of Text-image Contrastive Models for Automatic
Detection of Online Misinformation [50.46219766161111]
誤情報識別の領域における構成的学習を探求する自己学習モデルを構築した。
本モデルでは、トレーニングデータが不十分な場合、非マッチング画像-テキストペア検出の優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-19T02:53:59Z) - User Perceptions of Automatic Fake News Detection: Can Algorithms Fight
Online Misinformation? [11.104666702713793]
本稿では,偽ニュース検出アルゴリズムによる警告が誤情報検出能力に与える影響を評価する。
このような警告は,ユーザの真実に対する認識に強く影響し,適度に正確な分類器でも全体のユーザ精度を向上し,不正な場合でもアルゴリズムに同意する傾向にあることがわかった。
論文 参考訳(メタデータ) (2023-04-17T00:37:53Z) - Fake News Detection: Experiments and Approaches beyond Linguistic
Features [0.0]
ニュース記事に関連付けられた信頼性情報とメタデータは、結果の改善に利用されてきた。
実験はまた、モデリングの正当性や証拠が、どのようにしてより良い結果をもたらすかを示す。
論文 参考訳(メタデータ) (2021-09-27T10:00:44Z) - A Multi-input Multi-output Transformer-based Hybrid Neural Network for
Multi-class Privacy Disclosure Detection [3.04585143845864]
本稿では,伝達学習,言語学,メタデータを用いて隠れパターンを学習するマルチインプット・マルチアウトプットハイブリッドニューラルネットワークを提案する。
我々は,5,400のツイートを含む人間の注釈付き真実データセットを用いて,我々のモデルを訓練し,評価した。
論文 参考訳(メタデータ) (2021-08-19T03:58:49Z) - Responsible Disclosure of Generative Models Using Scalable
Fingerprinting [70.81987741132451]
深層生成モデルは質的に新しいパフォーマンスレベルを達成した。
この技術がスプーフセンサーに誤用され、ディープフェイクを発生させ、大規模な誤情報を可能にするという懸念がある。
最先端のジェネレーションモデルを責任を持って公開することで、研究者や企業がモデルに指紋を刻むことができます。
論文 参考訳(メタデータ) (2020-12-16T03:51:54Z) - Viable Threat on News Reading: Generating Biased News Using Natural
Language Models [49.90665530780664]
公開されている言語モデルは、入力されたオリジナルニュースに基づいてバイアスのあるニュースコンテンツを確実に生成できることを示す。
また、制御可能なテキスト生成を用いて、多数の高品質な偏りのあるニュース記事を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-05T16:55:39Z) - Artificial Fingerprinting for Generative Models: Rooting Deepfake
Attribution in Training Data [64.65952078807086]
光現実性画像生成は、GAN(Generative Adversarial Network)のブレークスルーにより、新たな品質レベルに達した。
しかし、このようなディープフェイクのダークサイド、すなわち生成されたメディアの悪意ある使用は、視覚的誤報に関する懸念を提起する。
我々は,モデルに人工指紋を導入することによって,深度検出の積極的な,持続可能なソリューションを模索する。
論文 参考訳(メタデータ) (2020-07-16T16:49:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。