論文の概要: Identifying Automatically Generated Headlines using Transformers
- arxiv url: http://arxiv.org/abs/2009.13375v3
- Date: Sun, 25 Apr 2021 09:39:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 21:23:30.367337
- Title: Identifying Automatically Generated Headlines using Transformers
- Title(参考訳): 変圧器を用いた自動生成ヘッドラインの同定
- Authors: Antonis Maronikolakis, Hinrich Schutze, Mark Stevenson
- Abstract要約: 遠方では、深層学習モデルによって生成された偽コンテンツを特定することが、ユーザーを誤情報から守る上で重要な役割を果たすだろう。
この目的のために、人間とコンピュータが生成した見出しを含むデータセットが作成され、ユーザーの調査では、47.8%のケースにおいて、人間が偽の見出しを識別できることが示されている。
最も正確な自動手法であるトランスフォーマーは85.7%の精度を達成し、言語モデルから生成されたコンテンツを正確にフィルタリングできることを示した。
- 参考スコア(独自算出の注目度): 11.85776489581851
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: False information spread via the internet and social media influences public
opinion and user activity, while generative models enable fake content to be
generated faster and more cheaply than had previously been possible. In the not
so distant future, identifying fake content generated by deep learning models
will play a key role in protecting users from misinformation. To this end, a
dataset containing human and computer-generated headlines was created and a
user study indicated that humans were only able to identify the fake headlines
in 47.8% of the cases. However, the most accurate automatic approach,
transformers, achieved an overall accuracy of 85.7%, indicating that content
generated from language models can be filtered out accurately.
- Abstract(参考訳): インターネットやソーシャルメディアを通じて拡散した偽の情報は世論やユーザー活動に影響を与え、生成モデルは偽のコンテンツを以前より早く、より安価に生成できるようにする。
遠方では、深層学習モデルによって生成された偽コンテンツを特定することが、ユーザーを誤情報から守る上で重要な役割を果たすだろう。
この目的のために、人間とコンピュータが生成した見出しを含むデータセットが作成され、ユーザー調査によると、47.8%のケースで、人間は偽の見出しを識別できただけだった。
しかし、最も正確な自動アプローチであるトランスフォーマーは85.7%の精度を達成し、言語モデルから生成されたコンテンツを正確にフィルタリングできることを示した。
関連論文リスト
- Unsupervised Sentiment Analysis of Plastic Surgery Social Media Posts [91.3755431537592]
ソーシャルメディアプラットフォームにまたがる膨大なユーザー投稿は、主に人工知能(AI)のユースケースに使われていない。
自然言語処理(NLP)は、コーパス(corpora)として知られるドキュメントの体系を利用して、人間のような言語理解でコンピュータを訓練するAIのサブフィールドである。
本研究は, 教師なし解析の応用により, コンピュータがプラスティック手術に対する否定的, 肯定的, 中立的なユーザ感情を予測できることを示した。
論文 参考訳(メタデータ) (2023-07-05T20:16:20Z) - Smaller Language Models are Better Black-box Machine-Generated Text
Detectors [56.36291277897995]
小型で部分的に訓練されたモデルは、より優れたユニバーサルテキスト検出器である。
検出器とジェネレータが同一データでトレーニングされたかどうかが検出成功にとって重要でないことが判明した。
例えば、OPT-125Mモデルは、ChatGPT世代を検出するのにAUCが0.81であり、GPTファミリーのより大きなモデルであるGPTJ-6BはAUCが0.45である。
論文 参考訳(メタデータ) (2023-05-17T00:09:08Z) - Harnessing the Power of Text-image Contrastive Models for Automatic
Detection of Online Misinformation [50.46219766161111]
誤情報識別の領域における構成的学習を探求する自己学習モデルを構築した。
本モデルでは、トレーニングデータが不十分な場合、非マッチング画像-テキストペア検出の優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-19T02:53:59Z) - User Perceptions of Automatic Fake News Detection: Can Algorithms Fight
Online Misinformation? [11.104666702713793]
本稿では,偽ニュース検出アルゴリズムによる警告が誤情報検出能力に与える影響を評価する。
このような警告は,ユーザの真実に対する認識に強く影響し,適度に正確な分類器でも全体のユーザ精度を向上し,不正な場合でもアルゴリズムに同意する傾向にあることがわかった。
論文 参考訳(メタデータ) (2023-04-17T00:37:53Z) - Verifying the Robustness of Automatic Credibility Assessment [79.08422736721764]
テキスト分類法は信頼性の低い内容を検出する手段として広く研究されている。
入力テキストの無意味な変更は、モデルを誤解させることがある。
偽情報検出タスクにおける被害者モデルと攻撃方法の両方をテストするベンチマークであるBODEGAを紹介する。
論文 参考訳(メタデータ) (2023-03-14T16:11:47Z) - Fake News Detection: Experiments and Approaches beyond Linguistic
Features [0.0]
ニュース記事に関連付けられた信頼性情報とメタデータは、結果の改善に利用されてきた。
実験はまた、モデリングの正当性や証拠が、どのようにしてより良い結果をもたらすかを示す。
論文 参考訳(メタデータ) (2021-09-27T10:00:44Z) - Like Article, Like Audience: Enforcing Multimodal Correlations for
Disinformation Detection [20.394457328537975]
ユーザ生成コンテンツとユーザ共有コンテンツの相関を利用して、オンラインニュース記事の偽情報を検出する。
偽情報検出のためのマルチモーダル学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-08-31T14:50:16Z) - A Multi-input Multi-output Transformer-based Hybrid Neural Network for
Multi-class Privacy Disclosure Detection [3.04585143845864]
本稿では,伝達学習,言語学,メタデータを用いて隠れパターンを学習するマルチインプット・マルチアウトプットハイブリッドニューラルネットワークを提案する。
我々は,5,400のツイートを含む人間の注釈付き真実データセットを用いて,我々のモデルを訓練し,評価した。
論文 参考訳(メタデータ) (2021-08-19T03:58:49Z) - Responsible Disclosure of Generative Models Using Scalable
Fingerprinting [70.81987741132451]
深層生成モデルは質的に新しいパフォーマンスレベルを達成した。
この技術がスプーフセンサーに誤用され、ディープフェイクを発生させ、大規模な誤情報を可能にするという懸念がある。
最先端のジェネレーションモデルを責任を持って公開することで、研究者や企業がモデルに指紋を刻むことができます。
論文 参考訳(メタデータ) (2020-12-16T03:51:54Z) - Viable Threat on News Reading: Generating Biased News Using Natural
Language Models [49.90665530780664]
公開されている言語モデルは、入力されたオリジナルニュースに基づいてバイアスのあるニュースコンテンツを確実に生成できることを示す。
また、制御可能なテキスト生成を用いて、多数の高品質な偏りのあるニュース記事を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-05T16:55:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。