論文の概要: SEPSIS: I Can Catch Your Lies -- A New Paradigm for Deception Detection
- arxiv url: http://arxiv.org/abs/2312.00292v1
- Date: Fri, 1 Dec 2023 02:13:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-04 16:06:07.929513
- Title: SEPSIS: I Can Catch Your Lies -- A New Paradigm for Deception Detection
- Title(参考訳): SEPSIS: 嘘をつかむことができます -- 偽装検出のための新しいパラダイム
- Authors: Anku Rani, Dwip Dalal, Shreya Gautam, Pankaj Gupta, Vinija Jain, Aman
Chadha, Amit Sheth, Amitava Das
- Abstract要約: 本研究は, 心理学のレンズを通して, 騙しの問題を探究するものである。
そこで本研究では,NLP技術を利用した偽造検出のための新しいフレームワークを提案する。
我々は、微調整言語モデルのデータレスマージを利用した、新しいマルチタスク学習パイプラインを提案する。
- 参考スコア(独自算出の注目度): 9.20397189600732
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deception is the intentional practice of twisting information. It is a
nuanced societal practice deeply intertwined with human societal evolution,
characterized by a multitude of facets. This research explores the problem of
deception through the lens of psychology, employing a framework that
categorizes deception into three forms: lies of omission, lies of commission,
and lies of influence. The primary focus of this study is specifically on
investigating only lies of omission. We propose a novel framework for deception
detection leveraging NLP techniques. We curated an annotated dataset of 876,784
samples by amalgamating a popular large-scale fake news dataset and scraped
news headlines from the Twitter handle of Times of India, a well-known Indian
news media house. Each sample has been labeled with four layers, namely: (i)
the type of omission (speculation, bias, distortion, sounds factual, and
opinion), (ii) colors of lies(black, white, etc), and (iii) the intention of
such lies (to influence, etc) (iv) topic of lies (political, educational,
religious, etc). We present a novel multi-task learning pipeline that leverages
the dataless merging of fine-tuned language models to address the deception
detection task mentioned earlier. Our proposed model achieved an F1 score of
0.87, demonstrating strong performance across all layers including the type,
color, intent, and topic aspects of deceptive content. Finally, our research
explores the relationship between lies of omission and propaganda techniques.
To accomplish this, we conducted an in-depth analysis, uncovering compelling
findings. For instance, our analysis revealed a significant correlation between
loaded language and opinion, shedding light on their interconnectedness. To
encourage further research in this field, we will be making the models and
dataset available with the MIT License, making it favorable for open-source
research.
- Abstract(参考訳): 欺きは情報をひねる故意の実践である。
これは、人間の社会進化と深く絡み合っており、様々な面が特徴である。
本研究は、心理学のレンズを通しての偽証の問題を探求し、偽証を3つの形態に分類する枠組みを用いる: 欠落の嘘、委任の嘘、影響の嘘である。
本研究の主な焦点は, 排他的欠陥のみを調査することである。
そこで我々は,NLP技術を利用した偽造検出のための新しいフレームワークを提案する。
私たちは、有名なインドのニュースメディア、タイムズ・オブ・インディアのTwitterハンドルから、人気のある大規模なフェイクニュースデータセットとスクラップニュースの見出しを照合して、876,784のサンプルの注釈付きデータセットを収集しました。
各サンプルは4つの層でラベル付けされている。
(i)欠落の種類(推測、バイアス、歪み、事実性、意見)
(二 嘘の色(黒、白等)及び
(三)そのような嘘の意図(影響等)
(四)嘘の話題(政治、教育、宗教等)
先述した偽造検出タスクに対処するために、微調整言語モデルのデータレスマージを利用する新しいマルチタスク学習パイプラインを提案する。
提案モデルはF1スコア0.87を達成し, 着目内容のタイプ, 色, 意図, 話題などすべての層で高い性能を示した。
最後に,本研究は,逸脱の嘘とプロパガンダ技術との関係について検討する。
これを実現するため,我々は詳細な分析を行った。
例えば,本研究では,読み込まれた言語と意見との間に有意な相関関係を示し,相互接続性に光を当てた。
この分野でさらなる研究を促進するため、私たちはモデルとデータセットをMITライセンスで利用可能にし、オープンソース研究に好適にします。
関連論文リスト
- PropaInsight: Toward Deeper Understanding of Propaganda in Terms of Techniques, Appeals, and Intent [71.20471076045916]
プロパガンダは世論の形成と偽情報の拡散に重要な役割を果たしている。
Propainsightはプロパガンダを体系的に、技術、覚醒的魅力、そして根底にある意図に分解する。
Propagazeは、人間の注釈付きデータと高品質な合成データを組み合わせる。
論文 参考訳(メタデータ) (2024-09-19T06:28:18Z) - Exploring the Deceptive Power of LLM-Generated Fake News: A Study of Real-World Detection Challenges [21.425647152424585]
条件付き変分オートエンコーダライズプロンプト(VLPrompt)と呼ばれる強力なフェイクニュース攻撃手法を提案する。
現行のメソッドとは異なり、VLPromptはコンテキストコヒーレンスを維持しながら追加のデータ収集を不要にする。
さまざまな検出方法や新しい人間の研究指標を含む実験を行い,その性能をデータセット上で評価した。
論文 参考訳(メタデータ) (2024-03-27T04:39:18Z) - Can Large Language Models Detect Misinformation in Scientific News
Reporting? [1.0344642971058586]
本稿では,科学的報告における誤情報の検出に大規模言語モデル(LLM)を用いることが可能であるかを検討する。
最初にラベル付きデータセットSciNewsを提示し、信頼できない情報源から抜粋された2.4万の科学ニュース記事を含む。
科学ニュース記事の科学的妥当性の次元を識別し、科学的誤報の自動検出にどのように組み込むかを検討する。
論文 参考訳(メタデータ) (2024-02-22T04:07:00Z) - Analyzing the Impact of Fake News on the Anticipated Outcome of the 2024
Election Ahead of Time [7.1970442944315245]
フェイクニュースに関する認識と研究の高まりにもかかわらず、北米の政治演説の中で人種的スラリーや偏見を特にターゲットとするデータセットは、依然として大きな必要性がある。
本研究では、これらの誤情報の重要な側面を照らす包括的データセットを紹介する。
論文 参考訳(メタデータ) (2023-12-01T20:14:16Z) - ManiTweet: A New Benchmark for Identifying Manipulation of News on Social Media [74.93847489218008]
ソーシャルメディア上でのニュースの操作を識別し,ソーシャルメディア投稿の操作を検出し,操作された情報や挿入された情報を特定することを目的とした,新しいタスクを提案する。
この課題を研究するために,データ収集スキーマを提案し,3.6K対のツイートとそれに対応する記事からなるManiTweetと呼ばれるデータセットをキュレートした。
我々の分析では、このタスクは非常に難しいことを示し、大きな言語モデル(LLM)は不満足なパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-05-23T16:40:07Z) - Rumor Detection with Self-supervised Learning on Texts and Social Graph [101.94546286960642]
異種情報ソース上での自己教師型学習を対照的に提案し,それらの関係を明らかにするとともに,噂をよりよく特徴付ける。
我々はこの枠組みをSRD(Self-supervised Rumor Detection)と呼ぶ。
3つの実世界のデータセットに対する大規模な実験により、ソーシャルメディア上での噂の自動検出におけるSRDの有効性が検証された。
論文 参考訳(メタデータ) (2022-04-19T12:10:03Z) - Faking Fake News for Real Fake News Detection: Propaganda-loaded
Training Data Generation [105.20743048379387]
提案手法は,人間によるプロパガンダのスタイルや戦略から情報を得た学習例を生成するための新しいフレームワークである。
具体的には、生成した記事の有効性を確保するために、自然言語推論によって導かれる自己臨界シーケンストレーニングを行う。
実験の結果、PropaNewsでトレーニングされた偽ニュース検知器は、2つの公開データセットで3.62~7.69%のF1スコアで人書きの偽情報を検出するのに優れていることがわかった。
論文 参考訳(メタデータ) (2022-03-10T14:24:19Z) - Mining Fine-grained Semantics via Graph Neural Networks for
Evidence-based Fake News Detection [20.282527436527765]
本稿では,グラフベースのsEmantic sTructureマイニングフレームワークを提案する。
我々は、クレームとエビデンスをグラフ構造化データとしてモデル化し、長距離セマンティック依存関係をキャプチャします。
文脈意味情報を得た後、グラフ構造学習を行うことにより、情報冗長性を低減する。
論文 参考訳(メタデータ) (2022-01-18T11:28:36Z) - Detecting Cross-Modal Inconsistency to Defend Against Neural Fake News [57.9843300852526]
我々は、画像やキャプションを含む機械生成ニュースに対して、より現実的で挑戦的な対策を導入する。
敵が悪用できる可能性のある弱点を特定するために、4つの異なる種類の生成された記事からなるNeuralNewsデータセットを作成します。
ユーザ実験から得られた貴重な知見に加えて,視覚的意味的不整合の検出にもとづく比較的効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-16T14:13:15Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。