論文の概要: Detecting misinformation through Framing Theory: the Frame Element-based
Model
- arxiv url: http://arxiv.org/abs/2402.15525v1
- Date: Mon, 19 Feb 2024 21:50:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-03 19:18:02.729885
- Title: Detecting misinformation through Framing Theory: the Frame Element-based
Model
- Title(参考訳): フラーミング理論による誤情報検出:フレーム要素モデル
- Authors: Guan Wang, Rebecca Frederick, Jinglong Duan, William Wong, Verica
Rupar, Weihua Li, and Quan Bai
- Abstract要約: 私たちは、AIコミュニティの中で探索されていない領域である物語フレームのニュアンスな操作に焦点を当てています。
本稿では,事前学習された大規模言語モデルと深層ニューラルネットワークの力を利用して誤情報を検出する革新的な手法を提案する。
- 参考スコア(独自算出の注目度): 6.4618518529384765
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we delve into the rapidly evolving challenge of misinformation
detection, with a specific focus on the nuanced manipulation of narrative
frames - an under-explored area within the AI community. The potential for
Generative AI models to generate misleading narratives underscores the urgency
of this problem. Drawing from communication and framing theories, we posit that
the presentation or 'framing' of accurate information can dramatically alter
its interpretation, potentially leading to misinformation. We highlight this
issue through real-world examples, demonstrating how shifts in narrative frames
can transmute fact-based information into misinformation. To tackle this
challenge, we propose an innovative approach leveraging the power of
pre-trained Large Language Models and deep neural networks to detect
misinformation originating from accurate facts portrayed under different
frames. These advanced AI techniques offer unprecedented capabilities in
identifying complex patterns within unstructured data critical for examining
the subtleties of narrative frames. The objective of this paper is to bridge a
significant research gap in the AI domain, providing valuable insights and
methodologies for tackling framing-induced misinformation, thus contributing to
the advancement of responsible and trustworthy AI technologies. Several
experiments are intensively conducted and experimental results explicitly
demonstrate the various impact of elements of framing theory proving the
rationale of applying framing theory to increase the performance in
misinformation detection.
- Abstract(参考訳): 本稿では,aiコミュニティ内の未調査領域であるナラティブフレームのニュアンス操作に注目し,誤情報検出の急速に進展する課題について考察する。
Generative AIモデルが誤解を招く物語を生成する可能性は、この問題の緊急性を強調している。
コミュニケーションやフレーミング理論から、正確な情報の提示や「フレーミング」が解釈を劇的に変え、誤情報につながる可能性があると仮定する。
実世界の例を通してこの問題を強調し、物語フレームの変化が事実に基づく情報を誤情報に変換する方法を示す。
そこで本研究では,事前学習された大規模言語モデルと深層ニューラルネットワークを用いて,異なるフレームで表現された正確な事実に基づく誤情報を検出する手法を提案する。
これらの高度なai技術は、ナラティブフレームの微妙な性質を調べるために重要な非構造化データ内の複雑なパターンを識別する前例のない機能を提供する。
本稿の目的は、AI領域における重要な研究ギャップを埋めることであり、フレーミングによる誤報に対処するための貴重な洞察と方法論を提供することであり、責任と信頼できるAI技術の進歩に寄与する。
いくつかの実験が集中的に行われ、実験結果は、誤情報検出の性能を高めるためにフレーミング理論を適用する理性を証明するフレーミング理論の要素の様々な影響を明確に示している。
関連論文リスト
- Interpreting Inflammation Prediction Model via Tag-based Cohort Explanation [5.356481722174994]
本稿では,局所的特徴重要度スコアに基づいて,データセット内のコホートを識別する新しいフレームワークを提案する。
食品ベースの炎症予測モデル上での枠組みを評価し,その枠組みがドメイン知識に合致する信頼性のある説明を生成できることを実証した。
論文 参考訳(メタデータ) (2024-10-17T23:22:59Z) - EventGround: Narrative Reasoning by Grounding to Eventuality-centric Knowledge Graphs [41.928535719157054]
本研究では,事象中心の知識グラフに自由文を接地する問題に対処するため,EventGroundと呼ばれる初期包括的フレームワークを提案する。
これらの問題に対処するために、単純で効果的な解析と部分的な情報抽出方法を提案する。
基礎知識を取り入れた我々の枠組みは、解釈可能な証拠を提供しながら最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-03-30T01:16:37Z) - A Survey on Transferability of Adversarial Examples across Deep Neural Networks [53.04734042366312]
逆の例では、機械学習モデルを操作して誤った予測を行うことができます。
敵の例の転送可能性により、ターゲットモデルの詳細な知識を回避できるブラックボックス攻撃が可能となる。
本研究は, 対角移動可能性の展望を考察した。
論文 参考訳(メタデータ) (2023-10-26T17:45:26Z) - Enhancing Argument Structure Extraction with Efficient Leverage of
Contextual Information [79.06082391992545]
本稿では,コンテキスト情報を完全に活用する効率的なコンテキスト認識モデル(ECASE)を提案する。
文脈情報や議論情報を集約するために,シーケンスアテンションモジュールと距離重み付き類似度損失を導入する。
各種ドメインの5つのデータセットに対する実験により,我々のモデルが最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2023-10-08T08:47:10Z) - Interpretable Detection of Out-of-Context Misinformation with Neural-Symbolic-Enhanced Large Multimodal Model [16.348950072491697]
誤報の作者は、ニュース検出システムや偽ニュースを騙すために、マルチメディア以外のコンテンツを使う傾向が強まっている。
この新たなタイプの誤報は、検出だけでなく、個々のモダリティが真の情報に十分近いため、明確化の難しさも増す。
本稿では,不一致のペアと相互の矛盾を同時に識別する,解釈可能なクロスモーダル・デコンテクスト化検出を実現する方法について検討する。
論文 参考訳(メタデータ) (2023-04-15T21:11:55Z) - A Novel Interaction-based Methodology Towards Explainable AI with Better
Understanding of Pneumonia Chest X-ray Images [0.0]
本稿では,画像中の雑音および非情報的変数をスクリーニングするための相互作用に基づく手法であるI-Score(I-Score)を提案する。
提案手法をPneumonia Chest X-ray Imageデータセットに実世界の応用に適用し,その成果を報告する。
論文 参考訳(メタデータ) (2021-04-19T23:02:43Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - Detecting Cross-Modal Inconsistency to Defend Against Neural Fake News [57.9843300852526]
我々は、画像やキャプションを含む機械生成ニュースに対して、より現実的で挑戦的な対策を導入する。
敵が悪用できる可能性のある弱点を特定するために、4つの異なる種類の生成された記事からなるNeuralNewsデータセットを作成します。
ユーザ実験から得られた貴重な知見に加えて,視覚的意味的不整合の検出にもとづく比較的効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-16T14:13:15Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。