論文の概要: A Modality-level Explainable Framework for Misinformation Checking in
Social Networks
- arxiv url: http://arxiv.org/abs/2212.04272v1
- Date: Thu, 8 Dec 2022 13:57:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 14:20:34.331872
- Title: A Modality-level Explainable Framework for Misinformation Checking in
Social Networks
- Title(参考訳): ソーシャルネットワークにおける誤情報チェックのためのモダリティレベル説明可能なフレームワーク
- Authors: V\'itor Louren\c{c}o and Aline Paes
- Abstract要約: 本稿では,マルチモーダルの観点から,ソーシャルネットワークにおける誤情報の自動チェックについて述べる。
我々のフレームワークは、モダリティ指向の説明可能な推論を生成するための説明可能な方法によって補助される誤情報分類器で構成されている。
- 参考スコア(独自算出の注目度): 2.4028383570062606
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The widespread of false information is a rising concern worldwide with
critical social impact, inspiring the emergence of fact-checking organizations
to mitigate misinformation dissemination. However, human-driven verification
leads to a time-consuming task and a bottleneck to have checked trustworthy
information at the same pace they emerge. Since misinformation relates not only
to the content itself but also to other social features, this paper addresses
automatic misinformation checking in social networks from a multimodal
perspective. Moreover, as simply naming a piece of news as incorrect may not
convince the citizen and, even worse, strengthen confirmation bias, the
proposal is a modality-level explainable-prone misinformation classifier
framework. Our framework comprises a misinformation classifier assisted by
explainable methods to generate modality-oriented explainable inferences.
Preliminary findings show that the misinformation classifier does benefit from
multimodal information encoding and the modality-oriented explainable mechanism
increases both inferences' interpretability and completeness.
- Abstract(参考訳): 偽情報の普及は、社会に重大な影響を与え、偽情報の拡散を緩和する事実確認機関の出現を刺激する懸念が高まっている。
しかし、人間による検証は、時間を要するタスクと、彼らが現れるのと同じペースで信頼できる情報をチェックするボトルネックにつながる。
誤情報はコンテンツそのものだけでなく、他のソーシャル機能にも関連しているため、マルチモーダルな視点からソーシャルネットワークにおける誤情報のチェックを自動的に行う。
さらに、単にニュースを誤って命名することは市民を納得させるものではなく、さらに悪いことに確認バイアスを強固にするため、この提案はモダリティレベルの説明可能な誤情報分類フレームワークである。
本フレームワークは,モーダリティ指向の説明可能な推論を生成するために,説明可能な手法によって支援される誤情報分類器で構成されている。
予備的な知見から、誤情報の分類器はマルチモーダル情報エンコーディングの恩恵を受け、モダリティ指向の説明可能なメカニズムは推論の解釈可能性と完全性の両方を増加させる。
関連論文リスト
- MisinfoEval: Generative AI in the Era of "Alternative Facts" [50.069577397751175]
本稿では,大規模言語モデル(LLM)に基づく誤情報介入の生成と評価を行うフレームワークを提案する。
本研究では,(1)誤情報介入の効果を測定するための模擬ソーシャルメディア環境の実験,(2)ユーザの人口動態や信念に合わせたパーソナライズされた説明を用いた第2の実験について述べる。
以上の結果から,LSMによる介入はユーザの行動の修正に極めて有効であることが確認された。
論文 参考訳(メタデータ) (2024-10-13T18:16:50Z) - Detecting misinformation through Framing Theory: the Frame Element-based
Model [6.4618518529384765]
私たちは、AIコミュニティの中で探索されていない領域である物語フレームのニュアンスな操作に焦点を当てています。
本稿では,事前学習された大規模言語モデルと深層ニューラルネットワークの力を利用して誤情報を検出する革新的な手法を提案する。
論文 参考訳(メタデータ) (2024-02-19T21:50:42Z) - Interpretable Detection of Out-of-Context Misinformation with Neural-Symbolic-Enhanced Large Multimodal Model [16.348950072491697]
誤報の作者は、ニュース検出システムや偽ニュースを騙すために、マルチメディア以外のコンテンツを使う傾向が強まっている。
この新たなタイプの誤報は、検出だけでなく、個々のモダリティが真の情報に十分近いため、明確化の難しさも増す。
本稿では,不一致のペアと相互の矛盾を同時に識別する,解釈可能なクロスモーダル・デコンテクスト化検出を実現する方法について検討する。
論文 参考訳(メタデータ) (2023-04-15T21:11:55Z) - Adherence to Misinformation on Social Media Through Socio-Cognitive and
Group-Based Processes [79.79659145328856]
誤報が広まると、これはソーシャルメディア環境が誤報の付着を可能にするためである、と我々は主張する。
偏光と誤情報付着が密接な関係にあると仮定する。
論文 参考訳(メタデータ) (2022-06-30T12:34:24Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Applying Automatic Text Summarization for Fake News Detection [4.2177790395417745]
フェイクニュースの配信は新しいものではなく、急速に増加している問題だ。
本稿ではトランスフォーマーに基づく言語モデルのパワーを組み合わせた問題に対するアプローチを提案する。
我々のフレームワークであるCMTR-BERTは、複数のテキスト表現を組み合わせることで、コンテキスト情報の取り込みを可能にする。
論文 参考訳(メタデータ) (2022-04-04T21:00:55Z) - DISCO: Comprehensive and Explainable Disinformation Detection [71.5283511752544]
我々はdisCOと呼ばれる包括的で説明可能な偽情報検出フレームワークを提案する。
実世界のフェイクニュース検出タスクにおいて,disCOを満足な検出精度と説明力で実演する。
当社のデモは、識別性、理解性、説明可能性の限界に対処するための道を開くことを期待しています。
論文 参考訳(メタデータ) (2022-03-09T18:17:25Z) - An Agenda for Disinformation Research [3.083055913556838]
情報化は民主主義の基本的な基盤である社会政治機関への信頼を損なう。
偽り、誤解を招いたり、不正確な情報を欺く意図で配信することは、アメリカ合衆国にとって現実的な脅威である。
この成長する課題を理解し、対処するために、これらの余裕を活用するために、新しいツールとアプローチを開発する必要があります。
論文 参考訳(メタデータ) (2020-12-15T19:32:36Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z) - Generating Fact Checking Explanations [52.879658637466605]
まだ欠けているパズルの重要なピースは、プロセスの最も精巧な部分を自動化する方法を理解することです。
本稿では、これらの説明を利用可能なクレームコンテキストに基づいて自動生成する方法について、最初の研究を行う。
この結果から,個別に学習するのではなく,両目標を同時に最適化することで,事実確認システムの性能が向上することが示唆された。
論文 参考訳(メタデータ) (2020-04-13T05:23:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。