論文の概要: Multimodal Climate Disinformation Detection: Integrating Vision-Language Models with External Knowledge Sources
- arxiv url: http://arxiv.org/abs/2601.16108v1
- Date: Thu, 22 Jan 2026 16:55:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 21:37:20.659245
- Title: Multimodal Climate Disinformation Detection: Integrating Vision-Language Models with External Knowledge Sources
- Title(参考訳): マルチモーダル気象情報検出:視覚言語モデルと外部知識源の統合
- Authors: Marzieh Adeli Shamsabad, Hamed Ghodrati,
- Abstract要約: 視覚言語モデル(VLM)は視覚的偽情報を特定するために用いられてきたが、訓練時に利用可能な知識にのみ依存している。
本稿では,VLMと外部知識を組み合わせることで,その限界を克服することを目的とする。
逆画像結果、オンライン事実チェック、信頼できる専門家コンテンツなどの最新の情報を検索することにより、画像とそのクレームが正確か、誤解を招くか、偽か、検証不能かをより正確に評価することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Climate disinformation has become a major challenge in today digital world, especially with the rise of misleading images and videos shared widely on social media. These false claims are often convincing and difficult to detect, which can delay actions on climate change. While vision-language models (VLMs) have been used to identify visual disinformation, they rely only on the knowledge available at the time of training. This limits their ability to reason about recent events or updates. The main goal of this paper is to overcome that limitation by combining VLMs with external knowledge. By retrieving up-to-date information such as reverse image results, online fact-checks, and trusted expert content, the system can better assess whether an image and its claim are accurate, misleading, false, or unverifiable. This approach improves the model ability to handle real-world climate disinformation and supports efforts to protect public understanding of science in a rapidly changing information landscape.
- Abstract(参考訳): 現代のデジタル世界では、特にソーシャルメディアで広くシェアされている誤解を招く画像やビデオの出現によって、気候変動の偽情報が大きな課題となっている。
これらの誤った主張は、しばしば説得力があり、検出するのが困難であり、気候変動に対する行動を遅らせる可能性がある。
視覚言語モデル(VLM)は視覚的偽情報を特定するために使われてきたが、それらは訓練時に利用可能な知識にのみ依存している。
これにより、最近のイベントやアップデートを推論する能力が制限される。
本稿では,VLMと外部知識を組み合わせることで,その限界を克服することを目的とする。
逆画像結果、オンライン事実チェック、信頼できる専門家コンテンツなどの最新の情報を検索することにより、画像とそのクレームが正確か、誤解を招くか、偽か、検証不能かをより正確に評価することができる。
このアプローチは、現実世界の気候の偽情報を扱うモデル能力を改善し、急速に変化する情報景観における科学の大衆的理解を保護する努力を支援する。
関連論文リスト
- Characteristics of Political Misinformation Over the Past Decade [0.0]
本稿は、自然言語処理を用いて、12年間にわたる政治的誤報の共通の特徴を見出す。
その結果,近年は誤報が飛躍的に増加しており,テキストや画像の一次情報モダリティを持つソースから情報を共有する傾向が強まっていることが示唆された。
誤報を表す文には、正確な情報よりも否定的な感情が含まれていることが判明した。
論文 参考訳(メタデータ) (2024-11-09T09:12:39Z) - Understanding Knowledge Drift in LLMs through Misinformation [11.605377799885238]
大規模言語モデル(LLM)は多くのアプリケーションに革命をもたらしました。
我々は,QnAシナリオで誤情報に遭遇した場合に,現状のLCMの事実的不正確性に対する感受性を解析する。
実験の結果,LLMの不確実性が56.6%まで増加することが判明した。
論文 参考訳(メタデータ) (2024-09-11T08:11:16Z) - Unlearning Climate Misinformation in Large Language Models [17.95497650321137]
気候変動に関する誤報は、人類にとって最も深刻な脅威の1つに対処する上で、重要な障害となっている。
本稿では,気候情報に関する大規模言語モデル(LLM)の事実的精度について検討する。
論文 参考訳(メタデータ) (2024-05-29T23:11:53Z) - LLMs' Reading Comprehension Is Affected by Parametric Knowledge and Struggles with Hypothetical Statements [59.71218039095155]
言語モデルの自然言語理解(NLU)能力を評価するための主要な手段として、読解理解(RC)があげられる。
文脈がモデルの内部知識と一致している場合、モデルの回答がコンテキスト理解に由来するのか、あるいは内部情報から生じるのかを識別することは困難である。
この問題に対処するために、架空の事実や実体に基づいて、想像上のデータにRCを使うことを提案する。
論文 参考訳(メタデータ) (2024-04-09T13:08:56Z) - RECALL: A Benchmark for LLMs Robustness against External Counterfactual
Knowledge [69.79676144482792]
本研究の目的は,LLMが外部知識から信頼できる情報を識別する能力を評価することである。
本ベンチマークは,質問応答とテキスト生成という2つのタスクから構成される。
論文 参考訳(メタデータ) (2023-11-14T13:24:19Z) - Harnessing the Power of Text-image Contrastive Models for Automatic
Detection of Online Misinformation [50.46219766161111]
誤情報識別の領域における構成的学習を探求する自己学習モデルを構築した。
本モデルでは、トレーニングデータが不十分な場合、非マッチング画像-テキストペア検出の優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-19T02:53:59Z) - Enhancing Large Language Models with Climate Resources [5.2677629053588895]
大規模言語モデル(LLM)は、人間のようなテキストを生成する能力を示すことによって、人工知能のランドスケープを変革した。
しかし、彼らはしばしば不正確な言語を使うが、それは気候変動など、正確性が重要である領域では有害である。
本研究では,複数のソースにアクセスするエージェントとしてLLMの可能性を活かすために,近年のアイデアを活用している。
本研究では,ClimateWatchから放射データを取得するプロトタイプエージェントを用いて,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-03-31T20:24:14Z) - Modeling Information Change in Science Communication with Semantically
Matched Paraphrases [50.67030449927206]
SPICEDは、情報変化の度合いに注釈を付けた科学的な発見の最初のパラフレーズデータセットである。
SPICEDには、ニュース記事、ソーシャルメディアの議論、オリジナル論文の全文から抽出された6000の科学的発見ペアが含まれている。
SPICEDで訓練されたモデルは、実世界の科学的主張の事実チェックのための証拠検索において下流のパフォーマンスを改善する。
論文 参考訳(メタデータ) (2022-10-24T07:44:38Z) - FaVIQ: FAct Verification from Information-seeking Questions [77.7067957445298]
実ユーザによる情報探索質問を用いて,ファVIQと呼ばれる大規模事実検証データセットを構築した。
我々の主張は自然であると証明され、語彙バイアスがほとんどなく、検証の証拠を完全に理解する必要がある。
論文 参考訳(メタデータ) (2021-07-05T17:31:44Z) - Edited Media Understanding Frames: Reasoning About the Intent and Implications of Visual Misinformation [62.68385635551825]
ディープフェイク(deepfakes)から単純な編集(deepfakes)までの多モーダルな偽情報は、社会的な重要な問題である。
この例と偽情報を広める有害な編集の違いは意図の1つである。
この意図を認識して記述することは、今日のAIシステムにとって大きな課題である。
論文 参考訳(メタデータ) (2020-12-08T20:30:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。