論文の概要: E-FreeM2: Efficient Training-Free Multi-Scale and Cross-Modal News Verification via MLLMs
- arxiv url: http://arxiv.org/abs/2506.20944v1
- Date: Thu, 26 Jun 2025 02:20:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-27 19:53:09.944182
- Title: E-FreeM2: Efficient Training-Free Multi-Scale and Cross-Modal News Verification via MLLMs
- Title(参考訳): E-FreeM2: MLLMによる効率的なトレーニングフリーマルチスケールおよびクロスモーダルニュース検証
- Authors: Van-Hoang Phan, Long-Khanh Pham, Dang Vu, Anh-Duy Tran, Minh-Son Dao,
- Abstract要約: 本研究では,学習不要な検索に基づくマルチモーダル事実検証システムを提案する。
我々のアプローチは、敵攻撃やデータ中毒など、従来のトレーニングベースのモデルの脆弱性を軽減します。
2つのファクトチェックベンチマークの実験でSOTAの結果が得られ、誤情報検出の有効性と各種攻撃ベクトルに対する堅牢性が確認された。
- 参考スコア(独自算出の注目度): 1.9764787123209693
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid spread of misinformation in mobile and wireless networks presents critical security challenges. This study introduces a training-free, retrieval-based multimodal fact verification system that leverages pretrained vision-language models and large language models for credibility assessment. By dynamically retrieving and cross-referencing trusted data sources, our approach mitigates vulnerabilities of traditional training-based models, such as adversarial attacks and data poisoning. Additionally, its lightweight design enables seamless edge device integration without extensive on-device processing. Experiments on two fact-checking benchmarks achieve SOTA results, confirming its effectiveness in misinformation detection and its robustness against various attack vectors, highlighting its potential to enhance security in mobile and wireless communication environments.
- Abstract(参考訳): モバイルおよび無線ネットワークにおける誤報の急速な拡散は、重大なセキュリティ上の課題を浮き彫りにしている。
本研究では,事前学習された視覚言語モデルと大規模言語モデルを利用して,信頼度評価を行う,学習不要なマルチモーダル事実検証システムを提案する。
信頼されたデータソースを動的に検索し、相互参照することにより、当社のアプローチは、敵攻撃やデータ中毒といった従来のトレーニングベースモデルの脆弱性を軽減します。
さらに、軽量な設計により、デバイス上での広範な処理なしに、シームレスなエッジデバイス統合が可能になる。
2つのファクトチェックベンチマークの実験はSOTAの結果を達成し、誤情報検出の有効性と各種攻撃ベクトルに対する堅牢性を確認し、モバイルおよび無線通信環境におけるセキュリティ向上の可能性を強調した。
関連論文リスト
- In-Context Experience Replay Facilitates Safety Red-Teaming of Text-to-Image Diffusion Models [104.94706600050557]
テキスト・ツー・イメージ(T2I)モデルは目覚ましい進歩を見せているが、有害なコンテンツを生成する可能性はまだMLコミュニティにとって重要な関心事である。
ICERは,解釈可能かつ意味論的に意味のある重要なプロンプトを生成する新しい赤チームフレームワークである。
我々の研究は、より堅牢な安全メカニズムをT2Iシステムで開発するための重要な洞察を提供する。
論文 参考訳(メタデータ) (2024-11-25T04:17:24Z) - False Data Injection Attack Detection in Edge-based Smart Metering Networks with Federated Learning [1.2026018242953707]
本稿では、効率的なフェデレート学習フレームワークを開発することにより、新たなプライバシ保存型偽データ注入(FDI)攻撃検出を提案する。
ネットワークエッジに位置する分散エッジサーバは、MLベースのFDI攻撃検出モデルを実行し、トレーニングされたモデルをグリッドオペレータと共有する。
論文 参考訳(メタデータ) (2024-11-02T17:23:08Z) - FedMADE: Robust Federated Learning for Intrusion Detection in IoT Networks Using a Dynamic Aggregation Method [7.842334649864372]
さまざまな分野にわたるIoT(Internet of Things)デバイスは、深刻なネットワークセキュリティ上の懸念をエスカレートしている。
サイバー攻撃分類のための従来の機械学習(ML)ベースの侵入検知システム(IDS)は、IoTデバイスからトラフィック分析のための集中サーバへのデータ送信を必要とし、深刻なプライバシー上の懸念を引き起こす。
我々はFedMADEという新しい動的アグリゲーション手法を紹介した。この手法はデバイスをトラフィックパターンによってクラスタリングし、その全体的なパフォーマンスに対する貢献に基づいてローカルモデルを集約する。
論文 参考訳(メタデータ) (2024-08-13T18:42:34Z) - How to Train Your Fact Verifier: Knowledge Transfer with Multimodal Open Models [95.44559524735308]
大規模言語またはマルチモーダルモデルに基づく検証は、偽コンテンツや有害コンテンツの拡散を緩和するためのオンラインポリシングメカニズムをスケールアップするために提案されている。
我々は,知識伝達の初期研究を通じて,継続的な更新を行うことなく基礎モデルの性能向上の限界をテストする。
最近の2つのマルチモーダルなファクトチェックベンチマークであるMochegとFakedditの結果は、知識伝達戦略がファクドディットのパフォーマンスを最先端よりも1.7%向上し、Mochegのパフォーマンスを2.9%向上させることができることを示唆している。
論文 参考訳(メタデータ) (2024-06-29T08:39:07Z) - Transfer Learning in Pre-Trained Large Language Models for Malware Detection Based on System Calls [3.5698678013121334]
本研究は,システムコールデータに基づいてマルウェアを分類するために,大規模言語モデル(LLM)を利用した新しいフレームワークを提案する。
1TBを超えるシステムコールのデータセットによる実験では、BigBirdやLongformerのようなより大きなコンテキストサイズを持つモデルの方が精度が良く、F1スコアは約0.86である。
このアプローチは、ハイテイク環境におけるリアルタイム検出の大きな可能性を示し、サイバー脅威の進化に対する堅牢なソリューションを提供する。
論文 参考訳(メタデータ) (2024-05-15T13:19:43Z) - Effective Intrusion Detection in Heterogeneous Internet-of-Things Networks via Ensemble Knowledge Distillation-based Federated Learning [52.6706505729803]
我々は、分散化された侵入検知システムの共有モデル(IDS)を協調訓練するために、フェデレートラーニング(FL)を導入する。
FLEKDは従来のモデル融合法よりも柔軟な凝集法を実現する。
実験の結果,提案手法は,速度と性能の両面で,局所訓練と従来のFLよりも優れていた。
論文 参考訳(メタデータ) (2024-01-22T14:16:37Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。