論文の概要: EvoGuard: An Extensible Agentic RL-based Framework for Practical and Evolving AI-Generated Image Detection
- arxiv url: http://arxiv.org/abs/2603.17343v1
- Date: Wed, 18 Mar 2026 04:14:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.508688
- Title: EvoGuard: An Extensible Agentic RL-based Framework for Practical and Evolving AI-Generated Image Detection
- Title(参考訳): EvoGuard:AI生成画像検出の実践と発展のための拡張可能なエージェントRLベースのフレームワーク
- Authors: Chenyang Zhu, Maorong Wang, Jun Liu, Ching-Chun Chang, Isao Echizen,
- Abstract要約: EvoGuardはAIGI検出のための新しいエージェントフレームワークである。
様々な最先端(SOTA)のMLLMと非MLLM検出器を呼び出し可能なツールとしてカプセル化している。
正と負のサンプル間のバイアスを緩和しながらSOTA精度を達成する。
- 参考スコア(独自算出の注目度): 19.507664662884086
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid proliferation of AI-Generated Images (AIGIs) has introduced severe risks of misinformation, making AIGI detection a critical yet challenging task. While traditional detection paradigms mainly rely on low-level features, recent research increasingly focuses on leveraging the general understanding ability of Multimodal Large Language Models (MLLMs) to achieve better generalization, but still suffer from limited extensibility and expensive training data annotations. To better address complex and dynamic real-world environments, we propose EvoGuard, a novel agentic framework for AIGI detection. It encapsulates various state-of-the-art (SOTA) off-the-shelf MLLM and non-MLLM detectors as callable tools, and coordinates them through a capability-aware dynamic orchestration mechanism. Empowered by the agent's capacities for autonomous planning and reflection, it intelligently selects suitable tools for given samples, reflects intermediate results, and decides the next action, reaching a final conclusion through multi-turn invocation and reasoning. This design effectively exploits the complementary strengths among heterogeneous detectors, transcending the limits of any single model. Furthermore, optimized by a GRPO-based Agentic Reinforcement Learning algorithm using only low-cost binary labels, it eliminates the reliance on fine-grained annotations. Extensive experiments demonstrate that EvoGuard achieves SOTA accuracy while mitigating the bias between positive and negative samples. More importantly, it allows the plug-and-play integration of new detectors to boost overall performance in a train-free manner, offering a highly practical, long-term solution to ever-evolving AIGI threats. Source code will be publicly available upon acceptance.
- Abstract(参考訳): AIGI(AI-Generated Images)の急速な普及は、誤報の深刻なリスクをもたらし、AIGI検出が重要で困難な課題となっている。
従来の検出パラダイムは主に低レベル機能に依存しているが、近年の研究は、より高度な一般化を実現するためにマルチモーダル大言語モデル(MLLM)の一般的な理解能力を活用することに重点を置いているが、それでも限られた拡張性と高価なトレーニングデータアノテーションに悩まされている。
本稿では,AIGI検出のためのエージェントフレームワークであるEvoGuardを提案する。
様々な最先端(SOTA)の既製のMLLMと非MLLM検出器を呼び出し可能なツールとしてカプセル化し、能力に配慮した動的オーケストレーション機構を通じてそれらを調整する。
自律的な計画とリフレクションのためのエージェントの能力によって、与えられたサンプルに適したツールをインテリジェントに選択し、中間結果を反映し、次のアクションを決定し、マルチターンの呼び出しと推論を通じて最終的な結論に達する。
この設計は、異種検出器間の相補的な強度を効果的に利用し、任意の単一モデルの限界を超越している。
さらに,GRPOをベースとしたエージェント強化学習アルゴリズムを低コストなバイナリラベルのみを用いて最適化することにより,微粒化アノテーションへの依存を解消する。
大規模な実験では、EvoGuardは正と負のサンプル間のバイアスを緩和しながらSOTAの精度を達成している。
さらに重要なのは、新しい検出器のプラグ・アンド・プレイの統合により、列車無しで全体のパフォーマンスが向上し、AIGIの脅威に対して非常に実用的で長期的な解決策を提供することだ。
ソースコードは受理時に公開される。
関連論文リスト
- ComAgent: Multi-LLM based Agentic AI Empowered Intelligent Wireless Networks [62.031889234230725]
6Gネットワークは複雑な層間最適化に依存している。
数学の定式化に高レベルの意図を手動で翻訳することは、まだボトルネックである。
我々はマルチLLMエージェントAIフレームワークであるComAgentを紹介する。
論文 参考訳(メタデータ) (2026-01-27T13:43:59Z) - Multi-Agent Collaborative Intrusion Detection for Low-Altitude Economy IoT: An LLM-Enhanced Agentic AI Framework [60.72591149679355]
低高度経済の急速な拡大により、インターネット・オブ・モノ(LAE-IoT)ネットワークは前例のないセキュリティ上の課題を生んだ。
従来の侵入検知システムは、空中IoT環境のユニークな特徴に対処できない。
LAE-IoTネットワークにおける侵入検出を強化するための大規模言語モデル(LLM)対応エージェントAIフレームワークを提案する。
論文 参考訳(メタデータ) (2026-01-25T12:47:25Z) - Improving Deepfake Detection with Reinforcement Learning-Based Adaptive Data Augmentation [60.04281435591454]
CRDA(Curriculum Reinforcement-Learning Data Augmentation)は、マルチドメインの偽造機能を段階的にマスターするための検出器を導く新しいフレームワークである。
私たちのアプローチの中心は、強化学習と因果推論を統合することです。
提案手法は検出器の一般化性を大幅に向上し,複数のクロスドメインデータセット間でSOTA法より優れている。
論文 参考訳(メタデータ) (2025-11-10T12:45:52Z) - DetectAnyLLM: Towards Generalizable and Robust Detection of Machine-Generated Text Across Domains and Models [60.713908578319256]
タスク指向の知識で検出器を最適化するために,DDL(Direct Discrepancy Learning)を提案する。
そこで本研究では,最新のMGTD性能を実現する統合検出フレームワークであるTectAnyLLMを紹介する。
MIRAGEは5つのテキストドメインにまたがる10のコーパスから人書きテキストをサンプリングし、17個の最先端のLLMを使用して再生成または修正する。
論文 参考訳(メタデータ) (2025-09-15T10:59:57Z) - Agentic Reinforced Policy Optimization [66.96989268893932]
検証可能な報酬付き大規模強化学習(RLVR)は,大規模言語モデル(LLM)を単一ターン推論タスクに活用する効果を実証している。
現在のRLアルゴリズムは、モデル固有のロングホライゾン推論能力と、マルチターンツールインタラクションにおけるその習熟性のバランスが不十分である。
エージェント強化ポリシー最適化(ARPO: Agentic Reinforced Policy Optimization)は,マルチターンLDMエージェントを学習するためのエージェントRLアルゴリズムである。
論文 参考訳(メタデータ) (2025-07-26T07:53:11Z) - ReVeal: Self-Evolving Code Agents via Reliable Self-Verification [11.875519107421312]
自己検証とツールベースの評価を通じてコード生成を進化させる強化学習フレームワークであるReVealを紹介する。
推論において、この強化された自己検証により、3つしかトレーニングされていないLiveCodeBenchでは、自己構築されたテストとツールフィードバックを使用して、20ターン以上のコードを継続的に進化させることができる。
これらの調査結果は、RLトレーニングとテストタイムスケーリングのためのスケーラブルなパラダイムとしてのReVealの約束を強調し、より堅牢で自律的なAIエージェントへの道を開いた。
論文 参考訳(メタデータ) (2025-06-13T03:41:04Z) - ReAgent-V: A Reward-Driven Multi-Agent Framework for Video Understanding [71.654781631463]
ReAgent-Vは、新しいエージェントビデオ理解フレームワークである。
推論中に効率の良いフレーム選択とリアルタイムの報酬生成を統合する。
12のデータセットに対する大規模な実験は、一般化と推論において大きな成果を上げている。
論文 参考訳(メタデータ) (2025-06-02T04:23:21Z) - An Adaptive End-to-End IoT Security Framework Using Explainable AI and LLMs [1.9662978733004601]
本稿では,機械学習(ML),説明可能なAI(XAI),大規模言語モデル(LLM)を活用した,リアルタイムIoT攻撃検出および応答のための革新的なフレームワークを提案する。
私たちのエンドツーエンドフレームワークは、モデル開発からデプロイメントへのシームレスな移行を促進するだけでなく、既存の研究でしばしば欠落している現実世界のアプリケーション機能も表しています。
論文 参考訳(メタデータ) (2024-09-20T03:09:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。