論文の概要: Are Detectors Fair to Indian IP-AIGC? A Cross-Generator Study
- arxiv url: http://arxiv.org/abs/2512.02850v1
- Date: Tue, 02 Dec 2025 15:03:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-03 21:04:45.940674
- Title: Are Detectors Fair to Indian IP-AIGC? A Cross-Generator Study
- Title(参考訳): 検出器はインドのIP-AIGCに公平か? クロスジェネレータによる研究
- Authors: Vishal Dubey, Pallavi Tyagi,
- Abstract要約: インドおよび南アジアにおけるIP-AIGC検出に関する最初の体系的研究について述べる。
商用のWeb-UIジェネレータを用いた2つのIP-AIGCテストセット(HIDF-img-ip-genaiとHIDF-vid-ip-genai)を構築した。
我々は、事前訓練(PT)と微調整(FT)による2つの最先端検出器(AIDEとEffort)の評価を行い、AUC、AP、EER、精度を報告する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern image editors can produce identity-preserving AIGC (IP-AIGC), where the same person appears with new attire, background, or lighting. The robustness and fairness of current detectors in this regime remain unclear, especially for under-represented populations. We present what we believe is the first systematic study of IP-AIGC detection for Indian and South-Asian faces, quantifying cross-generator generalization and intra-population performance. We assemble Indian-focused training splits from FairFD and HAV-DF, and construct two held-out IP-AIGC test sets (HIDF-img-ip-genai and HIDF-vid-ip-genai) using commercial web-UI generators (Gemini and ChatGPT) with identity-preserving prompts. We evaluate two state-of-the-art detectors (AIDE and Effort) under pretrained (PT) and fine-tuned (FT) regimes and report AUC, AP, EER, and accuracy. Fine-tuning yields strong in-domain gains (for example, Effort AUC 0.739 to 0.944 on HAV-DF-test; AIDE EER 0.484 to 0.259), but consistently degrades performance on held-out IP-AIGC for Indian cohorts (for example, AIDE AUC 0.923 to 0.563 on HIDF-img-ip-genai; Effort 0.740 to 0.533), which indicates overfitting to training-generator cues. On non-IP HIDF images, PT performance remains high, which suggests a specific brittleness to identity-preserving edits rather than a generic distribution shift. Our study establishes IP-AIGC-Indian as a challenging and practically relevant scenario and motivates representation-preserving adaptation and India-aware benchmark curation to close generalization gaps in AIGC detection.
- Abstract(参考訳): 現代の画像エディタは、ID保存AIGC(IP-AIGC)を生成し、同じ人が新しい服装、背景、照明で現れる。
この体制における現在の検出器の頑丈さと公正性は、特に人口密度の低い人々にとって不明確である。
インドおよび南アジアの顔に対するIP-AIGC検出に関する最初の体系的研究であり、クロスジェネレータの一般化と人口内性能を定量化する。
本研究では,FairFD と HAV-DF からインドに焦点を絞ったトレーニングスプリットを組み立て,IP-AIGC テストセット (HIDF-img-ip-genai と HIDF-vid-ip-genai ) を構築した。
我々は、事前訓練(PT)と微調整(FT)による2つの最先端検出器(AIDEとEffort)の評価を行い、AUC、AP、EER、精度を報告する。
Effort AUC 0.739 - 0.944 (HAV-DF-test)、AIDE EER 0.484 - 0.259 (AIDE AUC 0.923 - 0.563 (HIDF-img-ip-genai)、Effort 0.740 - 0.533) は、インドのコホートに対するホールドアウトIP-AIGCの性能を継続的に低下させる。
非IP HIDF画像では、PT性能は高いままであり、一般的な分布シフトではなく、ID保存編集の脆さを示唆している。
本研究は,IP-AIGC-Indianを困難かつ実践的なシナリオとして確立し,AIGC検出における一般化ギャップを埋めるため,表現保存適応とインド対応ベンチマークキュレーションを動機づけるものである。
関連論文リスト
- Transferable Dual-Domain Feature Importance Attack against AI-Generated Image Detector [32.543253278021446]
最近のAI生成画像検出器(AIGI)は、クリーンな条件下で印象的な精度を達成している。
このような検出器の安全性を評価するための高度な敵攻撃を開発することは重要である。
本稿では,AIGI検出器をある程度無効化するためのDual-Domain Feature Importance Attackスキームを提案する。
論文 参考訳(メタデータ) (2025-11-19T16:03:15Z) - Breaking Latent Prior Bias in Detectors for Generalizable AIGC Image Detection [11.907536189598577]
現在のAIGC検出器は、トレーニングに使用される同じジェネレータで生成された画像に対してほぼ完璧な精度を達成するが、目に見えないジェネレータからの出力に一般化するのに苦労する。
検出器は、堅牢な生成アーティファクトを学ぶのではなく、初期ノイズベクトルから発生するパターンに関連するショートカットを学習する。
そこで我々は, 発電機の出力多様体に残る逆数例を生成するオン・マニフォールド・逆数訓練(OMAT)を提案する。
論文 参考訳(メタデータ) (2025-06-01T07:20:45Z) - Normalized Attention Guidance: Universal Negative Guidance for Diffusion Models [57.20761595019967]
注意空間にL1をベースとした正規化・精細化を施した,効率的かつトレーニング不要な機構である正規化注意誘導(NAG)を提案する。
NAGは、CFGが忠実性を維持しながら崩壊する効果的な負のガイダンスを復元する。
NAGはアーキテクチャ(UNet、DiT)、サンプリングレシスタンス(複数ステップ、複数ステップ)、モダリティ(イメージ、ビデオ)をまたいで一般化する
論文 参考訳(メタデータ) (2025-05-27T13:30:46Z) - GAIA: A Foundation Model for Operational Atmospheric Dynamics [0.83442357861662]
我々は,MAE(Masked Autoencoders)とラベルのない自己蒸留(DINO)を融合したハイブリッド自己教師型モデルGAIAを紹介する。
GAIAは、自明な日中パターンではなく、大気力学を捉える非絡み合った表現を学ぶ。
下流タスクに移行すると、GAIAは一貫してMAEのみのベースラインを上回っます。
論文 参考訳(メタデータ) (2025-05-15T05:07:09Z) - DiRecNetV2: A Transformer-Enhanced Network for Aerial Disaster Recognition [4.678150356894011]
災害評価における航空画像処理のための人工知能(AI)モデルと無人航空機の統合には、例外的な精度、計算効率、リアルタイム処理能力が必要である。
伝統的に、畳み込みニューラルネットワーク(CNN)は局所的特徴抽出の効率を示すが、大域的文脈解釈の可能性によって制限される。
視覚変換器(ViT)は、注意機構を用いることで、グローバルな文脈解釈の改善を約束するが、それでもUAVベースの災害対応アプリケーションでは未検討である。
論文 参考訳(メタデータ) (2024-10-17T15:25:13Z) - RIGID: A Training-free and Model-Agnostic Framework for Robust AI-Generated Image Detection [60.960988614701414]
RIGIDは、堅牢なAI生成画像検出のためのトレーニング不要でモデルに依存しない方法である。
RIGIDは、既存のトレーニングベースおよびトレーニング不要な検出器を著しく上回っている。
論文 参考訳(メタデータ) (2024-05-30T14:49:54Z) - DGSD: Dynamical Graph Self-Distillation for EEG-Based Auditory Spatial
Attention Detection [49.196182908826565]
AAD(Auditory Attention Detection)は、マルチスピーカー環境で脳信号からターゲット話者を検出することを目的としている。
現在のアプローチは主に、画像のようなユークリッドデータを処理するために設計された従来の畳み込みニューラルネットワークに依存している。
本稿では、入力として音声刺激を必要としないAADのための動的グラフ自己蒸留(DGSD)手法を提案する。
論文 参考訳(メタデータ) (2023-09-07T13:43:46Z) - Uncertainty-inspired Open Set Learning for Retinal Anomaly
Identification [71.06194656633447]
9つの網膜条件の基底像をトレーニングし,不確実性に着想を得たオープンセット(UIOS)モデルを構築した。
しきい値戦略を持つUIOSモデルはF1スコア99.55%、97.01%、91.91%を達成した。
UIOSは、高い不確実性スコアを正しく予測し、非ターゲットの網膜疾患、低品質の眼底画像、および非基本画像のデータセットを手動でチェックする必要があることを示唆した。
論文 参考訳(メタデータ) (2023-04-08T10:47:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。