論文の概要: Handcrafted Feature Fusion for Reliable Detection of AI-Generated Images
- arxiv url: http://arxiv.org/abs/2601.19262v1
- Date: Tue, 27 Jan 2026 06:43:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.210169
- Title: Handcrafted Feature Fusion for Reliable Detection of AI-Generated Images
- Title(参考訳): AI生成画像の信頼性検出のための手作り特徴融合
- Authors: Syed Mehedi Hasan Nirob, Moqsadur Rahman, Shamim Ehsan, Summit Haque,
- Abstract要約: 生成モデルの急速な進歩は、非常に現実的な合成画像の作成を可能にした。
このような偽コンテンツを確実に検出することは、緊急の課題である。
ディープラーニングのアプローチが現在の文献を支配している一方で、手作りの機能は解釈可能性、効率、一般化可能性に魅力的なままである。
- 参考スコア(独自算出の注目度): 0.2624902795082451
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid progress of generative models has enabled the creation of highly realistic synthetic images, raising concerns about authenticity and trust in digital media. Detecting such fake content reliably is an urgent challenge. While deep learning approaches dominate current literature, handcrafted features remain attractive for their interpretability, efficiency, and generalizability. In this paper, we conduct a systematic evaluation of handcrafted descriptors, including raw pixels, color histograms, Discrete Cosine Transform (DCT), Histogram of Oriented Gradients (HOG), Local Binary Patterns (LBP), Gray-Level Co-occurrence Matrix (GLCM), and wavelet features, on the CIFAKE dataset of real versus synthetic images. Using 50,000 training and 10,000 test samples, we benchmark seven classifiers ranging from Logistic Regression to advanced gradient-boosted ensembles (LightGBM, XGBoost, CatBoost). Results demonstrate that LightGBM consistently outperforms alternatives, achieving PR-AUC 0.9879, ROC-AUC 0.9878, F1 0.9447, and a Brier score of 0.0414 with mixed features, representing strong gains in calibration and discrimination over simpler descriptors. Across three configurations (baseline, advanced, mixed), performance improves monotonically, confirming that combining diverse handcrafted features yields substantial benefit. These findings highlight the continued relevance of carefully engineered features and ensemble learning for detecting synthetic images, particularly in contexts where interpretability and computational efficiency are critical.
- Abstract(参考訳): 生成モデルの急速な進歩により、高度に現実的な合成画像の作成が可能となり、信頼性とデジタルメディアへの信頼に関する懸念が高まった。
このような偽コンテンツを確実に検出することは、緊急の課題である。
ディープラーニングのアプローチが現在の文献を支配している一方で、手作りの機能は解釈可能性、効率、一般化可能性に魅力的なままである。
本稿では,生画素,色ヒストグラム,離散コサイン変換(DCT),配向勾配ヒストグラム(HOG),局所二分パターン(LBP),グレイレベル共起行列(GLCM),ウェーブレット特徴などの手書き記述子を実画像と合成画像のCIFAKEデータセット上で体系的に評価する。
5万のトレーニングと1万のテストサンプルを用いて、ロジスティック回帰から高度な勾配のアンサンブル(LightGBM、XGBoost、CatBoost)までの7つの分類器をベンチマークした。
その結果、LightGBMは、PR-AUC 0.9879、ROC-AUC 0.9878、F1 0.9447、混合特徴を持つブライアスコア0.0414を達成し、より単純な記述子に対する校正と差別の強力な向上を示している。
3つの構成(ベースライン、アドバンスト、ミックス)でパフォーマンスは単調に改善され、多様な手作りの特徴を組み合わせることで大きな利益をもたらすことが確認される。
これらの知見は、特に解釈可能性と計算効率が重要となる文脈において、慎重に設計された特徴と、合成画像を検出するためのアンサンブル学習の継続的な関連性を強調している。
関連論文リスト
- Knowledge-Informed Neural Network for Complex-Valued SAR Image Recognition [51.03674130115878]
本稿では,新しい「圧縮集約圧縮」アーキテクチャ上に構築された軽量なフレームワークであるKnowledge-Informed Neural Network(KINN)を紹介する。
KINNはパラメータ効率の認識における最先端を確立し、データスカースとアウト・オブ・ディストリビューションのシナリオにおいて例外的な一般化を提供する。
論文 参考訳(メタデータ) (2025-10-23T07:12:26Z) - Edge-Enhanced Vision Transformer Framework for Accurate AI-Generated Image Detection [0.0]
本稿では,視覚変換器(ViT)と新たなエッジベース画像処理モジュールを組み合わせたハイブリッド検出フレームワークを提案する。
提案手法は,自動コンテンツ検証とデジタル法医学における実世界の応用に非常に適している。
論文 参考訳(メタデータ) (2025-08-25T10:30:56Z) - From Pixels to Graphs: Deep Graph-Level Anomaly Detection on Dermoscopic Images [4.806505912512235]
グラフニューラルネットワーク(GNN)は、グラフベースの機械学習タスクの強力なアプローチとして登場した。
以前の研究では、分類や異常検出などの下流タスクに対して、画像由来のグラフ表現にGNNを適用していた。
GNNに基づくグラフレベルの異常検出における多数の画像-グラフ変換手法の有効性を厳密に比較した研究はない。
我々は、最先端のGLADモデルを用いた皮膚内視鏡画像の広範な実験を行い、純粋に教師なし、弱教師付き、完全に監督された体制における性能と効率について検討した。
論文 参考訳(メタデータ) (2025-08-15T22:16:29Z) - CO-SPY: Combining Semantic and Pixel Features to Detect Synthetic Images by AI [58.35348718345307]
実際の画像とAI生成画像を区別する現在の取り組みには、一般化が欠如している可能性がある。
既存のセマンティック機能を強化した新しいフレームワークCo-Spyを提案する。
また、5つの実画像データセットと22の最先端生成モデルからなる包括的データセットであるCo-Spy-Benchを作成します。
論文 参考訳(メタデータ) (2025-03-24T01:59:29Z) - Spot the Fake: Large Multimodal Model-Based Synthetic Image Detection with Artifact Explanation [44.246370685732444]
本稿では,一般的な合成画像とDeepFake検出タスクの両方を対象とした,大規模マルチモーダルモデルであるFakeVLMを紹介する。
FakeVLMは、本物と偽のイメージを区別し、画像アーティファクトの明確な自然言語説明を提供する。
また、FakeClueは、7つのカテゴリにまたがる10万以上の画像を含む包括的なデータセットで、自然言語のきめ細かいアーティファクトのヒントで注釈付けされています。
論文 参考訳(メタデータ) (2025-03-19T05:14:44Z) - Explainable Synthetic Image Detection through Diffusion Timestep Ensembling [30.298198387824275]
本稿では,複数の雑音の時間ステップでアンサンブルを訓練することにより,中間雑音画像の特徴を直接活用する合成画像検出手法を提案する。
人間の理解を深めるために,メートル法に基づく説明文生成と改良モジュールを導入する。
本手法は, 正解率98.91%, 正解率95.89%, 正解率95.89%, 正解率98.91%, 正解率95.89%である。
論文 参考訳(メタデータ) (2025-03-08T13:04:20Z) - Understanding and Improving Training-Free AI-Generated Image Detections with Vision Foundation Models [68.90917438865078]
顔合成と編集のためのディープフェイク技術は、生成モデルに重大なリスクをもたらす。
本稿では,モデルバックボーン,タイプ,データセット間で検出性能がどう変化するかを検討する。
本稿では、顔画像のパフォーマンスを向上させるContrastive Blurと、ノイズタイプのバイアスに対処し、ドメイン間のパフォーマンスのバランスをとるMINDERを紹介する。
論文 参考訳(メタデータ) (2024-11-28T13:04:45Z) - On quantifying and improving realism of images generated with diffusion [50.37578424163951]
与えられた画像の5つの統計的測度から算出した画像リアリズムスコア(IRS)と呼ばれるメトリクスを提案する。
IRSは、与えられた画像を実または偽のものとして分類する手段として容易に利用できる。
我々は,安定拡散モデル (SDM) , Dalle2, Midjourney, BigGAN による偽画像の検出に成功して,提案したIRSのモデルおよびデータに依存しない性質を実験的に確立した。
このデータセットは、高品質の4つのモデルによって生成される100のクラスに対して1,000のサンプルを提供します。
論文 参考訳(メタデータ) (2023-09-26T08:32:55Z) - PAIF: Perception-Aware Infrared-Visible Image Fusion for Attack-Tolerant
Semantic Segmentation [50.556961575275345]
対向シーンにおけるセグメンテーションの堅牢性を促進するための認識認識型融合フレームワークを提案する。
我々は,先進の競争相手に比べて15.3% mIOUの利得で,ロバスト性を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-08-08T01:55:44Z) - Parents and Children: Distinguishing Multimodal DeepFakes from Natural Images [60.34381768479834]
近年の拡散モデルの発展により、自然言語のテキストプロンプトから現実的なディープフェイクの生成が可能になった。
我々は、最先端拡散モデルにより生成されたディープフェイク検出に関する体系的研究を開拓した。
論文 参考訳(メタデータ) (2023-04-02T10:25:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。