論文の概要: Synthesizing Artifact Dataset for Pixel-level Detection
- arxiv url: http://arxiv.org/abs/2509.19589v1
- Date: Tue, 23 Sep 2025 21:28:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.612836
- Title: Synthesizing Artifact Dataset for Pixel-level Detection
- Title(参考訳): 画素レベルの検出のための合成アーティファクトデータセット
- Authors: Dennis Menn, Feng Liang, Diana Marculescu,
- Abstract要約: ファクト検出器は、微調整中に報酬モデルとして機能することにより、画像生成モデルの性能を向上させる。
本研究では, 人工物を自動的に, 所定の領域で高品質な合成画像に注入する人工物汚濁パイプラインを提案する。
提案手法は,ConvNeXtで13.2%,Swin-Tで3.7%の性能向上を実現している。
- 参考スコア(独自算出の注目度): 16.31703475992344
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Artifact detectors have been shown to enhance the performance of image-generative models by serving as reward models during fine-tuning. These detectors enable the generative model to improve overall output fidelity and aesthetics. However, training the artifact detector requires expensive pixel-level human annotations that specify the artifact regions. The lack of annotated data limits the performance of the artifact detector. A naive pseudo-labeling approach-training a weak detector and using it to annotate unlabeled images-suffers from noisy labels, resulting in poor performance. To address this, we propose an artifact corruption pipeline that automatically injects artifacts into clean, high-quality synthetic images on a predetermined region, thereby producing pixel-level annotations without manual labeling. The proposed method enables training of an artifact detector that achieves performance improvements of 13.2% for ConvNeXt and 3.7% for Swin-T, as verified on human-labeled data, compared to baseline approaches. This work represents an initial step toward scalable pixel-level artifact annotation datasets that integrate world knowledge into artifact detection.
- Abstract(参考訳): ファクト検出器は、微調整中に報酬モデルとして機能することにより、画像生成モデルの性能を向上させることが示されている。
これらの検出器により、生成モデルは全体の出力の忠実度と美学を改善することができる。
しかし、アーティファクト検出器のトレーニングには、アーティファクト領域を指定するための高価なピクセルレベルのヒューマンアノテーションが必要である。
注釈付きデータの欠如により、アーティファクト検出器の性能が制限される。
弱い検出器を訓練し、ノイズラベルから未ラベルのイメージサファーを注釈付けするために使用する、単純な擬似ラベル付けアプローチにより、性能が低下する。
そこで本研究では,所定の領域において,人工物を自動的にクリーンで高品質な合成画像に注入し,手動によるラベル付けをせずにピクセルレベルのアノテーションを生成する人工物汚濁パイプラインを提案する。
提案手法により,ConvNeXtでは13.2%,Swin-Tでは3.7%の性能向上を実現した人工物検出装置のトレーニングが可能となった。
この作業は、世界知識をアーティファクト検出に統合するスケーラブルなピクセルレベルのアーティファクトアノテーションデータセットへの最初のステップである。
関連論文リスト
- LEGION: Learning to Ground and Explain for Synthetic Image Detection [49.958951540410816]
提案するSynthScarsは,12,236個の完全合成画像からなる高品質で多様なデータセットである。
4つの異なる画像コンテンツタイプ、3つのアーティファクトカテゴリ、ピクセルレベルのセグメンテーション、詳細なテキスト説明、アーティファクトカテゴリラベルを含んでいる。
人工物の検出,分割,説明を統合するマルチモーダル大規模言語モデル(MLLM)に基づく画像偽造解析フレームワークであるLEGIONを提案する。
論文 参考訳(メタデータ) (2025-03-19T14:37:21Z) - DiffDoctor: Diagnosing Image Diffusion Models Before Treating [57.82359018425674]
DiffDoctorは2段階のパイプラインで、画像拡散モデルがより少ないアーティファクトを生成するのを支援する。
我々は100万以上の欠陥のある合成画像のデータセットを収集し、効率的なHuman-in-the-loopアノテーションプロセスを構築した。
次に、学習したアーティファクト検出器が第2段階に関与し、ピクセルレベルのフィードバックを提供することで拡散モデルを最適化する。
論文 参考訳(メタデータ) (2025-01-21T18:56:41Z) - Understanding and Improving Training-Free AI-Generated Image Detections with Vision Foundation Models [68.90917438865078]
顔合成と編集のためのディープフェイク技術は、生成モデルに重大なリスクをもたらす。
本稿では,モデルバックボーン,タイプ,データセット間で検出性能がどう変化するかを検討する。
本稿では、顔画像のパフォーマンスを向上させるContrastive Blurと、ノイズタイプのバイアスに対処し、ドメイン間のパフォーマンスのバランスをとるMINDERを紹介する。
論文 参考訳(メタデータ) (2024-11-28T13:04:45Z) - Improving Synthetic Image Detection Towards Generalization: An Image Transformation Perspective [45.210030086193775]
現在の合成画像検出(SID)パイプラインは、主に普遍的なアーティファクト機能を構築することを目的としている。
3つの簡単な画像変換を持つ軽量かつ効率的な検出器SAFEを提案する。
我々のパイプラインは、新しい最先端のパフォーマンスを実現し、既存の手法に対する平均精度は4.5%、平均精度は2.9%向上した。
論文 参考訳(メタデータ) (2024-08-13T09:01:12Z) - Improving Quality Control of Whole Slide Images by Explicit Artifact Augmentation [3.202891318772088]
本研究は, スライド画像全体をアーティファクトで拡張する手法を提案する。
このツールは、外部ライブラリから所定の病理組織データセットにアーティファクトをシームレスに生成し、ブレンドする。
この評価は, アーティファクトの分類における有用性を示し, アーティファクトの種類によって0.10から0.01AUROCの改善を示す。
論文 参考訳(メタデータ) (2024-06-17T13:39:31Z) - Artifact Feature Purification for Cross-domain Detection of AI-generated Images [38.18870936370117]
既存の画像検出方法は、ドメイン外ジェネレータや画像シーンに直面すると、性能低下に悩まされる。
本稿では, 人工物抽出ネットワーク(APN)を提案し, 明示的で暗黙的な浄化プロセスを通じて生成した画像から人工物抽出を容易にする。
クロスジェネレータ検出では、APNの平均精度は、GenImageデータセットの以前の10メソッドよりも5.6% 16.4%高く、DiffusionForensicsデータセットの1.7% 50.1%である。
論文 参考訳(メタデータ) (2024-03-17T11:17:06Z) - Perceptual Artifacts Localization for Image Synthesis Tasks [59.638307505334076]
我々は10,168個の画像からなる新しいデータセットを導入し,それぞれに知覚的アーティファクトラベルを付加した。
提案したデータセットに基づいてトレーニングされたセグメンテーションモデルは、さまざまなタスクにまたがるアーティファクトを効果的にローカライズする。
生成した画像の知覚的アーティファクトをシームレスに修正する,革新的なズームイン・インペインティングパイプラインを提案する。
論文 参考訳(メタデータ) (2023-10-09T10:22:08Z) - Identifying Invariant Texture Violation for Robust Deepfake Detection [17.306386179823576]
Invariant Texture Learning frameworkは,低画質で公開されたデータセットにのみアクセスすることができる。
本手法は, 被写体から転写したテクスチャによって, 被写体表面の微視的顔のテクスチャが必然的に侵害されることを前提とした。
論文 参考訳(メタデータ) (2020-12-19T03:02:15Z) - Weakly- and Semi-Supervised Probabilistic Segmentation and
Quantification of Ultrasound Needle-Reverberation Artifacts to Allow Better
AI Understanding of Tissue Beneath Needles [0.0]
人工物から所望の組織ベースのピクセル値を分離する確率論的ニードル・アンド・レバーベーション・アーティファクトセグメンテーション法を提案する。
提案手法は,最先端のアーティファクトセグメンテーション性能と一致し,アーティファクトの画素ごとのコントリビューションを,基礎となる解剖学に対して推定する新しい標準を設定する。
論文 参考訳(メタデータ) (2020-11-24T08:34:38Z) - EHSOD: CAM-Guided End-to-end Hybrid-Supervised Object Detection with
Cascade Refinement [53.69674636044927]
本稿では,エンド・ツー・エンドのハイブリッド型オブジェクト検出システムであるEHSODについて述べる。
完全なアノテートと弱いアノテートの両方で、ワンショットでトレーニングすることができる。
完全なアノテートされたデータの30%しか持たない複数のオブジェクト検出ベンチマークで、同等の結果が得られる。
論文 参考訳(メタデータ) (2020-02-18T08:04:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。