論文の概要: Learning Feature Disentanglement and Dynamic Fusion for Recaptured Image
Forensic
- arxiv url: http://arxiv.org/abs/2206.06103v1
- Date: Mon, 13 Jun 2022 12:47:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-14 15:49:30.942619
- Title: Learning Feature Disentanglement and Dynamic Fusion for Recaptured Image
Forensic
- Title(参考訳): recaptured image forensic における学習特徴のばらつきと動的融合
- Authors: Shuyu Miao, Lin Zheng, Hong Jin
- Abstract要約: 我々は、画像再キャプチャーの4つのパターン、すなわち、モアレ再キャプチャー、エッジ再キャプチャー、アーティファクト再キャプチャー、その他の再キャプチャーとして、画像再キャプチャータスクを明示的に再定義する。
本稿では,異なる再キャプチャパターン認識をカバーするために,最も効果的な再キャプチャ表現を適応的に学習する機能ディスタングルとダイナミックフュージョン(FDDF)モデルを提案する。
我々の知る限り、我々はまず、再適応画像法学のための一般的なモデルと一般的な実シーンの大規模データセットを提案する。
- 参考スコア(独自算出の注目度): 7.820667552233989
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image recapture seriously breaks the fairness of artificial intelligent (AI)
systems, which deceives the system by recapturing others' images. Most of the
existing recapture models can only address a single pattern of recapture (e.g.,
moire, edge, artifact, and others) based on the datasets with simulated
recaptured images using fixed electronic devices. In this paper, we explicitly
redefine image recapture forensic task as four patterns of image recapture
recognition, i.e., moire recapture, edge recapture, artifact recapture, and
other recapture. Meanwhile, we propose a novel Feature Disentanglement and
Dynamic Fusion (FDDF) model to adaptively learn the most effective recapture
feature representation for covering different recapture pattern recognition.
Furthermore, we collect a large-scale Real-scene Universal Recapture (RUR)
dataset containing various recapture patterns, which is about five times the
number of previously published datasets. To the best of our knowledge, we are
the first to propose a general model and a general real-scene large-scale
dataset for recaptured image forensic. Extensive experiments show that our
proposed FDDF can achieve state-of-the-art performance on the RUR dataset.
- Abstract(参考訳): 画像再キャプチャーは、他人の画像を再キャプチャすることでシステムを欺く人工知能(ai)システムの公平性を損なう。
既存の再キャプチャモデルのほとんどは、固定された電子デバイスを使用してシミュレーションされた再キャプチャされた画像を含むデータセットに基づいて、単一の再キャプチャパターン(moire、エッジ、アーティファクトなど)にのみ対処できる。
本稿では,画像再キャプチャータスクを画像再キャプチャー認識の4つのパターン,すなわちモアレ再キャプチャー,エッジ再キャプチャー,アーティファクト再キャプチャー,その他の再キャプチャーとして明示的に再定義する。
一方,異なる再キャプチャパターン認識をカバーするために,最も効果的な再キャプチャ特徴表現を適応的に学習する特徴分散と動的融合(FDDF)モデルを提案する。
さらに,これまでに公表したデータセットの約5倍の多種多様なリキャプチャパターンを含む,大規模な実時間ユニバーサルリキャプチャ(rur)データセットを収集した。
我々の知る限り、我々はまず、再適応画像法学のための一般的なモデルと一般的な実シーンの大規模データセットを提案する。
大規模な実験により,提案したFDDFはRURデータセット上で最先端の性能を達成できることが示された。
関連論文リスト
- A Survey on All-in-One Image Restoration: Taxonomy, Evaluation and Future Trends [67.43992456058541]
画像復元(IR)とは、ノイズ、ぼかし、気象効果などの劣化を除去しながら、画像の視覚的品質を改善する過程である。
従来のIR手法は、一般的に特定の種類の劣化をターゲットとしており、複雑な歪みを伴う現実のシナリオにおいて、その効果を制限している。
オールインワン画像復元(AiOIR)パラダイムが登場し、複数の劣化タイプに順応的に対処する統一されたフレームワークを提供する。
論文 参考訳(メタデータ) (2024-10-19T11:11:09Z) - HyperDet: Generalizable Detection of Synthesized Images by Generating and Merging A Mixture of Hyper LoRAs [17.88153857572688]
我々はHyperDetと呼ばれる新しい、一般化可能な検出フレームワークを紹介した。
本研究では,画素とセマンティックアーティファクトを効果的にバランスさせる目的関数を提案する。
我々の研究は、事前訓練された大きな視覚モデルに基づいて、一般化可能なドメイン固有の偽画像検出器を確立する新しい方法である。
論文 参考訳(メタデータ) (2024-10-08T13:43:01Z) - Zero-Shot Detection of AI-Generated Images [54.01282123570917]
AI生成画像を検出するゼロショットエントロピー検出器(ZED)を提案する。
機械によるテキスト検出の最近の研究に触発された私たちのアイデアは、分析対象の画像が実際の画像のモデルと比較してどれだけ驚くかを測定することである。
ZEDは精度の点でSoTAよりも平均3%以上改善されている。
論文 参考訳(メタデータ) (2024-09-24T08:46:13Z) - Rethinking Image Super-Resolution from Training Data Perspectives [54.28824316574355]
画像超解像(SR)におけるトレーニングデータの効果について検討する。
そこで我々は,自動画像評価パイプラインを提案する。
その結果, (i) 圧縮アーチファクトの少ないデータセット, (ii) 被写体数によって判断される画像内多様性の高いデータセット, (iii) ImageNet や PASS からの大量の画像がSR性能に肯定的な影響を与えることがわかった。
論文 参考訳(メタデータ) (2024-09-01T16:25:04Z) - On quantifying and improving realism of images generated with diffusion [50.37578424163951]
与えられた画像の5つの統計的測度から算出した画像リアリズムスコア(IRS)と呼ばれるメトリクスを提案する。
IRSは、与えられた画像を実または偽のものとして分類する手段として容易に利用できる。
我々は,安定拡散モデル (SDM) , Dalle2, Midjourney, BigGAN による偽画像の検出に成功して,提案したIRSのモデルおよびデータに依存しない性質を実験的に確立した。
このデータセットは、高品質の4つのモデルによって生成される100のクラスに対して1,000のサンプルを提供します。
論文 参考訳(メタデータ) (2023-09-26T08:32:55Z) - Towards Real-World Burst Image Super-Resolution: Benchmark and Method [93.73429028287038]
本稿では,複数のフレームから画像の詳細を忠実に再構成する大規模リアルタイムバースト超解像データセットであるRealBSRを確立する。
また,FBAnet(Federated Burst Affinity Network)を導入し,実世界の画像劣化下での画像間の非自明な画素幅の変位について検討する。
論文 参考訳(メタデータ) (2023-09-09T14:11:37Z) - RBSR: Efficient and Flexible Recurrent Network for Burst
Super-Resolution [57.98314517861539]
バースト超解像(BurstSR)は、高解像度(HR)画像を低解像度(LR)画像と雑音画像から再構成することを目的としている。
本稿では,効率よくフレキシブルなリカレントネットワークでフレーム単位のキューを融合させることを提案する。
論文 参考訳(メタデータ) (2023-06-30T12:14:13Z) - Understanding invariance via feedforward inversion of discriminatively
trained classifiers [30.23199531528357]
過去の研究では、出力ログに余計な視覚的詳細が残っていることが判明した。
極めて高い忠実度を再現するフィードフォワードインバージョンモデルを開発する。
私たちのアプローチはBigGANをベースにしており、1ホットクラスのラベルの代わりにロジットのコンディショニングを行います。
論文 参考訳(メタデータ) (2021-03-15T17:56:06Z) - Bayesian Image Reconstruction using Deep Generative Models [7.012708932320081]
本研究では,最先端(sota)生成モデルを用いて強力な画像先行モデルを構築する。
BRGM (Bayesian Reconstruction through Generative Models) と呼ばれる本手法では,1つの事前学習されたジェネレータモデルを用いて,異なる画像復元タスクを解く。
論文 参考訳(メタデータ) (2020-12-08T17:11:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。