論文の概要: Learning Transformation-Aware Embeddings for Image Forensics
- arxiv url: http://arxiv.org/abs/2001.04547v1
- Date: Mon, 13 Jan 2020 22:01:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-11 23:23:24.138896
- Title: Learning Transformation-Aware Embeddings for Image Forensics
- Title(参考訳): 画像解析のための学習変換アウェア埋め込み
- Authors: Aparna Bharati, Daniel Moreira, Patrick Flynn, Anderson Rocha, Kevin
Bowyer, Walter Scheirer
- Abstract要約: Image Provenance Analysisは、コンテンツを共有するさまざまな操作されたイメージバージョン間の関係を見つけることを目的としている。
証明分析のための主要なサブプロブレムの1つは、完全なコンテンツを共有したり、ほぼ重複している画像の編集順序である。
本稿では,1つの画像から生成した画像に対して,変換を通じて妥当な順序付けを行うための,新しい深層学習に基づくアプローチを提案する。
- 参考スコア(独自算出の注目度): 15.484408315588569
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A dramatic rise in the flow of manipulated image content on the Internet has
led to an aggressive response from the media forensics research community. New
efforts have incorporated increased usage of techniques from computer vision
and machine learning to detect and profile the space of image manipulations.
This paper addresses Image Provenance Analysis, which aims at discovering
relationships among different manipulated image versions that share content.
One of the main sub-problems for provenance analysis that has not yet been
addressed directly is the edit ordering of images that share full content or
are near-duplicates. The existing large networks that generate image
descriptors for tasks such as object recognition may not encode the subtle
differences between these image covariates. This paper introduces a novel deep
learning-based approach to provide a plausible ordering to images that have
been generated from a single image through transformations. Our approach learns
transformation-aware descriptors using weak supervision via composited
transformations and a rank-based quadruplet loss. To establish the efficacy of
the proposed approach, comparisons with state-of-the-art handcrafted and deep
learning-based descriptors, and image matching approaches are made. Further
experimentation validates the proposed approach in the context of image
provenance analysis.
- Abstract(参考訳): インターネット上の操作された画像コンテンツの流れの劇的な増加は、メディア法医学研究コミュニティからの積極的な反応をもたらした。
新しい取り組みでは、画像操作の空間を検出し、プロファイルするコンピュータビジョンと機械学習の技術の利用が増加した。
本稿では,コンテンツを共有する異なる画像バージョン間の関係を探索することを目的とした画像プロヴァンス解析について述べる。
証明分析のための主要なサブプロブレムの1つは、完全なコンテンツを共有したり、ほぼ重複している画像の編集順序である。
オブジェクト認識などのタスクのための画像記述子を生成する既存の大規模ネットワークは、これらの画像間の微妙な違いを符号化することができない。
本稿では,1つの画像から生成した画像に対して,変換を通じて妥当な順序付けを行うための,新しい深層学習に基づくアプローチを提案する。
本手法は,複合変換とランクベースの四重項損失による弱い監督を用いて,変換認識記述子を学習する。
提案手法の有効性を確立するために,最新技術による手作りおよび深層学習に基づく記述子との比較,画像マッチング手法を提案する。
さらなる実験は、画像プロファイランス分析の文脈で提案されたアプローチを検証する。
関連論文リスト
- CricaVPR: Cross-image Correlation-aware Representation Learning for Visual Place Recognition [73.51329037954866]
視覚的位置認識のための画像間相関認識を用いたロバストなグローバル表現手法を提案する。
本手法では,バッチ内の複数の画像の相関にアテンション機構を用いる。
本手法は,訓練時間を大幅に短縮し,最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-02-29T15:05:11Z) - Improving Generalization of Image Captioning with Unsupervised Prompt
Learning [63.26197177542422]
画像キャプションの一般化(GeneIC)は、アノテーション付きデータを必要とせずに、ターゲットドメインのドメイン固有のプロンプトベクトルを学習する。
GeneICは、学習済みのContrastive Language-Image Pre-Training (CLIP)モデルと視覚的および言語的モダリティを一致させる。
論文 参考訳(メタデータ) (2023-08-05T12:27:01Z) - Improving Human-Object Interaction Detection via Virtual Image Learning [68.56682347374422]
人間-物体相互作用(Human-Object Interaction、HOI)は、人間と物体の相互作用を理解することを目的としている。
本稿では,仮想画像学習(Virtual Image Leaning, VIL)による不均衡分布の影響を軽減することを提案する。
ラベルからイメージへの新たなアプローチであるMultiple Steps Image Creation (MUSIC)が提案され、実際の画像と一貫した分布を持つ高品質なデータセットを作成する。
論文 参考訳(メタデータ) (2023-08-04T10:28:48Z) - Masked and Adaptive Transformer for Exemplar Based Image Translation [16.93344592811513]
ドメイン間のセマンティックマッチングは難しい。
正確なクロスドメイン対応を学習するためのマスク付き適応変換器(MAT)を提案する。
品質識別型スタイル表現を得るための新しいコントラスト型スタイル学習法を考案する。
論文 参考訳(メタデータ) (2023-03-30T03:21:14Z) - Review Neural Networks about Image Transformation Based on IGC Learning
Framework with Annotated Information [13.317099281011515]
コンピュータビジョン(CV)では、多くの問題が画像変換タスク(セマンティックセグメンテーションやスタイル転送など)と見なすことができる。
一部の調査では、画像変換の一分野であるスタイル変換やイメージ・ツー・イメージ変換の研究についてのみレビューしている。
本稿では,独立学習,指導学習,協調学習を含む新しい学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-21T07:27:47Z) - Saliency Constrained Arbitrary Image Style Transfer using SIFT and DCNN [22.57205921266602]
一般的なニューラルスタイルの転送方法を使用する場合、スタイル画像のテクスチャや色は通常、コンテンツ画像に不完全に転送される。
本稿では,その効果を低減・回避するための新しいサリエンシ制約手法を提案する。
実験により、ソースイメージの正当性マップは正しいマッチングを見つけ出し、アーティファクトを避けるのに役立つことが示された。
論文 参考訳(メタデータ) (2022-01-14T09:00:55Z) - RTIC: Residual Learning for Text and Image Composition using Graph
Convolutional Network [19.017377597937617]
画像検索のための画像とテキストの構成学習について検討する。
本稿では,グラフ畳み込みネットワーク(gcn)と既存の合成手法を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2021-04-07T09:41:52Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z) - Learning Spatial Relationships between Samples of Patent Image Shapes [14.37369942979269]
深層学習(DL)の成功を橋渡しするバイナリ画像に適した手法を提案する。
本手法は、二元画像から興味の形状を抽出し、非ユークリッド幾何学的ニューラルネットワークアーキテクチャを適用して、形状の局所的および大域的空間的関係を学習する。
論文 参考訳(メタデータ) (2020-04-12T23:05:19Z) - Cross-domain Correspondence Learning for Exemplar-based Image
Translation [59.35767271091425]
本稿では,異なる領域の入力からフォトリアリスティックな画像を合成する,例題に基づく画像翻訳のためのフレームワークを提案する。
出力は、例において意味的に対応するオブジェクトと整合したスタイル(例えば、色、テクスチャ)を持つ。
本手法は画像品質の面で最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-04-12T09:10:57Z) - Fine-grained Image-to-Image Transformation towards Visual Recognition [102.51124181873101]
我々は,入力画像の同一性を保った画像を生成するために,微細なカテゴリで画像を変換することを目的としている。
我々は、画像のアイデンティティと非関連要因をアンハングルするために、生成的敵ネットワークに基づくモデルを採用する。
CompCarsとMulti-PIEデータセットの実験では、我々のモデルが生成した画像のアイデンティティを、最先端の画像-画像変換モデルよりもはるかによく保存していることが示された。
論文 参考訳(メタデータ) (2020-01-12T05:26:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。