論文の概要: On the Applicability of Synthetic Data for Re-Identification
- arxiv url: http://arxiv.org/abs/2212.10105v1
- Date: Tue, 20 Dec 2022 09:27:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 13:43:32.602204
- Title: On the Applicability of Synthetic Data for Re-Identification
- Title(参考訳): 再同定のための合成データの適用性について
- Authors: J\'er\^ome Rutinowski, Bhargav Vankayalapati, Nils Schwenzfeier,
Maribel Acosta, Christopher Reining
- Abstract要約: この貢献は、データセット拡張のためのEPALパレットブロックの画像にGAN(Generative Adversarial Networks)を適用する可能性を示している。
1,004個のパレットブロックの画像がCycleGANを用いて生成された。
このシナリオの精度は、合成画像では最大88%、原画像では96%であった。
- 参考スコア(独自算出の注目度): 1.9634272907216732
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This contribution demonstrates the feasibility of applying Generative
Adversarial Networks (GANs) on images of EPAL pallet blocks for dataset
enhancement in the context of re-identification. For many industrial
applications of re-identification methods, datasets of sufficient volume would
otherwise be unattainable in non-laboratory settings. Using a state-of-the-art
GAN architecture, namely CycleGAN, images of pallet blocks rotated to their
left-hand side were generated from images of visually centered pallet blocks,
based on images of rotated pallet blocks that were recorded as part of a
previously recorded and published dataset. In this process, the unique chipwood
pattern of the pallet block surface structure was retained, only changing the
orientation of the pallet block itself. By doing so, synthetic data for
re-identification testing and training purposes was generated, in a manner that
is distinct from ordinary data augmentation. In total, 1,004 new images of
pallet blocks were generated. The quality of the generated images was gauged
using a perspective classifier that was trained on the original images and then
applied to the synthetic ones, comparing the accuracy between the two sets of
images. The classification accuracy was 98% for the original images and 92% for
the synthetic images. In addition, the generated images were also used in a
re-identification task, in order to re-identify original images based on
synthetic ones. The accuracy in this scenario was up to 88% for synthetic
images, compared to 96% for original images. Through this evaluation, it is
established, whether or not a generated pallet block image closely resembles
its original counterpart.
- Abstract(参考訳): このコントリビューションは、EPALパレットブロックの画像にGAN(Generative Adversarial Networks)を適用することで、再識別のコンテキストにおけるデータセットの強化を実現する可能性を示している。
再同定手法の多くの産業応用において、十分な量のデータセットは非作業環境では達成できない。
先行記録されたデータセットの一部として記録された回転したパレットブロックの画像に基づいて、最先端のganアーキテクチャ、すなわちサイクガンを用いて、視覚中心パレットブロックの画像から、左辺に回転したパレットブロックの画像を生成する。
このプロセスでは, パレットブロック表面構造の独特のチップウッドパターンが維持され, パレットブロック自体の向きが変化した。
これにより、通常のデータ拡張とは異なる方法で、再識別テストとトレーニング目的のための合成データを生成する。
合計1,004個のパレットブロックの画像が生成された。
生成した画像の品質は、元の画像で訓練された視点分類器を用いて測定され、合成画像に適用され、2つの画像セット間の精度を比較した。
分類精度は原画像では98%,合成画像では92%であった。
さらに、生成した画像は、合成画像に基づいて元の画像を再識別するために、再識別タスクにも使用された。
このシナリオの精度は、合成画像では最大88%、原画像では96%であった。
この評価により、生成されたパレットブロック画像が元の画像と密接に類似しているか否かを判定する。
関連論文リスト
- ENTED: Enhanced Neural Texture Extraction and Distribution for
Reference-based Blind Face Restoration [51.205673783866146]
我々は,高品質でリアルな肖像画を復元することを目的とした,ブラインドフェイス修復のための新しいフレームワークであるENTEDを提案する。
劣化した入力画像と参照画像の間で高品質なテクスチャ特徴を伝達するために,テクスチャ抽出と分布の枠組みを利用する。
われわれのフレームワークにおけるStyleGANのようなアーキテクチャは、現実的な画像を生成するために高品質な潜伏符号を必要とする。
論文 参考訳(メタデータ) (2024-01-13T04:54:59Z) - Perceptual Artifacts Localization for Image Synthesis Tasks [59.638307505334076]
我々は10,168個の画像からなる新しいデータセットを導入し,それぞれに知覚的アーティファクトラベルを付加した。
提案したデータセットに基づいてトレーニングされたセグメンテーションモデルは、さまざまなタスクにまたがるアーティファクトを効果的にローカライズする。
生成した画像の知覚的アーティファクトをシームレスに修正する,革新的なズームイン・インペインティングパイプラインを提案する。
論文 参考訳(メタデータ) (2023-10-09T10:22:08Z) - Parents and Children: Distinguishing Multimodal DeepFakes from Natural Images [60.34381768479834]
近年の拡散モデルの発展により、自然言語のテキストプロンプトから現実的なディープフェイクの生成が可能になった。
我々は、最先端拡散モデルにより生成されたディープフェイク検出に関する体系的研究を開拓した。
論文 参考訳(メタデータ) (2023-04-02T10:25:09Z) - Multiscale Analysis for Improving Texture Classification [62.226224120400026]
本稿では,テクスチャの異なる空間周波数帯域を別々に扱うために,ガウス・ラプラシアピラミッドを用いる。
バイオインスパイアされたテクスチャ記述子,情報理論測度,灰色レベルの共起行列特徴,ハリリック統計特徴から抽出した特徴を特徴ベクトルに集約した。
論文 参考訳(メタデータ) (2022-04-21T01:32:22Z) - Generation of Non-Deterministic Synthetic Face Datasets Guided by
Identity Priors [19.095368725147367]
本稿では、StyleGANの構造化された潜在空間を利用して、マット付き顔画像を生成する非決定論的手法を提案する。
25,919個の合成IDを含む77,034個のサンプルからなる合成顔画像(SymFace)のデータセットを作成する。
論文 参考訳(メタデータ) (2021-12-07T11:08:47Z) - Data Generation using Texture Co-occurrence and Spatial Self-Similarity
for Debiasing [6.976822832216875]
本稿では, 反対ラベル付き画像のテクスチャ表現を用いて, 付加画像を明示的に生成する新しいデバイアス手法を提案する。
新たに生成された各画像は、反対ラベルのターゲット画像からテクスチャを転送しながら、ソース画像から類似した空間情報を含む。
本モデルでは,生成画像のテクスチャがターゲットと類似しているか否かを決定するテクスチャ共起損失と,生成画像とソース画像間の空間的詳細がよく保存されているかどうかを決定する空間的自己相似損失とを統合する。
論文 参考訳(メタデータ) (2021-10-15T08:04:59Z) - Texture for Colors: Natural Representations of Colors Using Variable
Bit-Depth Textures [13.180922099929765]
そこで本研究では,画像の強度だけでなく,元の色も表わす2値テクスチャの組に画像が変換される自動手法を提案する。
このシステムは、様々な画像ソースでテストすると、美的にバイナリイメージを満足させる。
論文 参考訳(メタデータ) (2021-05-04T21:22:02Z) - Learned Spatial Representations for Few-shot Talking-Head Synthesis [68.3787368024951]
複数発話頭合成のための新しいアプローチを提案する。
この異方性表現は,従来の手法よりも大幅に改善されることを示す。
論文 参考訳(メタデータ) (2021-04-29T17:59:42Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z) - Identifying Invariant Texture Violation for Robust Deepfake Detection [17.306386179823576]
Invariant Texture Learning frameworkは,低画質で公開されたデータセットにのみアクセスすることができる。
本手法は, 被写体から転写したテクスチャによって, 被写体表面の微視的顔のテクスチャが必然的に侵害されることを前提とした。
論文 参考訳(メタデータ) (2020-12-19T03:02:15Z) - Texture image classification based on a pseudo-parabolic diffusion model [0.0]
提案手法は、確立されたベンチマークテクスチャデータベースの分類と、植物種認識の実践的な課題について検証する。
画像の同種領域内では、擬似放物的演算子が、うる限りノイズの多い詳細を滑らかにすることができることで、優れた性能を大いに正当化することができる。
論文 参考訳(メタデータ) (2020-11-14T00:04:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。