論文の概要: Data Augmentation via Mixed Class Interpolation using Cycle-Consistent
Generative Adversarial Networks Applied to Cross-Domain Imagery
- arxiv url: http://arxiv.org/abs/2005.02436v2
- Date: Fri, 1 Jan 2021 22:29:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 13:48:58.272638
- Title: Data Augmentation via Mixed Class Interpolation using Cycle-Consistent
Generative Adversarial Networks Applied to Cross-Domain Imagery
- Title(参考訳): クロスドメイン画像に適用した周期整合生成型逆ネットワークを用いた混合クラス補間によるデータ拡張
- Authors: Hiroshi Sasaki, Chris G. Willcocks, Toby P. Breckon
- Abstract要約: 機械学習による物体検出と非可視画像内の分類は多くの分野において重要な役割を担っている。
しかし、このような応用は、限られた量の非可視領域画像のためにしばしば苦しむ。
本稿では,可視光帯域画像を利用した新しいデータ拡張手法の提案と評価を行う。
- 参考スコア(独自算出の注目度): 16.870604081967866
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning driven object detection and classification within
non-visible imagery has an important role in many fields such as night vision,
all-weather surveillance and aviation security. However, such applications
often suffer due to the limited quantity and variety of non-visible spectral
domain imagery, in contrast to the high data availability of visible-band
imagery that readily enables contemporary deep learning driven detection and
classification approaches. To address this problem, this paper proposes and
evaluates a novel data augmentation approach that leverages the more readily
available visible-band imagery via a generative domain transfer model. The
model can synthesise large volumes of non-visible domain imagery by
image-to-image (I2I) translation from the visible image domain. Furthermore, we
show that the generation of interpolated mixed class (non-visible domain) image
examples via our novel Conditional CycleGAN Mixup Augmentation (C2GMA)
methodology can lead to a significant improvement in the quality of non-visible
domain classification tasks that otherwise suffer due to limited data
availability. Focusing on classification within the Synthetic Aperture Radar
(SAR) domain, our approach is evaluated on a variation of the Statoil/C-CORE
Iceberg Classifier Challenge dataset and achieves 75.4% accuracy, demonstrating
a significant improvement when compared against traditional data augmentation
strategies (Rotation, Mixup, and MixCycleGAN).
- Abstract(参考訳): 機械学習による物体検出と非可視画像内の分類は、夜間視、全天候監視、航空セキュリティなど多くの分野で重要な役割を果たしている。
しかし、そのような応用は、現代のディープラーニングによる検出と分類のアプローチを可能にする可視光帯域画像の高データ可用性とは対照的に、限られた量と多様な非可視光領域画像のためにしばしば発生する。
この問題に対処するため,本稿では,より容易に利用可能な可視帯域画像を利用する新しいデータ拡張手法を提案し,評価する。
このモデルは、可視領域から画像間変換(i2i)により、多数の非可視領域画像を合成することができる。
さらに,本手法による補間型混合クラス(非可視領域)画像例の生成は,データ可用性の制限による非可視型ドメイン分類タスクの品質向上に繋がる可能性が示唆された。
SAR(Synthetic Aperture Radar)領域の分類に着目し,Statoil/C-CORE Iceberg Classifier Challengeデータセットの変動に着目し,75.4%の精度を実現し,従来のデータ拡張戦略(Rotation, Mixup, MixCycleGAN)と比較して有意に改善した。
関連論文リスト
- Unifying Visual and Semantic Feature Spaces with Diffusion Models for Enhanced Cross-Modal Alignment [20.902935570581207]
本稿では,マルチモーダルアライメント・アンド・リコンストラクション・ネットワーク(MARNet)を導入し,視覚ノイズに対するモデルの耐性を高める。
MARNetは、異なるドメイン間で情報をスムーズかつ安定的にブレンドする、クロスモーダル拡散再構成モジュールを含んでいる。
2つのベンチマークデータセットであるVireo-Food172とIngredient-101で実施された実験は、MARNetがモデルによって抽出された画像情報の品質を効果的に改善することを示した。
論文 参考訳(メタデータ) (2024-07-26T16:30:18Z) - DA-HFNet: Progressive Fine-Grained Forgery Image Detection and Localization Based on Dual Attention [12.36906630199689]
DA-HFNet鍛造画像データセットをテキストまたは画像支援GANおよび拡散モデルで作成する。
我々のゴールは、階層的なプログレッシブネットワークを使用して、異なるスケールの偽造物を検出およびローカライゼーションするために捕獲することである。
論文 参考訳(メタデータ) (2024-06-03T16:13:33Z) - Enhance Image Classification via Inter-Class Image Mixup with Diffusion Model [80.61157097223058]
画像分類性能を高めるための一般的な戦略は、T2Iモデルによって生成された合成画像でトレーニングセットを増強することである。
本研究では,既存のデータ拡張技術の欠点について検討する。
Diff-Mixと呼ばれる革新的なクラス間データ拡張手法を導入する。
論文 参考訳(メタデータ) (2024-03-28T17:23:45Z) - SatSynth: Augmenting Image-Mask Pairs through Diffusion Models for Aerial Semantic Segmentation [69.42764583465508]
我々は,地球観測における注釈付きデータの不足に対処するために,生成的画像拡散の可能性を探る。
我々の知る限りでは、衛星セグメンテーションのための画像と対応するマスクの両方を最初に生成する。
論文 参考訳(メタデータ) (2024-03-25T10:30:22Z) - GenFace: A Large-Scale Fine-Grained Face Forgery Benchmark and Cross Appearance-Edge Learning [50.7702397913573]
フォトリアリスティック・ジェネレータの急速な進歩は、真の画像と操作された画像の相違がますます不明瞭になっている臨界点に達している。
公開されている顔の偽造データセットはいくつかあるが、偽造顔は主にGANベースの合成技術を用いて生成される。
我々は,大規模で多様できめ細かな高忠実度データセットであるGenFaceを提案し,ディープフェイク検出の進展を促進する。
論文 参考訳(メタデータ) (2024-02-03T03:13:50Z) - Improving Anomaly Segmentation with Multi-Granularity Cross-Domain
Alignment [17.086123737443714]
異常セグメンテーションは、画像中の非定型物体を識別する上で重要な役割を担っている。
既存の手法は合成データに顕著な結果を示すが、合成データドメインと実世界のデータドメインの相違を考慮できないことが多い。
シーンと個々のサンプルレベルの両方で、ドメイン間の機能を調和させるのに適した、マルチグラニュラリティ・クロスドメインアライメントフレームワークを導入します。
論文 参考訳(メタデータ) (2023-08-16T22:54:49Z) - Improved Benthic Classification using Resolution Scaling and SymmNet
Unsupervised Domain Adaptation [8.35780131268962]
空間分解能の正規化のために,SymmNetの最先端Unsupervised Domain Adaptation法を,効率的な双線形プール層と画像スケーリングにより適用する。
その結果, トレーニング画像と異なるAUVサーベイから, 画像の精度を大幅に向上させるため, 汎用領域適応を向上できることが示唆された。
論文 参考訳(メタデータ) (2023-03-20T09:33:47Z) - Unsupervised Domain Transfer with Conditional Invertible Neural Networks [83.90291882730925]
条件付き可逆ニューラルネットワーク(cINN)に基づくドメイン転送手法を提案する。
提案手法は本質的に,その可逆的アーキテクチャによるサイクル一貫性を保証し,ネットワークトレーニングを最大限効率的に行うことができる。
提案手法は,2つの下流分類タスクにおいて,現実的なスペクトルデータの生成を可能にし,その性能を向上する。
論文 参考訳(メタデータ) (2023-03-17T18:00:27Z) - Hierarchical Forgery Classifier On Multi-modality Face Forgery Clues [61.37306431455152]
我々は,HFC-MFFD (hierarchical Forgery for Multi-modality Face Forgery Detection) を提案する。
HFC-MFFDは、マルチモーダルシナリオにおけるフォージェリー認証を強化するために、堅牢なパッチベースのハイブリッド表現を学習する。
クラス不均衡問題を緩和し、さらに検出性能を高めるために、特定の階層的な顔偽造を提案する。
論文 参考訳(メタデータ) (2022-12-30T10:54:29Z) - Multi-Scale Multi-Target Domain Adaptation for Angle Closure
Classification [50.658613573816254]
角度閉包分類のためのM2DAN(Multi-scale Multi-target Domain Adversarial Network)を提案する。
異なるスケールでのこれらのドメイン不変性に基づいて、ソースドメインで訓練されたディープモデルは、複数のターゲットドメインの角度クロージャを分類することができる。
論文 参考訳(メタデータ) (2022-08-25T15:27:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。