論文の概要: FYI: Flip Your Images for Dataset Distillation
- arxiv url: http://arxiv.org/abs/2407.08113v1
- Date: Thu, 11 Jul 2024 01:08:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-12 19:18:18.602617
- Title: FYI: Flip Your Images for Dataset Distillation
- Title(参考訳): FYI:データセットの蒸留のために画像をフリップする
- Authors: Byunggwan Son, Youngmin Oh, Donghyeon Baek, Bumsub Ham,
- Abstract要約: 実画像のリッチなセマンティクスを合成物に蒸留できるFYIと呼ばれる、驚くほどシンプルで効果的なデータセット蒸留技術を導入する。
CIFAR-10/100、Tiny-ImageNet、ImageNetの実験では、FYIがいくつかの最先端メソッドにシームレスに統合できることが示されている。
- 参考スコア(独自算出の注目度): 28.30645176068437
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dataset distillation synthesizes a small set of images from a large-scale real dataset such that synthetic and real images share similar behavioral properties (e.g, distributions of gradients or features) during a training process. Through extensive analyses on current methods and real datasets, together with empirical observations, we provide in this paper two important things to share for dataset distillation. First, object parts that appear on one side of a real image are highly likely to appear on the opposite side of another image within a dataset, which we call the bilateral equivalence. Second, the bilateral equivalence enforces synthetic images to duplicate discriminative parts of objects on both the left and right sides of the images, limiting the recognition of subtle differences between objects. To address this problem, we introduce a surprisingly simple yet effective technique for dataset distillation, dubbed FYI, that enables distilling rich semantics of real images into synthetic ones. To this end, FYI embeds a horizontal flipping technique into distillation processes, mitigating the influence of the bilateral equivalence, while capturing more details of objects. Experiments on CIFAR-10/100, Tiny-ImageNet, and ImageNet demonstrate that FYI can be seamlessly integrated into several state-of-the-art methods, without modifying training objectives and network architectures, and it improves the performance remarkably.
- Abstract(参考訳): データセット蒸留は、大規模な実データセットから少量の画像を合成し、合成された画像と実画像は、トレーニングプロセス中に同様の挙動特性(例えば勾配や特徴の分布)を共有する。
本論文では, 現状の方法と実データセットの広範な分析を通じて, 実験的な観察とともに, データセット蒸留において共有すべき2つの重要な事項について述べる。
まず、実際の画像の片側に現れる物体は、データセット内の別の画像の反対側に現れる可能性が高い。
第二に、両側同値性は、画像の左右両側の物体の重複識別部分に合成画像を強制し、物体間の微妙な差異の認識を制限する。
この問題に対処するために,FYIと呼ばれるデータセット蒸留の驚くほどシンプルで効果的な手法を導入し,実画像のリッチなセマンティクスを合成画像に蒸留する。
この目的のために、FYIは水平反転法を蒸留プロセスに組み込み、物体のさらなる詳細を捉えながら、双方の等価性の影響を緩和する。
CIFAR-10/100、Tiny-ImageNet、ImageNetの実験では、FYIはトレーニング目標やネットワークアーキテクチャを変更することなく、いくつかの最先端メソッドにシームレスに統合でき、性能が著しく向上することを示した。
関連論文リスト
- ATOM: Attention Mixer for Efficient Dataset Distillation [17.370852204228253]
本研究では,チャネルと空間的注意の混合を用いて,大規模データセットを効率よく抽出するモジュールを提案する。
どちらのタイプの注目も統合することで、ATOMモジュールは様々なコンピュータビジョンデータセットにまたがる優れた性能を示す。
論文 参考訳(メタデータ) (2024-05-02T15:15:01Z) - Enhance Image Classification via Inter-Class Image Mixup with Diffusion Model [80.61157097223058]
画像分類性能を高めるための一般的な戦略は、T2Iモデルによって生成された合成画像でトレーニングセットを増強することである。
本研究では,既存のデータ拡張技術の欠点について検討する。
Diff-Mixと呼ばれる革新的なクラス間データ拡張手法を導入する。
論文 参考訳(メタデータ) (2024-03-28T17:23:45Z) - Deep Domain Adaptation: A Sim2Real Neural Approach for Improving Eye-Tracking Systems [80.62854148838359]
眼球画像のセグメンテーションは、最終視線推定に大きな影響を及ぼす眼球追跡の重要なステップである。
対象視線画像と合成訓練データとの重なり合いを測定するために,次元還元法を用いている。
提案手法は,シミュレーションと実世界のデータサンプルの相違に対処する際の頑健で,性能が向上する。
論文 参考訳(メタデータ) (2024-03-23T22:32:06Z) - One Category One Prompt: Dataset Distillation using Diffusion Models [22.512552596310176]
本稿では,D3M(Diffusion Models)をデータセット蒸留の新たなパラダイムとして導入し,生成的テキスト・画像基盤モデルの最近の進歩を活用する。
提案手法では,テキストから画像への合成モデルを微調整する手法であるテキストインバージョンを用いて,大規模データセットの簡潔かつ情報的な表現を生成する。
論文 参考訳(メタデータ) (2024-03-11T20:23:59Z) - Improving Human-Object Interaction Detection via Virtual Image Learning [68.56682347374422]
人間-物体相互作用(Human-Object Interaction、HOI)は、人間と物体の相互作用を理解することを目的としている。
本稿では,仮想画像学習(Virtual Image Leaning, VIL)による不均衡分布の影響を軽減することを提案する。
ラベルからイメージへの新たなアプローチであるMultiple Steps Image Creation (MUSIC)が提案され、実際の画像と一貫した分布を持つ高品質なデータセットを作成する。
論文 参考訳(メタデータ) (2023-08-04T10:28:48Z) - Parents and Children: Distinguishing Multimodal DeepFakes from Natural Images [60.34381768479834]
近年の拡散モデルの発展により、自然言語のテキストプロンプトから現実的なディープフェイクの生成が可能になった。
我々は、最先端拡散モデルにより生成されたディープフェイク検出に関する体系的研究を開拓した。
論文 参考訳(メタデータ) (2023-04-02T10:25:09Z) - Partially fake it till you make it: mixing real and fake thermal images
for improved object detection [29.13557322147509]
熱画像における物体検出の文脈における提案システムの性能について述べる。
我々の単一モード検出器はFLIR ADASデータセットの最先端結果を達成する。
論文 参考訳(メタデータ) (2021-06-25T12:56:09Z) - Intrinsic Autoencoders for Joint Neural Rendering and Intrinsic Image
Decomposition [67.9464567157846]
合成3Dモデルからリアルな画像を生成するためのオートエンコーダを提案し,同時に実像を本質的な形状と外観特性に分解する。
実験により, レンダリングと分解の併用処理が有益であることが確認され, 画像から画像への翻訳の質的, 定量的なベースラインよりも優れた結果が得られた。
論文 参考訳(メタデータ) (2020-06-29T12:53:58Z) - Two-shot Spatially-varying BRDF and Shape Estimation [89.29020624201708]
形状とSVBRDFを段階的に推定した新しいディープラーニングアーキテクチャを提案する。
ドメインランダム化された幾何学と現実的な材料を用いた大規模合成学習データセットを作成する。
合成データセットと実世界のデータセットの両方の実験により、合成データセットでトレーニングされたネットワークが、実世界の画像に対してうまく一般化できることが示されている。
論文 参考訳(メタデータ) (2020-04-01T12:56:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。