論文の概要: AlignMix: Improving representation by interpolating aligned features
- arxiv url: http://arxiv.org/abs/2103.15375v1
- Date: Mon, 29 Mar 2021 07:03:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-31 02:54:26.089605
- Title: AlignMix: Improving representation by interpolating aligned features
- Title(参考訳): alignmix:アライメント機能間の補間による表現の改善
- Authors: Shashanka Venkataramanan, Yannis Avrithis, Ewa Kijak, Laurent Amsaleg
- Abstract要約: 特徴空間に2つの画像を幾何学的にアライメントするAlignMixを紹介した。
自動エンコーダは、デコードされた画像を見ることなく、mixup下での表現学習を改善できることを示す。
- 参考スコア(独自算出の注目度): 19.465347590276114
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mixup is a powerful data augmentation method that interpolates between two or
more examples in the input or feature space and between the corresponding
target labels. Many recent mixup methods focus on cutting and pasting two or
more objects into one image, which is more about efficient processing than
interpolation. However, how to best interpolate images is not well defined. In
this sense, mixup has been connected to autoencoders, because often
autoencoders "interpolate well", for instance generating an image that
continuously deforms into another.
In this work, we revisit mixup from the interpolation perspective and
introduce AlignMix, where we geometrically align two images in the feature
space. The correspondences allow us to interpolate between two sets of
features, while keeping the locations of one set. Interestingly, this gives
rise to a situation where mixup retains mostly the geometry or pose of one
image and the texture of the other, connecting it to style transfer. More than
that, we show that an autoencoder can still improve representation learning
under mixup, without the classifier ever seeing decoded images. AlignMix
outperforms state-of-the-art mixup methods on five different benchmarks.
- Abstract(参考訳): Mixupは、入力または特徴空間における2つ以上の例と対応するターゲットラベルの間に補間する強力なデータ拡張手法である。
最近のミックスアップ手法の多くは、2つ以上のオブジェクトを1つのイメージにカット・ペーストすることに焦点を当てている。
しかし、画像の最良の補間方法は明確に定義されていない。
この意味では、mixupはオートエンコーダと接続されている、なぜならオートエンコーダが"うまく補間"するためである。
本研究では,補間の観点からミキサアップを再考し,特徴空間に2つの画像を幾何学的にアライメントするAlignMixを紹介する。
対応によって、ある集合の位置を維持しながら、2つの特徴セット間の補間が可能となる。
興味深いことに、mixupが1つのイメージの形状やポーズ、もう1つのイメージのテクスチャをほとんど保持し、それをスタイル転送に結びつける状況が発生する。
さらに、自動エンコーダは、デコードされた画像を見ることなく、mixup下での表現学習を改善できることを示した。
AlignMixは5つのベンチマークで最先端のミックスアップメソッドを上回っている。
関連論文リスト
- AID: Attention Interpolation of Text-to-Image Diffusion [64.87754163416241]
AID(Attention Interpolation via Diffusion)という,トレーニング不要な手法を導入する。
AIDは補間された注意を自己注意と融合させ、忠実性を高める。
また,条件に依存した生成過程として,拡散による条件誘導注意補間(AID)も提案する。
論文 参考訳(メタデータ) (2024-03-26T17:57:05Z) - Adversarial AutoMixup [50.1874436169571]
本稿では,AdAutomixupを提案する。
画像分類のための堅牢な分類器を訓練するために、挑戦的なサンプルを生成する。
本手法は, 様々な分類シナリオにおいて, 技術状況に優れる。
論文 参考訳(メタデータ) (2023-12-19T08:55:00Z) - SpliceMix: A Cross-scale and Semantic Blending Augmentation Strategy for
Multi-label Image Classification [46.8141860303439]
マルチラベル画像分類,すなわちSpliceMixの簡易かつ効果的な拡張戦略を提案する。
本手法の「スプライス」は,1) 混合画像は, 混合に係わる画像のセマンティクスを, 共起バイアスを緩和するためのオブジェクト欠陥を伴わずにブレンドするグリッドの形で, 縮小された画像のスプライスであり, 2) 混合画像と元のミニバッチをスプリスして, 異なるスケールの画像を同時にトレーニングに寄与するSpliceMixed mini-batchを形成する。
論文 参考訳(メタデータ) (2023-11-26T05:45:27Z) - Multi-interactive Feature Learning and a Full-time Multi-modality
Benchmark for Image Fusion and Segmentation [66.15246197473897]
多モード画像融合とセグメンテーションは、自律走行とロボット操作において重要な役割を果たす。
画像融合とtextbfSegmentation のための textbfMulti-textbfinteractive textbfFeature Learning アーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-08-04T01:03:58Z) - GuidedMixup: An Efficient Mixup Strategy Guided by Saliency Maps [6.396288020763144]
本稿では,計算オーバーヘッドの少ない混合画像における局所領域の維持を目的とした GuidedMixup を提案する。
我々は,ペア画像の健全な領域の競合を最小限に抑えるために,効率的なペアリングアルゴリズムを開発した。
いくつかのデータセットの実験では、 GuidedMixupがオーバヘッドの増大と一般化のパフォーマンスのトレードオフとして優れていることが示されている。
論文 参考訳(メタデータ) (2023-06-29T00:55:51Z) - Diffusion Hyperfeatures: Searching Through Time and Space for Semantic Correspondence [88.00004819064672]
Diffusion Hyperfeaturesは、マルチスケールおよびマルチタイムステップの機能マップをピクセル単位の機能記述子に統合するためのフレームワークである。
提案手法は,SPair-71k実画像ベンチマークにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-23T17:58:05Z) - Semantic Image Fusion [2.4366811507669124]
本稿では,事前学習したCNNネットワークアーキテクチャを用いた視覚コンテンツの意味結合システムを提案する。
単純な "choose maximum" と "local majority" のフィルタベースの融合ルールは、特徴マップの融合に使用される。
開発手法は,最先端技術に同等の低レベル核融合性能を与えることができる。
論文 参考訳(メタデータ) (2021-10-13T13:15:16Z) - Bridging the Visual Gap: Wide-Range Image Blending [16.464837892640812]
広域画像ブレンドを実現するための効果的なディープラーニングモデルを提案する。
提案手法が視覚的に魅力的な結果をもたらすことを実験的に実証した。
論文 参考訳(メタデータ) (2021-03-28T15:07:45Z) - SnapMix: Semantically Proportional Mixing for Augmenting Fine-grained
Data [124.95585891086894]
提案はSemantically Proportional Mixing(SnapMix)と呼ばれる
クラスアクティベーションマップ(CAM)を利用して、きめ細かいデータを強化する際にラベルノイズを低減します。
本手法は既存の混合型アプローチを一貫して上回っている。
論文 参考訳(メタデータ) (2020-12-09T03:37:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。