論文の概要: Decoupled Mixup for Generalized Visual Recognition
- arxiv url: http://arxiv.org/abs/2210.14783v1
- Date: Wed, 26 Oct 2022 15:21:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 15:08:14.353504
- Title: Decoupled Mixup for Generalized Visual Recognition
- Title(参考訳): 一般化視覚認識のためのデカップリングミキシング
- Authors: Haozhe Liu, Wentian Zhang, Jinheng Xie, Haoqian Wu, Bing Li, Ziqi
Zhang, Yuexiang Li, Yawen Huang, Bernard Ghanem, Yefeng Zheng
- Abstract要約: 視覚認識のためのCNNモデルを学習するための新しい「デカップリング・ミクスアップ」手法を提案する。
本手法は,各画像を識別領域と雑音発生領域に分離し,これらの領域を均一に組み合わせてCNNモデルを訓練する。
実験結果から,未知のコンテキストからなるデータに対する本手法の高一般化性能を示す。
- 参考スコア(独自算出の注目度): 71.13734761715472
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional neural networks (CNN) have demonstrated remarkable performance
when the training and testing data are from the same distribution. However,
such trained CNN models often largely degrade on testing data which is unseen
and Out-Of-the-Distribution (OOD). To address this issue, we propose a novel
"Decoupled-Mixup" method to train CNN models for OOD visual recognition.
Different from previous work combining pairs of images homogeneously, our
method decouples each image into discriminative and noise-prone regions, and
then heterogeneously combines these regions of image pairs to train CNN models.
Since the observation is that noise-prone regions such as textural and clutter
backgrounds are adverse to the generalization ability of CNN models during
training, we enhance features from discriminative regions and suppress
noise-prone ones when combining an image pair. To further improve the
generalization ability of trained models, we propose to disentangle
discriminative and noise-prone regions in frequency-based and context-based
fashions. Experiment results show the high generalization performance of our
method on testing data that are composed of unseen contexts, where our method
achieves 85.76\% top-1 accuracy in Track-1 and 79.92\% in Track-2 in the NICO
Challenge. The source code is available at
https://github.com/HaozheLiu-ST/NICOChallenge-OOD-Classification.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は、トレーニングデータとテストデータが同じ分布である場合に顕著な性能を示す。
しかしながら、そのようなトレーニングされたcnnモデルは、多くの場合、見当たらないテストデータ(ood)で劣化する。
そこで本研究では,OOD視覚認識のためのCNNモデルを学習するための「デカップリング・ミクスアップ」手法を提案する。
画像の対を均質に組み合わせた従来の研究とは違い,本手法は各画像を識別領域と雑音発生領域に分離し,その領域を均一に組み合わせてCNNモデルを訓練する。
学習中のCNNモデルの一般化能力には, テキストや乱雑な背景などのノイズ発生領域が悪影響を及ぼすため, 識別領域の特徴を高め, 画像ペアの組み合わせによるノイズ発生領域の抑制を行う。
訓練モデルの一般化能力をさらに高めるため,周波数ベースおよびコンテキストベースで識別可能領域と雑音性領域を区別する手法を提案する。
実験結果から,本手法がTrack-1における85.76\%,Track-2における79.92\%の精度を達成できる無意味な文脈から構成したデータに対して,高い一般化性能を示す。
ソースコードはhttps://github.com/HaozheLiu-ST/NICOChallenge-OOD-Classificationで公開されている。
関連論文リスト
- Generalization in diffusion models arises from geometry-adaptive harmonic representations [21.384922363202335]
画像復調のために訓練されたディープニューラルネットワーク(DNN)は、スコアベースの逆拡散アルゴリズムを用いて高品質なサンプルを生成することができる。
トレーニングセットの記憶に関する最近の報告は、これらのネットワークがデータの「真の」連続密度を学習しているかどうかという疑問を提起している。
データセットの重複しない部分集合でトレーニングされた2つのDNNは、ほぼ同じスコア関数を学習し、したがってトレーニング画像の数が十分に大きい場合、同じ密度を学習する。
論文 参考訳(メタデータ) (2023-10-04T03:30:32Z) - ExposureDiffusion: Learning to Expose for Low-light Image Enhancement [87.08496758469835]
この研究は、拡散モデルと物理ベースの露光モデルとをシームレスに統合することで、この問題に対処する。
提案手法は,バニラ拡散モデルと比較して性能が大幅に向上し,推論時間を短縮する。
提案するフレームワークは、実際のペア付きデータセット、SOTAノイズモデル、および異なるバックボーンネットワークの両方で動作する。
論文 参考訳(メタデータ) (2023-07-15T04:48:35Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z) - Adaptive Denoising via GainTuning [17.72738152112575]
画像復調のためのディープ畳み込みニューラルネットワーク(CNN)は通常、大規模なデータセットでトレーニングされる。
本稿では,大規模データセット上で事前学習したCNNモデルを,個々のテスト画像に対して適応的かつ選択的に調整する「GainTuning」を提案する。
GainTuningは、標準的な画像デノゲティングベンチマークで最先端のCNNを改善し、ホールドアウトテストセットのほぼすべての画像上でのデノゲティング性能を向上させる。
論文 参考訳(メタデータ) (2021-07-27T13:35:48Z) - Diffusion-Based Representation Learning [65.55681678004038]
教師付き信号のない表現学習を実現するために,デノナイズスコアマッチングフレームワークを拡張した。
対照的に、拡散に基づく表現学習は、デノナイジングスコアマッチング目的の新しい定式化に依存している。
同じ手法を用いて,半教師付き画像分類における最先端モデルの改善を実現する無限次元潜在符号の学習を提案する。
論文 参考訳(メタデータ) (2021-05-29T09:26:02Z) - Neighbor2Neighbor: Self-Supervised Denoising from Single Noisy Images [98.82804259905478]
Neighbor2Neighborを提示し、ノイズの多い画像のみで効果的な画像消音モデルをトレーニングします。
ネットワークのトレーニングに使用される入力とターゲットは、同じノイズ画像からサブサンプリングされた画像である。
デノイジングネットワークは、第1段階で生成されたサブサンプルトレーニングペアで訓練され、提案された正規化器は、より良いパフォーマンスのための追加の損失として訓練される。
論文 参考訳(メタデータ) (2021-01-08T02:03:25Z) - Homography Estimation with Convolutional Neural Networks Under
Conditions of Variance [0.0]
畳み込みニューラルネットワーク(CNN)を用いた最近の2つの手法の性能解析を行った。
CNNは、ノイズに対してより堅牢であるように訓練できるが、ノイズのないケースでは精度が低い。
我々は,CNNを特定の音の大きさに訓練すると,CNNが最高の性能を示す騒音レベルに対して,Goldilocks Zoneが生じることを示す。
論文 参考訳(メタデータ) (2020-10-02T15:11:25Z) - Learning from Noisy Labels with Noise Modeling Network [7.523041606515877]
ノイズモデリングネットワーク(NMN)は、私たちの畳み込みニューラルネットワーク(CNN)に従い、それを統合します。
NMNはノイズデータから直接ノイズパターンの分布を学習する。
統合NMN/CNN学習システムでは,一貫した分類性能の向上が期待できる。
論文 参考訳(メタデータ) (2020-05-01T20:32:22Z) - Attentive CutMix: An Enhanced Data Augmentation Approach for Deep
Learning Based Image Classification [58.20132466198622]
そこで我々は,CutMixに基づく自然拡張拡張戦略であるAttentive CutMixを提案する。
各トレーニングイテレーションにおいて、特徴抽出器から中間注意マップに基づいて最も記述性の高い領域を選択する。
提案手法は単純かつ有効であり,実装が容易であり,ベースラインを大幅に向上させることができる。
論文 参考訳(メタデータ) (2020-03-29T15:01:05Z) - On the Texture Bias for Few-Shot CNN Segmentation [21.349705243254423]
畳み込みニューラルネットワーク(CNN)は、視覚認識タスクを実行するために形状によって駆動される。
最近の証拠は、CNNのテクスチャバイアスが、大きなラベル付きトレーニングデータセットで学習するときに、より高いパフォーマンスのモデルを提供することを示している。
本稿では,特徴空間内の高周波局所成分を減衰させるために,ガウス差分(DoG)の集合を統合する新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-09T11:55:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。