論文の概要: HiCD: Change Detection in Quality-Varied Images via Hierarchical
Correlation Distillation
- arxiv url: http://arxiv.org/abs/2401.10752v1
- Date: Fri, 19 Jan 2024 15:21:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-22 15:34:47.269060
- Title: HiCD: Change Detection in Quality-Varied Images via Hierarchical
Correlation Distillation
- Title(参考訳): HiCD:階層的相関蒸留による画質変動画像の変化検出
- Authors: Chao Pang, Xingxing Weng, Jiang Wu, Qiang Wang, and Gui-Song Xia
- Abstract要約: 知識蒸留を基礎とした革新的な教育戦略を導入する。
中心となるアイデアは、高品質なイメージペアから取得したタスク知識を活用して、モデルの学習をガイドすることにある。
我々は階層的相関蒸留法(自己相関、相互相関、大域相関を含む)を開発する。
- 参考スコア(独自算出の注目度): 40.03785896317387
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Advanced change detection techniques primarily target image pairs of equal
and high quality. However, variations in imaging conditions and platforms
frequently lead to image pairs with distinct qualities: one image being
high-quality, while the other being low-quality. These disparities in image
quality present significant challenges for understanding image pairs
semantically and extracting change features, ultimately resulting in a notable
decline in performance. To tackle this challenge, we introduce an innovative
training strategy grounded in knowledge distillation. The core idea revolves
around leveraging task knowledge acquired from high-quality image pairs to
guide the model's learning process when dealing with image pairs that exhibit
differences in quality. Additionally, we develop a hierarchical correlation
distillation approach (involving self-correlation, cross-correlation, and
global correlation). This approach compels the student model to replicate the
correlations inherent in the teacher model, rather than focusing solely on
individual features. This ensures effective knowledge transfer while
maintaining the student model's training flexibility.
- Abstract(参考訳): 高度な変化検出技術は主に画像対の等質と高品質を目標とする。
しかし、画像条件やプラットフォームの変化は、画質の異なるイメージペアをしばしば引き起こす: 画像は高品質であり、一方は低品質である。
これらの画像品質の相違は、画像ペアを意味的に理解し、変化特徴を抽出する上で重要な課題を示し、最終的に性能の顕著な低下をもたらす。
この課題に対処するために、知識蒸留に基づく革新的なトレーニング戦略を導入する。
コアとなるアイデアは、高品質なイメージペアから得られたタスク知識を活用して、品質の違いを示すイメージペアを扱う際のモデルの学習プロセスをガイドするものだ。
さらに, 階層的相関蒸留アプローチ(自己相関, 相互相関, 大域的相関)を開発した。
このアプローチは、個々の特徴のみに焦点を当てるのではなく、教師モデルに内在する相関を学生モデルに再現させる。
これにより、生徒モデルのトレーニング柔軟性を維持しながら、効果的な知識伝達が保証される。
関連論文リスト
- QGFace: Quality-Guided Joint Training For Mixed-Quality Face Recognition [2.8519768339207356]
混合品質顔認証のための新しい品質誘導型共同訓練手法を提案する。
品質分割に基づいて、分類に基づく手法が本社データ学習に用いられている。
識別情報を欠いたLQ画像に対しては,自己教師付き画像イメージコントラスト学習を用いて学習する。
論文 参考訳(メタデータ) (2023-12-29T06:56:22Z) - Cross-Image Attention for Zero-Shot Appearance Transfer [68.43651329067393]
画像間の意味的対応を暗黙的に確立するクロスイメージアテンション機構を導入する。
ノイズの多い潜在コードを操作する3つのメカニズムと、デノナイジングプロセスを通してモデルの内部表現を利用する。
実験により,本手法は多種多様な対象カテゴリに対して有効であり,形状,大きさ,視点の変動に頑健であることが示された。
論文 参考訳(メタデータ) (2023-11-06T18:33:24Z) - ARNIQA: Learning Distortion Manifold for Image Quality Assessment [28.773037051085318]
No-Reference Image Quality Assessment (NR-IQA) は、高品質な参照画像を必要としない、人間の知覚に合わせて画像品質を測定する手法を開発することを目的としている。
本研究では、画像歪み多様体をモデル化し、本質的な表現を得るための自己教師型アプローチ ARNIQA を提案する。
論文 参考訳(メタデータ) (2023-10-20T17:22:25Z) - Improving Human-Object Interaction Detection via Virtual Image Learning [68.56682347374422]
人間-物体相互作用(Human-Object Interaction、HOI)は、人間と物体の相互作用を理解することを目的としている。
本稿では,仮想画像学習(Virtual Image Leaning, VIL)による不均衡分布の影響を軽減することを提案する。
ラベルからイメージへの新たなアプローチであるMultiple Steps Image Creation (MUSIC)が提案され、実際の画像と一貫した分布を持つ高品質なデータセットを作成する。
論文 参考訳(メタデータ) (2023-08-04T10:28:48Z) - Re-IQA: Unsupervised Learning for Image Quality Assessment in the Wild [38.197794061203055]
教師なし環境で高レベルのコンテンツと低レベルの画像品質特徴を学習するために、2つの異なるエンコーダを訓練するためのMixture of Expertsアプローチを提案する。
本稿では,Re-IQAフレームワークから得られた高次・低次画像表現を,線形回帰モデルをトレーニングするために展開する。
本手法は,大規模画像品質評価データベース上での最先端性能を実現する。
論文 参考訳(メタデータ) (2023-04-02T05:06:51Z) - Conformer and Blind Noisy Students for Improved Image Quality Assessment [80.57006406834466]
知覚品質評価(IQA)のための学習ベースアプローチは、通常、知覚品質を正確に測定するために歪んだ画像と参照画像の両方を必要とする。
本研究では,変換器を用いた全参照IQAモデルの性能について検討する。
また,全教師モデルから盲人学生モデルへの半教師付き知識蒸留に基づくIQAの手法を提案する。
論文 参考訳(メタデータ) (2022-04-27T10:21:08Z) - ExCon: Explanation-driven Supervised Contrastive Learning for Image
Classification [12.109442912963969]
本稿では,サリエンシに基づく説明手法を活用して,コンテント保存型マスク強化によるコントラスト学習を提案する。
提案手法は, 近距離画像の埋め込みに類似した内容と説明を与えるという2つの目的を, 批判的に果たすものである。
ExConは、分類、説明品質、対向ロバスト性、および分布シフトの文脈におけるモデルの確率的予測のキャリブレーションの観点から、バニラ指導によるコントラスト学習より優れていることを示す。
論文 参考訳(メタデータ) (2021-11-28T23:15:26Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z) - Towards Unsupervised Deep Image Enhancement with Generative Adversarial
Network [92.01145655155374]
監視されていない画像強調生成ネットワーク(UEGAN)を提案する。
教師なしの方法で所望の特性を持つ画像の集合から、対応する画像と画像のマッピングを学習する。
その結果,提案モデルは画像の美的品質を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:22:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。