論文の概要: Region-aware Knowledge Distillation for Efficient Image-to-Image
Translation
- arxiv url: http://arxiv.org/abs/2205.12451v1
- Date: Wed, 25 May 2022 02:45:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-26 14:33:44.064783
- Title: Region-aware Knowledge Distillation for Efficient Image-to-Image
Translation
- Title(参考訳): 画像間の効率的な翻訳のための領域認識知識蒸留
- Authors: Linfeng Zhang, Xin Chen, Runpei Dong, Kaisheng Ma
- Abstract要約: 画像から画像への変換モデルを圧縮するための領域認識型知識蒸留ReKoを提案する。
9つのデータセットに対する8つの比較手法による実験は、ReKoの有効性を実証している。
私たちの7.08X圧縮と6.80X加速のCycleGAN学生は、それぞれHorth to ZebraとZebra to Horseで1.33FIDスコアと1.04FIDスコアを上回ります。
- 参考スコア(独自算出の注目度): 18.373356523661677
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent progress in image-to-image translation has witnessed the success of
generative adversarial networks (GANs). However, GANs usually contain a huge
number of parameters, which lead to intolerant memory and computation
consumption and limit their deployment on edge devices. To address this issue,
knowledge distillation is proposed to transfer the knowledge from a cumbersome
teacher model to an efficient student model. However, most previous knowledge
distillation methods are designed for image classification and lead to limited
performance in image-to-image translation. In this paper, we propose
Region-aware Knowledge Distillation ReKo to compress image-to-image translation
models. Firstly, ReKo adaptively finds the crucial regions in the images with
an attention module. Then, patch-wise contrastive learning is adopted to
maximize the mutual information between students and teachers in these crucial
regions. Experiments with eight comparison methods on nine datasets demonstrate
the substantial effectiveness of ReKo on both paired and unpaired
image-to-image translation. For instance, our 7.08X compressed and 6.80X
accelerated CycleGAN student outperforms its teacher by 1.33 and 1.04 FID
scores on Horse to Zebra and Zebra to Horse, respectively. Codes will be
released on GitHub.
- Abstract(参考訳): 画像から画像への翻訳の最近の進歩は、gans(generative adversarial networks)の成功を目撃している。
しかしながら、GANは通常、膨大な数のパラメータを含むため、メモリと計算消費が不耐になり、エッジデバイスへのデプロイメントが制限される。
この問題に対処するために,教師モデルから効率的な学生モデルに知識を移すための知識蒸留を提案する。
しかし, 従来の知識蒸留法は画像分類のために設計されており, 画像間翻訳の性能に限界がある。
本稿では,画像から画像への変換モデルを圧縮するための領域認識型知識蒸留ReKoを提案する。
まず、ReKoは注意モジュールで画像の重要な領域を適応的に見つける。
そして、これらの重要な地域の生徒と教師の相互情報を最大化するためにパッチワイドコントラスト学習を採用する。
9つのデータセットに対する8つの比較手法による実験は、ペア画像とペア画像の両方でReKoの有効性を実証している。
例えば、私たちの7.08X圧縮と6.80X加速のCycleGAN学生は、それぞれHorth to ZebraとZebra to Horseで1.33と1.04のFIDスコアを上回ります。
コードはGitHubでリリースされる。
関連論文リスト
- ACE: Zero-Shot Image to Image Translation via Pretrained
Auto-Contrastive-Encoder [2.1874189959020427]
本研究では,同じデータ分布内のサンプルの類似点と相違点を学習し,画像の特徴を抽出する手法を提案する。
ACEの設計により、画像翻訳タスクのトレーニングを初めて行うことなく、ゼロショット画像から画像への変換を実現することができる。
本モデルは,ゼロショット学習を用いたマルチモーダル画像翻訳タスクにおける競合的な結果も達成する。
論文 参考訳(メタデータ) (2023-02-22T23:52:23Z) - Saliency Guided Contrastive Learning on Scene Images [71.07412958621052]
我々は、学習中のモデルの出力から導かれるサリエンシマップを活用し、差別的な領域を強調し、対照的な学習全体をガイドする。
提案手法は,画像上の自己教師学習の性能を,画像の線形評価において+1.1,+4.3,+2.2の精度で向上させる。
論文 参考訳(メタデータ) (2023-02-22T15:54:07Z) - Masked Autoencoders Enable Efficient Knowledge Distillers [31.606287119666572]
本稿では、事前訓練されたモデル、特にマスクオートエンコーダからの知識の蒸留の可能性について検討する。
教師モデルの中間特徴写像と生徒モデルの中間特徴写像との距離を最小化する。
極めて高いマスキング比であっても,教師モデルから知識をしっかりと抽出することができる。
論文 参考訳(メタデータ) (2022-08-25T17:58:59Z) - Few-Shot Learning for Image Classification of Common Flora [0.0]
MAML(Model-Agnostic Meta Learning)を用いた画像分類のためのメタラーニング分野の最先端の研究と、さまざまな最先端のトランスファーラーニングウェイトとアーキテクチャをテストした結果を紹介します。
その結果、データセットが十分に大きい場合、両方のプラクティスが十分なパフォーマンスを提供しますが、十分なパフォーマンスを維持するためにデータスパーシャビリティが導入されると、どちらも苦労しています。
論文 参考訳(メタデータ) (2021-05-07T03:54:51Z) - Unpaired Image-to-Image Translation via Latent Energy Transport [61.62293304236371]
画像から画像への変換は、2つの視覚領域間の識別的ターゲットスタイルに変換しながら、ソースの内容を保存することを目的としている。
本稿では,この課題に対して,事前訓練されたオートエンコーダの潜在空間にエネルギーベースモデル(EBM)を配置することを提案する。
我々のモデルは1024$times$1024- resolution unpaired image translationに適用できる最初のモデルである。
論文 参考訳(メタデータ) (2020-12-01T17:18:58Z) - Contrastive Rendering for Ultrasound Image Segmentation [59.23915581079123]
米国の画像にシャープな境界がないことは、セグメンテーションに固有の課題である。
我々は,US画像における境界推定を改善するための,新しい,効果的なフレームワークを提案する。
提案手法は最先端の手法より優れており,臨床応用の可能性も高い。
論文 参考訳(メタデータ) (2020-10-10T07:14:03Z) - Contrastive Learning for Unpaired Image-to-Image Translation [64.47477071705866]
画像から画像への変換では、出力の各パッチは、入力中の対応するパッチの内容を、ドメインに依存しない形で反映すべきである。
本研究では,両者の相互情報を最大化するために,コントラスト学習に基づく枠組みを提案する。
筆者らのフレームワークは、画質の向上とトレーニング時間の短縮を図りながら、画像から画像への翻訳設定の一方的な翻訳を可能にすることを実証している。
論文 参考訳(メタデータ) (2020-07-30T17:59:58Z) - Inter-Region Affinity Distillation for Road Marking Segmentation [81.3619453527367]
本研究では,大規模な教員ネットワークからより小さな学生ネットワークへ知識を蒸留する問題について検討する。
我々の手法はInter-Region Affinity KD(IntRA-KD)として知られている。
論文 参考訳(メタデータ) (2020-04-11T04:26:37Z) - Semi-supervised Learning for Few-shot Image-to-Image Translation [89.48165936436183]
本稿では,SEMITと呼ばれる画像翻訳のための半教師付き手法を提案する。
提案手法は,ソースラベルの10%以下を用いて,4つの異なるデータセットに対して優れた結果を得る。
論文 参考訳(メタデータ) (2020-03-30T22:46:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。