論文の概要: A Practical Contrastive Learning Framework for Single Image
Super-Resolution
- arxiv url: http://arxiv.org/abs/2111.13924v1
- Date: Sat, 27 Nov 2021 15:42:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-03 08:37:46.155563
- Title: A Practical Contrastive Learning Framework for Single Image
Super-Resolution
- Title(参考訳): 単一画像超解像のための実践的コントラスト学習フレームワーク
- Authors: Gang Wu and Junjun Jiang and Xianming Liu and Jiayi Ma
- Abstract要約: 単一画像超解像(SISR)のための新しいコントラスト学習フレームワークを提案する。
SISRの最先端アプローチよりも0.21dBの顕著な向上を示した。
- 参考スコア(独自算出の注目度): 80.99419678572869
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Contrastive learning has achieved remarkable success on various high-level
tasks, but there are fewer methods proposed for low-level tasks. It is
challenging to adopt vanilla contrastive learning technologies proposed for
high-level visual tasks straight to low-level visual tasks since the acquired
global visual representations are insufficient for low-level tasks requiring
rich texture and context information. In this paper, we propose a novel
contrastive learning framework for single image super-resolution (SISR). We
investigate the contrastive learning-based SISR from two perspectives: sample
construction and feature embedding. The existing methods propose some naive
sample construction approaches (e.g., considering the low-quality input as a
negative sample and the ground truth as a positive sample) and they adopt a
prior model (e.g., pre-trained VGG model) to obtain the feature embedding
instead of exploring a task-friendly one. To this end, we propose a practical
contrastive learning framework for SISR that involves the generation of many
informative positive and hard negative samples in frequency space. Instead of
utilizing an additional pre-trained network, we design a simple but effective
embedding network inherited from the discriminator network and can be
iteratively optimized with the primary SR network making it task-generalizable.
Finally, we conduct an extensive experimental evaluation of our method compared
with benchmark methods and show remarkable gains of up to 0.21 dB over the
current state-of-the-art approaches for SISR.
- Abstract(参考訳): 対照的な学習は様々なハイレベルなタスクで顕著な成功を収めてきたが、低レベルなタスクに対して提案される手法は少ない。
獲得したグローバルな視覚表現は、リッチなテクスチャやコンテキスト情報を必要とする低レベルなタスクには不十分であるため、高レベルな視覚タスクに対して提案されるバニラコントラスト学習技術を採用することは困難である。
本稿では,単一画像超解像(SISR)のための新しいコントラスト学習フレームワークを提案する。
比較学習に基づくsisrについて,サンプル構築と特徴埋め込みという2つの視点から検討する。
既存の手法では,低品質な入力を負のサンプルとして,地味の真理を正のサンプルとして検討するなど,単純なサンプル構築手法が提案されており,先行モデル(事前学習VGGモデルなど)を採用して,タスクフレンドリーなサンプルを探索する代わりに,特徴埋め込みを実現する。
そこで本研究では,周波数空間における多くの情報的正負および強負のサンプルの生成を含む,SISRの実践的コントラスト学習フレームワークを提案する。
追加の事前学習されたネットワークを利用する代わりに、識別器ネットワークから継承される単純で効果的な埋め込みネットワークを設計し、プライマリのsrネットワークで反復的に最適化することでタスクを一般化できる。
最後に,本手法をベンチマーク法と比較して広範囲に実験的に評価し,SISRの最先端手法に比べて最大0.21dBの顕著な向上を示した。
関連論文リスト
- InfRS: Incremental Few-Shot Object Detection in Remote Sensing Images [11.916941756499435]
本稿では,リモートセンシング画像におけるインクリメンタルな数ショット物体検出の複雑な課題について検討する。
本稿では,新しい授業の漸進的な学習を促進するために,InfRSと呼ばれる先駆的な微調整技術を導入する。
我々はワッサーシュタイン距離に基づく原型校正戦略を開発し、破滅的な忘れ問題を軽減する。
論文 参考訳(メタデータ) (2024-05-18T13:39:50Z) - Enhancing Vision-Language Few-Shot Adaptation with Negative Learning [11.545127156146368]
我々は,タスク固有の知識をより効率的に活用するための,シンプルで効果的な否定的学習手法SimNLを提案する。
そこで本研究では,雑音を緩和するために,プラグアンドプレイによる数発のインスタンス再重み付け手法を提案する。
提案したSimNLは,少数ショット学習とドメイン一般化の両タスクにおいて,既存の最先端手法よりも優れていることを確認した。
論文 参考訳(メタデータ) (2024-03-19T17:59:39Z) - A Lightweight Parallel Framework for Blind Image Quality Assessment [7.9562077122537875]
ブラインド画像品質評価(BIQA)のための軽量並列フレームワーク(LPF)を提案する。
まず,事前学習した特徴抽出ネットワークを用いて視覚特徴を抽出し,視覚特徴を変換するための簡易で効果的な特徴埋め込みネットワーク(FEN)を構築した。
本稿では,サンプルレベルのカテゴリ予測タスクとバッチレベルの品質比較タスクを含む,新たな2つのサブタスクを提案する。
論文 参考訳(メタデータ) (2024-02-19T10:56:58Z) - Learning Deep Representations via Contrastive Learning for Instance
Retrieval [11.736450745549792]
本稿では、インスタンス識別に基づくコントラスト学習(CL)を用いて、この問題に取り組むための最初の試みを行う。
本研究では、事前学習されたCLモデルと微調整されたCLモデルから識別表現を導出する能力を探求することにより、この問題に対処する。
論文 参考訳(メタデータ) (2022-09-28T04:36:34Z) - What Makes Good Contrastive Learning on Small-Scale Wearable-based
Tasks? [59.51457877578138]
本研究では,ウェアラブル型行動認識タスクにおけるコントラスト学習について検討する。
本稿では,PyTorchライブラリのtextttCL-HAR について述べる。
論文 参考訳(メタデータ) (2022-02-12T06:10:15Z) - On Efficient Transformer and Image Pre-training for Low-level Vision [74.22436001426517]
プレトレーニングは、ハイレベルコンピュータビジョンにおける多くの最先端の芸術である。
画像事前学習の詳細な研究について述べる。
低レベルのタスクでは,事前トレーニングが極めて異なる役割を担っています。
論文 参考訳(メタデータ) (2021-12-19T15:50:48Z) - Activation to Saliency: Forming High-Quality Labels for Unsupervised
Salient Object Detection [54.92703325989853]
本稿では,高品質なサリエンシキューを効果的に生成する2段階アクティベーション・ツー・サリエンシ(A2S)フレームワークを提案する。
トレーニングプロセス全体において、私たちのフレームワークにヒューマンアノテーションは関与していません。
本フレームワークは,既存のUSOD法と比較して高い性能を示した。
論文 参考訳(メタデータ) (2021-12-07T11:54:06Z) - Weakly Supervised Contrastive Learning [68.47096022526927]
この問題に対処するために,弱教師付きコントラスト学習フレームワーク(WCL)を導入する。
WCLはResNet50を使用して65%と72%のImageNet Top-1の精度を実現している。
論文 参考訳(メタデータ) (2021-10-10T12:03:52Z) - Low-Resolution Face Recognition In Resource-Constrained Environments [34.13093606945265]
本研究では,非パラメトリック低解像度顔認識モデルを提案する。
少数のラベル付きデータサンプルで、トレーニングの複雑さが低く、低解像度の入力イメージでトレーニングすることができる。
提案モデルの有効性は,LFWとCMU Multi-PIEデータセットの実験によって実証された。
論文 参考訳(メタデータ) (2020-11-23T19:14:02Z) - Prototypical Contrastive Learning of Unsupervised Representations [171.3046900127166]
原型コントラスト学習(Prototypeal Contrastive Learning, PCL)は、教師なし表現学習法である。
PCLは暗黙的にデータのセマンティック構造を学習された埋め込み空間にエンコードする。
PCLは、複数のベンチマークで最先端のインスタンスワイド・コントラスト学習法より優れている。
論文 参考訳(メタデータ) (2020-05-11T09:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。