論文の概要: Underwater Ranker: Learn Which Is Better and How to Be Better
- arxiv url: http://arxiv.org/abs/2208.06857v1
- Date: Sun, 14 Aug 2022 14:13:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-16 13:58:29.125123
- Title: Underwater Ranker: Learn Which Is Better and How to Be Better
- Title(参考訳): 水中ランサー:どちらが良いか、どのように改善するかを学ぶ
- Authors: Chunle Guo and Ruiqi Wu and Xin Jin and Linghao Han and Zhi Chai and
Weidong Zhang and Chongyi Li
- Abstract要約: ランク付けに基づく水中画像品質評価(UIQA)手法をウランカー(URanker)と略して提案する。
特に,(1)グローバルな劣化に対応するために水中画像の色分布をヒストグラムトークンとして埋め込んだヒストグラム,(2)局所的な劣化をモデル化するための動的クロススケール対応を考案する。
マージンランキングの喪失により、ウランカーは視覚的品質に応じて異なる水中画像強調(UIE)アルゴリズムによって強化された同一シーンの水中画像の順序を正確にランク付けできる。
- 参考スコア(独自算出の注目度): 21.47571247125381
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present a ranking-based underwater image quality assessment
(UIQA) method, abbreviated as URanker. The URanker is built on the efficient
conv-attentional image Transformer. In terms of underwater images, we specially
devise (1) the histogram prior that embeds the color distribution of an
underwater image as histogram token to attend global degradation and (2) the
dynamic cross-scale correspondence to model local degradation. The final
prediction depends on the class tokens from different scales, which
comprehensively considers multi-scale dependencies. With the margin ranking
loss, our URanker can accurately rank the order of underwater images of the
same scene enhanced by different underwater image enhancement (UIE) algorithms
according to their visual quality. To achieve that, we also contribute a
dataset, URankerSet, containing sufficient results enhanced by different UIE
algorithms and the corresponding perceptual rankings, to train our URanker.
Apart from the good performance of URanker, we found that a simple U-shape UIE
network can obtain promising performance when it is coupled with our
pre-trained URanker as additional supervision. In addition, we also propose a
normalization tail that can significantly improve the performance of UIE
networks. Extensive experiments demonstrate the state-of-the-art performance of
our method. The key designs of our method are discussed. We will release our
dataset and code.
- Abstract(参考訳): 本稿では,uranker(uranker)と略される,ランキングに基づく水中画像品質評価法(uiqa)を提案する。
URankerは効率の良いconv-attentional image Transformer上に構築されている。
水中画像については,(1)グローバルな劣化に対応するために水中画像の色分布をヒストグラムトークンとして埋め込んだヒストグラム,(2)局所的な劣化をモデル化するための動的クロススケール対応を考案した。
最終的な予測は、多スケールの依存関係を包括的に考慮するさまざまなスケールのクラストークンに依存する。
マージンランキングの喪失により、ウランカーは視覚的品質に応じて異なる水中画像強調(UIE)アルゴリズムによって強化された同一シーンの水中画像の順序を正確にランク付けできる。
これを実現するために、異なるUIEアルゴリズムと対応する知覚的ランキングによって強化された十分な結果を含むデータセットURankerSetも提供し、URankerをトレーニングします。
U字型UIEネットワークは, ウランカーの優れた性能とは別に, トレーニング済みのウランカーと組み合わせることで, 有望な性能が得られることがわかった。
また,UIEネットワークの性能を大幅に向上させることができる正規化テールを提案する。
広範な実験により,本手法の最先端性能が実証された。
本手法の重要な設計について論じる。
データセットとコードをリリースします。
関連論文リスト
- Deep Homography Estimation for Visual Place Recognition [49.235432979736395]
本稿では,変換器を用いたディープホモグラフィー推定(DHE)ネットワークを提案する。
バックボーンネットワークによって抽出された濃密な特徴写像を入力とし、高速で学習可能な幾何的検証のためにホモグラフィーに適合する。
ベンチマークデータセットを用いた実験により,本手法はいくつかの最先端手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-02-25T13:22:17Z) - Learning semantic image quality for fetal ultrasound from noisy ranking
annotation [7.078132778424183]
画像品質がセマンティック要件に依存するアプリケーションに対して,セマンティックな画像品質の概念を導入する。
画像のセマンティックな画質に基づいて画像のランク付けを行い、予測されたランク付けを不確実な推定で達成する頑健な粗大度モデルの設計を行う。
我々は,胎児超音波品質評価課題において,我々のランク付けアルゴリズムと最先端のランク付けアルゴリズムを比較した。
論文 参考訳(メタデータ) (2024-02-13T08:48:16Z) - Improved Benthic Classification using Resolution Scaling and SymmNet
Unsupervised Domain Adaptation [8.35780131268962]
空間分解能の正規化のために,SymmNetの最先端Unsupervised Domain Adaptation法を,効率的な双線形プール層と画像スケーリングにより適用する。
その結果, トレーニング画像と異なるAUVサーベイから, 画像の精度を大幅に向上させるため, 汎用領域適応を向上できることが示唆された。
論文 参考訳(メタデータ) (2023-03-20T09:33:47Z) - Adaptive Uncertainty Distribution in Deep Learning for Unsupervised
Underwater Image Enhancement [1.9249287163937976]
ディープラーニングベースの水中画像強化における大きな課題の1つは、高品質なトレーニングデータの可用性の制限である。
本研究では、条件付き変分オートエンコーダ(cVAE)を用いて、深層学習モデルのトレーニングを行う、新しい教師なし水中画像強調フレームワークを提案する。
提案手法は, 定量化と定性化の両面において, 他の最先端手法と比較して, 競争性能が向上することを示す。
論文 参考訳(メタデータ) (2022-12-18T01:07:20Z) - RankDNN: Learning to Rank for Few-shot Learning [70.49494297554537]
本稿では、画像検索の関連性ランキングをバイナリランキング関係分類として活用する、新しい数ショット学習パイプラインを提案する。
これは、数ショットの学習に関する新しい視点を提供し、最先端の手法を補完する。
論文 参考訳(メタデータ) (2022-11-28T13:59:31Z) - UIF: An Objective Quality Assessment for Underwater Image Enhancement [17.145844358253164]
水中画像の客観的評価のための水中画像忠実度(UIF)指標を提案する。
これらの画像の統計的特徴を利用して,自然度,鋭度,構造的特徴を抽出する。
実験の結果,提案したUIFは水中および汎用画像品質指標より優れていたことが確認された。
論文 参考訳(メタデータ) (2022-05-19T08:43:47Z) - Deep Rank-Consistent Pyramid Model for Enhanced Crowd Counting [48.15210212256114]
そこで我々は,大規模未ラベル画像を用いた観客数増大を目的としたDREAM(Deep Rank-consistEnt pyrAmid Model)を提案する。
さらに, トレーニング目的のために4000枚の画像を含む, 未ラベルのクラウドカウントデータセット, FUDAN-UCC を新たに収集した。
論文 参考訳(メタデータ) (2022-01-13T07:25:06Z) - Contextual Similarity Aggregation with Self-attention for Visual
Re-ranking [96.55393026011811]
本稿では,自己注意を伴う文脈的類似性集約による視覚的再ランク付け手法を提案する。
提案手法の汎用性と有効性を示すため,4つのベンチマークデータセットの総合的な実験を行った。
論文 参考訳(メタデータ) (2021-10-26T06:20:31Z) - Domain Adaptation for Underwater Image Enhancement [51.71570701102219]
本稿では,ドメイン間およびドメイン内ギャップを最小限に抑えるために,新しい2相水中ドメイン適応ネットワーク(TUDA)を提案する。
第1段階では、入力画像のリアリズムを強化する翻訳部と、拡張部とを含む新しい二重配向ネットワークを設計する。
第2フェーズでは、ランクベースの水中品質評価手法が組み込まれている強化画像の評価品質に応じて、実データを簡単に分類する。
論文 参考訳(メタデータ) (2021-08-22T06:38:19Z) - Twice Mixing: A Rank Learning based Quality Assessment Approach for
Underwater Image Enhancement [42.03072878219206]
水中画像強調(UIE)のためのランク学習誘導非参照品質評価法を提案する。
Twice Mixingと呼ばれるこの手法は、高品質な画像と低品質な画像とを混合することにより、中質な画像を生成することができるという観察によって動機付けられている。
我々は、合成データセットと実世界のデータセットの両方について広範な実験を行う。
論文 参考訳(メタデータ) (2021-02-01T07:13:39Z) - Self-Supervised Ranking for Representation Learning [108.38993212650577]
本稿では、画像検索コンテキストにおけるランキング問題として定式化することで、自己教師型表現学習のための新しいフレームワークを提案する。
我々は、画像のランダムなビューが正に関連していると考えられるランク付けのための平均精度(AP)を最大化し、表現エンコーダを訓練する。
原則として、ランク付け基準を使用することで、対象中心のキュレートされたデータセットへの依存を排除します。
論文 参考訳(メタデータ) (2020-10-14T17:24:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。