論文の概要: Bilevel Generative Learning for Low-Light Vision
- arxiv url: http://arxiv.org/abs/2308.03381v1
- Date: Mon, 7 Aug 2023 07:59:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 14:32:42.624355
- Title: Bilevel Generative Learning for Low-Light Vision
- Title(参考訳): 低照度ビジョンのためのバイレベル生成学習
- Authors: Yingchi Liu, Zhu Liu, Long Ma, Jinyuan Liu, Xin Fan, Zhongxuan Luo,
Risheng Liu
- Abstract要約: 本稿では、RAWからRGB領域へのデータ変換のための生成ブロックを導入することで、汎用的な低照度ビジョンソリューションを提案する。
この新しいアプローチは、フィールドにおける最初のデータ生成を明示的に表現することで、多様な視覚問題を結合する。
そこで我々は,新しい二段階生成学習パラダイムを取得するために,低コストと高精度の異なる目標を目標とする2種類の学習戦略を開発した。
- 参考スコア(独自算出の注目度): 64.77933848939327
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, there has been a growing interest in constructing deep learning
schemes for Low-Light Vision (LLV). Existing techniques primarily focus on
designing task-specific and data-dependent vision models on the standard RGB
domain, which inherently contain latent data associations. In this study, we
propose a generic low-light vision solution by introducing a generative block
to convert data from the RAW to the RGB domain. This novel approach connects
diverse vision problems by explicitly depicting data generation, which is the
first in the field. To precisely characterize the latent correspondence between
the generative procedure and the vision task, we establish a bilevel model with
the parameters of the generative block defined as the upper level and the
parameters of the vision task defined as the lower level. We further develop
two types of learning strategies targeting different goals, namely low cost and
high accuracy, to acquire a new bilevel generative learning paradigm. The
generative blocks embrace a strong generalization ability in other low-light
vision tasks through the bilevel optimization on enhancement tasks. Extensive
experimental evaluations on three representative low-light vision tasks, namely
enhancement, detection, and segmentation, fully demonstrate the superiority of
our proposed approach. The code will be available at
https://github.com/Yingchi1998/BGL.
- Abstract(参考訳): 近年,低照度ビジョン(LLV)のためのディープラーニングスキームの構築への関心が高まっている。
既存の技術は主にタスク固有およびデータ依存のビジョンモデルを標準RGBドメインで設計することに焦点を当てている。
本研究では,rawからrgbドメインへデータを変換する生成ブロックを導入することで,汎用的な低光度視覚ソリューションを提案する。
この新しいアプローチは、フィールドにおける最初のデータ生成を明示的に表現することで、多様な視覚問題を結合する。
生成手順とビジョンタスクとの潜在対応を正確に特徴付けるため、上位レベルとして定義される生成ブロックのパラメータと下位レベルとして定義されたビジョンタスクのパラメータとを両層モデルとする。
さらに,新しい二段階生成学習パラダイムを得るために,目標の異なる2種類の学習戦略,すなわち低コストと高精度を開発する。
生成ブロックは、強化タスクのバイレベル最適化を通じて、他の低照度視覚タスクにおいて強力な一般化能力を持つ。
提案手法の優位性を示すために,3つの代表的な低照度視覚課題,すなわち強調,検出,セグメンテーションの総合的評価を行った。
コードはhttps://github.com/Yingchi1998/BGLで入手できる。
関連論文リスト
- Data-efficient Large Vision Models through Sequential Autoregression [58.26179273091461]
限られたデータセットに基づいて,効率的な自己回帰に基づく視覚モデルを構築する。
このモデルは,高レベル・低レベルのセマンティック理解の両方にまたがる視覚的タスクにおいて,その習熟度をいかに達成するかを実証する。
我々の経験的評価は、モデルが様々なタスクに適応する際の機敏さを強調し、パラメータフットプリントの大幅な削減を図った。
論文 参考訳(メタデータ) (2024-02-07T13:41:53Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - Bilevel Fast Scene Adaptation for Low-Light Image Enhancement [50.639332885989255]
低照度シーンにおける画像の強調は、コンピュータビジョンにおいて難しいが、広く懸念されている課題である。
主な障害は、異なるシーンにまたがる分散の相違によるモデリングの混乱にある。
上述の潜在対応をモデル化するための双レベルパラダイムを導入する。
エンコーダのシーン非関連な一般化を多様なシーンにもたらすために、双方向学習フレームワークを構築した。
論文 参考訳(メタデータ) (2023-06-02T08:16:21Z) - Hierarchical Contrastive Learning Enhanced Heterogeneous Graph Neural
Network [59.860534520941485]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、異種情報ネットワーク(HIN)を扱う能力に優れていた。
近年,自己指導型学習は最もエキサイティングな学習パラダイムの1つとなり,ラベルがない場合に大きな可能性を示す。
本稿では,自己教師型HGNNの問題点を考察し,HGNNのための新しいコントラスト学習機構であるHeCoを提案する。
論文 参考訳(メタデータ) (2023-04-24T16:17:21Z) - NIFF: Alleviating Forgetting in Generalized Few-Shot Object Detection
via Neural Instance Feature Forging [4.115458354238768]
Generalized Few-shot Object Detection (G-FSOD)はAIの学習パラダイムである。
G-FSODは、基礎クラスの破滅的な忘れを緩和しながら、新しいクラスを学ぶことを目指している。
本稿では,G-FSODのためのデータフリーな知識蒸留(DFKD)手法を提案する。
論文 参考訳(メタデータ) (2023-03-09T00:26:59Z) - Self-Aligned Concave Curve: Illumination Enhancement for Unsupervised
Adaptation [36.050270650417325]
ハイレベルビジョンのための学習可能な照明強調モデルを提案する。
実際のカメラ応答関数にインスパイアされた照明強調関数は凹凸曲線であると仮定する。
我々のモデルアーキテクチャとトレーニングデザインは相互に恩恵を受け、強力な教師なし正規-低照度適応フレームワークを形成する。
論文 参考訳(メタデータ) (2022-10-07T19:32:55Z) - Image Difference Captioning with Pre-training and Contrastive Learning [45.59621065755761]
画像差分キャプション(IDC)タスクは、自然言語と類似した2つの画像の視覚的差異を記述することを目的としている。
このタスクの主な課題は、1)より強力な視覚と言語関連を学習する必要のある、きめ細かい視覚的差異、2)手動アノテーションのコストの2つの側面にある。
本稿では,これらの課題に対処するために,事前学習ファインタニングパラダイムに基づく新しいモデリングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-09T06:14:22Z) - Semi-Supervised StyleGAN for Disentanglement Learning [79.01988132442064]
現在の解離法は、いくつかの固有の制限に直面している。
半教師付き高分解能ディスタングル学習のためのStyleGANに基づく新しいアーキテクチャと損失関数を設計する。
論文 参考訳(メタデータ) (2020-03-06T22:54:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。