論文の概要: Unsupervised Learning of the Total Variation Flow
- arxiv url: http://arxiv.org/abs/2206.04406v2
- Date: Mon, 22 Apr 2024 16:41:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-24 01:41:46.310460
- Title: Unsupervised Learning of the Total Variation Flow
- Title(参考訳): 総変動流の教師なし学習
- Authors: Tamara G. Grossmann, Sören Dittmer, Yury Korolev, Carola-Bibiane Schönlieb,
- Abstract要約: 総変動(TV)フローは、テレビ機能に基づいた画像のスケール空間表現を生成する。
TVflowNETは、初期画像とタイムインスタンスが与えられたTVフローの解を近似するための教師なしニューラルネットワークアプローチである。
また,TVflowNETは,画像サイズや画像の種類に応じて,高い忠実度でTVフロー解を近似することを示した。
- 参考スコア(独自算出の注目度): 11.056286994184875
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The total variation (TV) flow generates a scale-space representation of an image based on the TV functional. This gradient flow observes desirable features for images, such as sharp edges and enables spectral, scale, and texture analysis. Solving the TV flow is challenging; one reason is the the non-uniqueness of the subgradients. The standard numerical approach for TV flow requires solving multiple non-smooth optimisation problems. Even with state-of-the-art convex optimisation techniques, this is often prohibitively expensive and strongly motivates the use of alternative, faster approaches. Inspired by and extending the framework of physics-informed neural networks (PINNs), we propose the TVflowNET, an unsupervised neural network approach, to approximate the solution of the TV flow given an initial image and a time instance. The TVflowNET requires no ground truth data but rather makes use of the PDE for optimisation of the network parameters. We circumvent the challenges related to the non-uniqueness of the subgradients by additionally learning the related diffusivity term. Our approach significantly speeds up the computation time and we show that the TVflowNET approximates the TV flow solution with high fidelity for different image sizes and image types. Additionally, we give a full comparison of different network architecture designs as well as training regimes to underscore the effectiveness of our approach.
- Abstract(参考訳): 総変動(TV)フローは、TV機能に基づいた画像のスケール空間表現を生成する。
この勾配流は、シャープエッジなどの画像の望ましい特徴を観察し、スペクトル、スケール、テクスチャ解析を可能にする。
テレビの流れを解くことは困難であり、一つの理由は下級者の非特異性である。
テレビジョンフローの標準的な数値的アプローチでは、複数の非滑らかな最適化問題を解く必要がある。
最先端の凸最適化技術でさえ、これはしばしば高額であり、代替的で高速なアプローチの使用を強く動機付けている。
物理インフォームドニューラルネットワーク(PINN)の枠組みに着想を得て拡張し、初期画像とタイムインスタンスが与えられたTVフローの解を近似するために、教師なしニューラルネットワークアプローチであるTVflowNETを提案する。
TVflowNETは根拠となる真理データを必要としないが、むしろネットワークパラメータの最適化にPDEを利用している。
我々は、関連する微分項を学習することで、下級者の非特異性に関連する課題を回避する。
提案手法は計算時間を著しく短縮し,TVflowNETは画像サイズや画像の種類に応じて高い忠実度でTVフローソリューションを近似することを示した。
さらに、異なるネットワークアーキテクチャ設計の完全な比較と、アプローチの有効性を評価するためのトレーニング体制も提供します。
関連論文リスト
- FiTv2: Scalable and Improved Flexible Vision Transformer for Diffusion Model [76.84519526283083]
textbfFlexible Vision Transformer (FiT) は、テキスト非制限解像度とアスペクト比で画像を生成するために設計されたトランスアーキテクチャである。
FiTv2は、高度なトレーニングフリーな外挿技術を導入する際に、FiTの収束速度を2倍に向上させる。
総合的な実験は、FiTv2の幅広い解像度での異常な性能を実証している。
論文 参考訳(メタデータ) (2024-10-17T15:51:49Z) - Hyper-VolTran: Fast and Generalizable One-Shot Image to 3D Object
Structure via HyperNetworks [53.67497327319569]
画像から3Dまでを1つの視点から解く新しいニューラルレンダリング手法を提案する。
提案手法では, 符号付き距離関数を表面表現として使用し, 幾何エンコードボリュームとハイパーネットワークスによる一般化可能な事前処理を取り入れた。
本実験は,一貫した結果と高速な生成による提案手法の利点を示す。
論文 参考訳(メタデータ) (2023-12-24T08:42:37Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - Spatially-Adaptive Feature Modulation for Efficient Image
Super-Resolution [90.16462805389943]
視覚変換器(ViT)のようなブロック上に,空間適応型特徴変調(SAFM)機構を開発する。
提案法は最先端のSR法よりも3倍程度小さい。
論文 参考訳(メタデータ) (2023-02-27T14:19:31Z) - Deep Dynamic Scene Deblurring from Optical Flow [53.625999196063574]
汚れは視覚的により快適な写真を提供し、写真がより便利になる。
非均一な曖昧さを数学的にモデル化することは困難である。
我々は,難解な特徴から鮮明な画像を復元する畳み込みニューラルネットワーク(CNN)を開発した。
論文 参考訳(メタデータ) (2023-01-18T06:37:21Z) - Wide-band butterfly network: stable and efficient inversion via
multi-frequency neural networks [1.2891210250935143]
広帯域散乱データから逆散乱マップを近似するために,広帯域蝶ネットワーク(WideBNet)と呼ばれるエンドツーエンドのディープラーニングアーキテクチャを導入する。
このアーキテクチャでは、バタフライの分解のような計算調和解析や、クーリー・テューキーFFTアルゴリズムのような伝統的なマルチスケール手法のツールが組み込まれている。
論文 参考訳(メタデータ) (2020-11-24T21:48:43Z) - AutoPruning for Deep Neural Network with Dynamic Channel Masking [28.018077874687343]
深層ニューラルネットワークのための学習に基づくオートプルーニングアルゴリズムを提案する。
まず、各層に対する重みと最良チャネルを目的とする2つの目的の問題を定式化する。
次に、最適なチャネル数と重みを同時に導出するために、別の最適化手法を提案する。
論文 参考訳(メタデータ) (2020-10-22T20:12:46Z) - Glance and Focus: a Dynamic Approach to Reducing Spatial Redundancy in
Image Classification [46.885260723836865]
ディープ畳み込みニューラルネットワーク (Deep Convolutional Neural Network, CNN) は、高解像度画像で処理することで一般的に改善される。
画像中のすべての領域がタスク関連であるとは限らないという事実に着想を得て,効率的な画像分類を行う新しいフレームワークを提案する。
我々のフレームワークは、最先端の軽量CNNの多くと互換性があり、汎用的で柔軟です。
論文 参考訳(メタデータ) (2020-10-11T17:55:06Z) - Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio [101.84651388520584]
本稿では,ネットワークの精度をFLOPの関数として考慮した,ネットワーク調整という新しいフレームワークを提案する。
標準画像分類データセットと幅広いベースネットワークの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-04-06T15:51:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。