論文の概要: Total Variation Optimization Layers for Computer Vision
- arxiv url: http://arxiv.org/abs/2204.03643v1
- Date: Thu, 7 Apr 2022 17:59:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-08 15:00:31.639133
- Title: Total Variation Optimization Layers for Computer Vision
- Title(参考訳): コンピュータビジョンのための全変動最適化層
- Authors: Raymond A. Yeh, Yuan-Ting Hu, Zhongzheng Ren, Alexander G. Schwing
- Abstract要約: コンピュータビジョンのためのレイヤとして,全変動(TV)最小化を提案する。
画像処理における全変動の成功により、我々は、層としてのテレビがディープネットに有用な帰納バイアスを与えるという仮説を立てた。
本仮説は,画像分類,弱教師付き物体の局所化,エッジ保存平滑化,エッジ検出,画像復調という5つのコンピュータビジョンタスクについて検討する。
- 参考スコア(独自算出の注目度): 130.10996341231743
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Optimization within a layer of a deep-net has emerged as a new direction for
deep-net layer design. However, there are two main challenges when applying
these layers to computer vision tasks: (a) which optimization problem within a
layer is useful?; (b) how to ensure that computation within a layer remains
efficient? To study question (a), in this work, we propose total variation (TV)
minimization as a layer for computer vision. Motivated by the success of total
variation in image processing, we hypothesize that TV as a layer provides
useful inductive bias for deep-nets too. We study this hypothesis on five
computer vision tasks: image classification, weakly supervised object
localization, edge-preserving smoothing, edge detection, and image denoising,
improving over existing baselines. To achieve these results we had to address
question (b): we developed a GPU-based projected-Newton method which is
$37\times$ faster than existing solutions.
- Abstract(参考訳): ディープネット層内の最適化は、ディープネット層設計の新しい方向性として現れた。
しかし、これらのレイヤをコンピュータビジョンタスクに適用する場合、主な課題は2つある。
(a)レイヤ内の最適化問題はどれが役に立つか?
;
b) レイヤ内の計算が効率的であることを保証するには?
研究にむけて
(a)本研究では,コンピュータビジョンのためのレイヤーとして,全変動(tv)最小化を提案する。
画像処理の全体的なバリエーションの成功に動機づけられ、テレビをレイヤーとして、ディープネットにも有用なインダクティブバイアスをもたらすと仮定した。
この仮説を5つのコンピュータビジョンタスク(画像分類、弱い教師付きオブジェクトのローカライゼーション、エッジ保存スムーシング、エッジ検出、画像のデニュージング)について検討し、既存のベースラインよりも改善した。
これらの結果を達成するためには
(b):既存のソリューションよりも37ドル以上高速なGPUベースのプロジェクテッドニュートン法を開発した。
関連論文リスト
- Parameter-Inverted Image Pyramid Networks [49.35689698870247]
Inverted Image Pyramid Networks (PIIP) と呼ばれる新しいネットワークアーキテクチャを提案する。
私たちの中核となる考え方は、パラメータサイズの異なるモデルを使用して、画像ピラミッドの解像度の異なるレベルを処理することです。
PIIPは、オブジェクト検出、セグメンテーション、画像分類などのタスクにおいて優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-06-06T17:59:10Z) - Multi-scale Unified Network for Image Classification [33.560003528712414]
CNNは、実世界のマルチスケール画像入力を扱う際に、性能と計算効率において顕著な課題に直面している。
本稿では,マルチスケール,統一ネットワーク,スケール不変制約からなるMultiscale Unified Network(MUSN)を提案する。
MUSNは精度が44.53%向上し、マルチスケールシナリオではFLOPを7.01-16.13%減少させる。
論文 参考訳(メタデータ) (2024-03-27T06:40:26Z) - Tuning computer vision models with task rewards [88.45787930908102]
モデル予測と意図された使用法とのミスは、コンピュータビジョンモデルの展開に有害である。
自然言語処理では、モデルとタスク報酬を整合させる強化学習技術を用いて、この問題に対処することが多い。
我々はこのアプローチを採用し、オブジェクト検出、汎視的セグメンテーション、着色、画像キャプションなど、複数のコンピュータビジョンタスクにまたがる驚くべき効果を示す。
論文 参考訳(メタデータ) (2023-02-16T11:49:48Z) - Deep Generalized Unfolding Networks for Image Restoration [16.943609020362395]
画像復元のためのDeep Generalized Unfolding Network (DGUNet)を提案する。
我々は、勾配推定戦略をPGDアルゴリズムの勾配降下ステップに統合する。
我々の手法は、最先端の性能、解釈可能性、一般化可能性の点で優れている。
論文 参考訳(メタデータ) (2022-04-28T08:39:39Z) - DeepRLS: A Recurrent Network Architecture with Least Squares Implicit
Layers for Non-blind Image Deconvolution [15.986942312624]
非盲点画像デコンボリューションの問題について検討する。
本稿では,画像品質の非常に競争力のある復元結果をもたらす新しい再帰的ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-10T13:16:51Z) - A Deeper Look into DeepCap [96.67706102518238]
そこで本研究では,単分子密集型人間のパフォーマンスキャプチャのための新しい深層学習手法を提案する。
本手法は,多視点監視に基づく弱教師付き方式で訓練されている。
我々のアプローチは、品質と堅牢性の観点から、芸術の状態を上回ります。
論文 参考訳(メタデータ) (2021-11-20T11:34:33Z) - TSG: Target-Selective Gradient Backprop for Probing CNN Visual Saliency [72.9106103283475]
我々は、畳み込みニューラルネットワークを解釈するために視覚的サリエンシ、すなわち視覚的説明について研究する。
これらの観測に触発されて、我々はTSG(Target-Selective Gradient)バックプロップと呼ばれる新しいビジュアル・サリエンシ・フレームワークを提案する。
提案したTSGはTSG-ConvとTSG-FCの2つのコンポーネントから構成され、それぞれ畳み込み層と完全連結層の勾配を補正する。
論文 参考訳(メタデータ) (2021-10-11T12:00:20Z) - Conflicting Bundles: Adapting Architectures Towards the Improved
Training of Deep Neural Networks [1.7188280334580195]
トレーニングされたモデルのテスト精度を低下させるレイヤを特定するために,新しい理論と計量を導入する。
矛盾するトレーニングバンドルを生成するため、パフォーマンスを悪化させるこれらのレイヤを特定します。
これらの結果に基づき、性能低下層を自動的に除去する新しいアルゴリズムが導入された。
論文 参考訳(メタデータ) (2020-11-05T16:41:04Z) - Feature Space Saturation during Training [0.0]
本研究では, 性能損失を伴わない分散行列の固有空間に, 層の出力を制限できることを示す。
層飽和-固有空間次元と層幅の比を導出する。
ニューラルネットワークの層飽和度を、ネットワーク深さ、フィルタサイズ、入力解像度を変化させることで、どのように変化させるかを示す。
論文 参考訳(メタデータ) (2020-06-15T18:28:21Z) - Binary Neural Networks: A Survey [126.67799882857656]
バイナリニューラルネットワークは、リソース制限されたデバイスにディープモデルをデプロイするための有望なテクニックとして機能する。
バイナライゼーションは必然的に深刻な情報損失を引き起こし、さらに悪いことに、その不連続性はディープネットワークの最適化に困難をもたらす。
本稿では,2項化を直接実施するネイティブソリューションと,量子化誤差の最小化,ネットワーク損失関数の改善,勾配誤差の低減といった手法を用いて,これらのアルゴリズムを探索する。
論文 参考訳(メタデータ) (2020-03-31T16:47:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。