論文の概要: LSM: Learning Subspace Minimization for Low-level Vision
- arxiv url: http://arxiv.org/abs/2004.09197v1
- Date: Mon, 20 Apr 2020 10:49:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-11 18:46:47.899202
- Title: LSM: Learning Subspace Minimization for Low-level Vision
- Title(参考訳): LSM:低レベルビジョンのための学習サブスペース最小化
- Authors: Chengzhou Tang, Lu Yuan and Ping Tan
- Abstract要約: 我々は、正規化項を学習可能な部分空間制約に置き換え、データ項をドメイン知識を活用するために保存する。
この学習サブスペース最小化(LSM)フレームワークは、多くの低レベル視覚タスクのネットワーク構造とパラメータを統一する。
インタラクティブな画像セグメンテーション、ビデオセグメンテーション、ステレオマッチング、オプティカルフローを含む4つの低レベルタスクについてLSMフレームワークを実証し、様々なデータセット上でネットワークを検証した。
- 参考スコア(独自算出の注目度): 78.27774638569218
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the energy minimization problem in low-level vision tasks from a
novel perspective. We replace the heuristic regularization term with a
learnable subspace constraint, and preserve the data term to exploit domain
knowledge derived from the first principle of a task. This learning subspace
minimization (LSM) framework unifies the network structures and the parameters
for many low-level vision tasks, which allows us to train a single network for
multiple tasks simultaneously with completely shared parameters, and even
generalizes the trained network to an unseen task as long as its data term can
be formulated. We demonstrate our LSM framework on four low-level tasks
including interactive image segmentation, video segmentation, stereo matching,
and optical flow, and validate the network on various datasets. The experiments
show that the proposed LSM generates state-of-the-art results with smaller
model size, faster training convergence, and real-time inference.
- Abstract(参考訳): 低レベルビジョンタスクにおけるエネルギー最小化問題について,新しい視点から検討する。
ヒューリスティック正規化項を学習可能な部分空間制約に置き換え、タスクの第一原理に由来するドメイン知識を利用するためにデータ項を保存する。
この学習サブスペース最小化(LSM)フレームワークは、多くの低レベル視覚タスクのネットワーク構造とパラメータを統一し、完全に共有されたパラメータで同時に複数のタスクに対して単一のネットワークをトレーニングし、データ項を定式化できる限り、トレーニングされたネットワークを見えないタスクに一般化する。
本稿では,インタラクティブな画像セグメンテーション,映像セグメンテーション,ステレオマッチング,オプティカルフローを含む4つの低レベルタスクに対するlsmフレームワークを示し,各種データセット上でネットワークを検証する。
実験の結果,LSMはモデルサイズが小さく,トレーニング収束が速く,リアルタイムの推論が可能であった。
関連論文リスト
- Negotiated Representations to Prevent Forgetting in Machine Learning
Applications [0.0]
破滅的な忘れは、機械学習の分野で重要な課題である。
本稿では,機械学習アプリケーションにおける破滅的忘れを防止する新しい方法を提案する。
論文 参考訳(メタデータ) (2023-11-30T22:43:50Z) - An Efficient General-Purpose Modular Vision Model via Multi-Task
Heterogeneous Training [79.78201886156513]
本稿では、複数の視覚タスクを実行でき、他の下流タスクに効率的に適応できるモデルを提案する。
提案手法は,単一タスク状態モデルに匹敵する結果を達成し,下流タスクの強力な一般化を実証する。
論文 参考訳(メタデータ) (2023-06-29T17:59:57Z) - Dynamic Neural Network for Multi-Task Learning Searching across Diverse
Network Topologies [14.574399133024594]
多様なグラフトポロジを持つ複数のタスクに対して最適化された構造を探索する新しいMTLフレームワークを提案する。
我々は、トポロジ的に多様なタスク適応構造を構築するために、読み出し/読み出し層を備えたDAGベースの制限付き中央ネットワークを設計する。
論文 参考訳(メタデータ) (2023-03-13T05:01:50Z) - Improving Multi-task Learning via Seeking Task-based Flat Regions [43.85516379095757]
MTL(Multi-Task Learning)は、ディープニューラルネットワークをトレーニングするための強力な学習パラダイムである。
MTLには、究極の勾配降下方向を導出するためにタスク勾配を操作することに焦点を当てた、新たな作業ラインがある。
単タスク学習におけるモデル一般化能力を向上するシャープネス認識最小化という,最近導入されたトレーニング手法を活用することを提案する。
論文 参考訳(メタデータ) (2022-11-24T17:19:30Z) - Layer-wise Shared Attention Network on Dynamical System Perspective [69.45492795788167]
本稿では,複数のネットワーク層にまたがって単一の注目モジュールを共有するDIAユニットという,新規かつ簡易なフレームワークを提案する。
当社のフレームワークでは,パラメータコストはレイヤ数とは無関係であり,既存の自己注意モジュールの精度をさらに向上する。
論文 参考訳(メタデータ) (2022-10-27T13:24:08Z) - mPLUG: Effective and Efficient Vision-Language Learning by Cross-modal
Skip-connections [104.14624185375897]
mPLUGは、クロスモーダルな理解と生成のための新しいビジョン言語基盤モデルである。
画像キャプション、画像テキスト検索、視覚的グラウンドリング、視覚的質問応答など、幅広い視覚言語下流タスクの最先端結果を達成する。
論文 参考訳(メタデータ) (2022-05-24T11:52:06Z) - Multi-Task Learning with Sequence-Conditioned Transporter Networks [67.57293592529517]
シーケンスコンディショニングと重み付きサンプリングのレンズによるマルチタスク学習の実現を目指している。
合成タスクを対象とした新しいベンチマークであるMultiRavensを提案する。
次に,視覚に基づくエンドツーエンドシステムアーキテクチャであるSequence-Conditioned Transporter Networksを提案する。
論文 参考訳(メタデータ) (2021-09-15T21:19:11Z) - UniNet: A Unified Scene Understanding Network and Exploring Multi-Task
Relationships through the Lens of Adversarial Attacks [1.1470070927586016]
単一のタスクビジョンネットワークは、シーンのいくつかの側面に基づいてのみ情報を抽出する。
マルチタスク学習(MTL)では、単一のタスクが共同で学習され、タスクが情報を共有する機会を提供する。
我々は,重要な視覚タスクを正確かつ効率的に推測する統合されたシーン理解ネットワークUniNetを開発した。
論文 参考訳(メタデータ) (2021-08-10T11:00:56Z) - Meta-Learning with Fewer Tasks through Task Interpolation [67.03769747726666]
現在のメタ学習アルゴリズムは多数のメタトレーニングタスクを必要としており、実際のシナリオではアクセスできない可能性がある。
タスクグラデーションを用いたメタラーニング(MLTI)により,タスクのペアをランダムにサンプリングし,対応する特徴やラベルを補間することにより,タスクを効果的に生成する。
実証的な実験では,提案する汎用MLTIフレームワークが代表的なメタ学習アルゴリズムと互換性があり,他の最先端戦略を一貫して上回っていることがわかった。
論文 参考訳(メタデータ) (2021-06-04T20:15:34Z) - Deep Active Shape Model for Face Alignment and Pose Estimation [0.2148535041822524]
アクティブシェイプモデル(Active Shape Model、ASM)は、ターゲット構造を表すオブジェクトシェイプの統計モデルです。
本稿では,顔のアライメントと頭部のポーズ推定のためにASMによって正規化された損失関数を備えた,軽量な畳み込みニューラルネットワーク(CNN)アーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:46:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。