論文の概要: Learning Affinity-Aware Upsampling for Deep Image Matting
- arxiv url: http://arxiv.org/abs/2011.14288v1
- Date: Sun, 29 Nov 2020 05:09:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-07 09:04:29.817115
- Title: Learning Affinity-Aware Upsampling for Deep Image Matting
- Title(参考訳): 深部画像マッチングのための学習親和性を考慮したアップサンプリング
- Authors: Yutong Dai, Hao Lu, Chunhua Shen
- Abstract要約: アップサンプリングにおける学習親和性は、ディープ・ネットワークにおけるペアワイズ・インタラクションを効果的かつ効率的に利用するためのアプローチであることを示す。
特に、コンポジション1kマッチングデータセットの結果は、A2Uが強いベースラインに対してSAD測定値の14%の相対的な改善を達成していることを示している。
最先端のマッティングネットワークと比較すると、モデル複雑度は40%に過ぎず、8%高いパフォーマンスを実現しています。
- 参考スコア(独自算出の注目度): 83.02806488958399
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We show that learning affinity in upsampling provides an effective and
efficient approach to exploit pairwise interactions in deep networks.
Second-order features are commonly used in dense prediction to build adjacent
relations with a learnable module after upsampling such as non-local blocks.
Since upsampling is essential, learning affinity in upsampling can avoid
additional propagation layers, offering the potential for building compact
models. By looking at existing upsampling operators from a unified mathematical
perspective, we generalize them into a second-order form and introduce
Affinity-Aware Upsampling (A2U) where upsampling kernels are generated using a
light-weight lowrank bilinear model and are conditioned on second-order
features. Our upsampling operator can also be extended to downsampling. We
discuss alternative implementations of A2U and verify their effectiveness on
two detail-sensitive tasks: image reconstruction on a toy dataset; and a
largescale image matting task where affinity-based ideas constitute mainstream
matting approaches. In particular, results on the Composition-1k matting
dataset show that A2U achieves a 14% relative improvement in the SAD metric
against a strong baseline with negligible increase of parameters (<0.5%).
Compared with the state-of-the-art matting network, we achieve 8% higher
performance with only 40% model complexity.
- Abstract(参考訳): upsamplingにおける学習親和性は,ディープネットワークにおけるペアワイズインタラクションを利用するための効果的かつ効率的なアプローチを提供する。
2階機能は、非局所ブロックのようなアップサンプリング後の学習可能なモジュールとの隣接関係を構築するために、密接な予測に一般的に使用される。
アップサンプリングが不可欠であるため、アップサンプリングにおける学習親和性は、さらなる伝播層を避けることができ、コンパクトなモデルを構築する可能性を提供する。
統一数学的観点から既存のアップサンプリング演算子を二階形式に一般化し、親和性アウェアアップサンプリング(a2u)を導入し、アップサンプリングカーネルを軽量低ランク双線型モデルを用いて生成し、二階特徴を条件とする。
アップサンプリング演算子もダウンサンプリングに拡張できます。
a2uの代替実装について検討し,おもちゃデータセット上の画像再構成と,親和性に基づくアイデアがメインストリームのマットングアプローチを構成する大規模イメージマットングタスクという,2つのディテールに敏感なタスクの有効性を検証する。
特に, コンポジション1kマッチングデータセットの結果から, A2Uはパラメータの無視できる増加率(0.5%)の強いベースラインに対して, SAD測定値の14%の相対的な改善を達成していることがわかった。
最先端のマッティングネットワークと比較すると、モデルの複雑さはたった40%で8%高いパフォーマンスを実現しています。
関連論文リスト
- Lighten CARAFE: Dynamic Lightweight Upsampling with Guided Reassemble Kernels [18.729177307412645]
我々はDLU(Dynamic Lightweight Upsampling)と呼ばれる軽量なアップサンプリング動作を提案する。
いくつかのメインストリームのビジョンタスクの実験では、私たちのDLUはオリジナルのCARAFEに匹敵する、さらに優れたパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2024-10-29T15:35:14Z) - Towards Efficient and Accurate CT Segmentation via Edge-Preserving Probabilistic Downsampling [2.1465347972460367]
限られたリソースやネットワークトレーニングの迅速化を必要とするイメージやラベルのダウンサンプリングは、小さなオブジェクトと薄いバウンダリの損失につながる。
これにより、セグメンテーションネットワークのイメージを正確に解釈し、詳細なラベルを予測する能力が損なわれ、元の解像度での処理と比較して性能が低下する。
エッジ保存型確率ダウンサンプリング(EPD)という新しい手法を提案する。
ローカルウィンドウ内のクラス不確実性を利用してソフトラベルを生成し、ウィンドウサイズがダウンサンプリング係数を規定する。
論文 参考訳(メタデータ) (2024-04-05T10:01:31Z) - Grad-PU: Arbitrary-Scale Point Cloud Upsampling via Gradient Descent
with Learned Distance Functions [77.32043242988738]
我々は、任意のアップサンプリングレートをサポートする、正確なポイントクラウドアップサンプリングのための新しいフレームワークを提案する。
提案手法は,まず,所定のアップサンプリング率に応じて低解像度の雲を補間する。
論文 参考訳(メタデータ) (2023-04-24T06:36:35Z) - BIMS-PU: Bi-Directional and Multi-Scale Point Cloud Upsampling [60.257912103351394]
我々はBIMS-PUと呼ばれる新しいポイント・クラウド・アップサンプリング・パイプラインを開発した。
対象のサンプリング因子を小さな因子に分解することにより,アップ/ダウンサンプリング手順をいくつかのアップ/ダウンサンプリングサブステップに分解する。
提案手法は最先端手法よりも優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2022-06-25T13:13:37Z) - PU-EVA: An Edge Vector based Approximation Solution for Flexible-scale
Point Cloud Upsampling [4.418205951027186]
スパース、ノイズ、および一様でない点雲のアップサンプリングは難しい作業だ。
フレキシブルスケールの点群アップサンプリング(PU-EVA)のためのエッジベクトルに基づく近似の新しい設計法を提案する。
EVAアップサンプリングは、ネットワークアーキテクチャによるアップサンプリングスケールを分離し、1回のトレーニングでフレキシブルアップサンプリングレートを達成する。
論文 参考訳(メタデータ) (2022-04-22T15:14:05Z) - Self-Supervised Arbitrary-Scale Point Clouds Upsampling via Implicit
Neural Representation [79.60988242843437]
そこで本研究では,自己監督型および倍率フレキシブルな点雲を同時にアップサンプリングする手法を提案する。
実験結果から, 自己教師あり学習に基づく手法は, 教師あり学習に基づく手法よりも, 競争力や性能が向上することが示された。
論文 参考訳(メタデータ) (2022-04-18T07:18:25Z) - SPU-Net: Self-Supervised Point Cloud Upsampling by Coarse-to-Fine
Reconstruction with Self-Projection Optimization [52.20602782690776]
実際のスキャンされたスパースデータからトレーニング用の大規模なペアリングスパーススキャンポイントセットを得るのは高価で面倒です。
本研究では,SPU-Net と呼ばれる自己監視型点群アップサンプリングネットワークを提案する。
本研究では,合成データと実データの両方について様々な実験を行い,最先端の教師付き手法と同等の性能が得られることを示す。
論文 参考訳(メタデータ) (2020-12-08T14:14:09Z) - Adaptive Context-Aware Multi-Modal Network for Depth Completion [107.15344488719322]
我々は,観測された空間コンテキストを捉えるために,グラフ伝搬を採用することを提案する。
次に、注意機構を伝搬に適用し、ネットワークが文脈情報を適応的にモデル化することを奨励する。
最後に、抽出したマルチモーダル特徴を効果的に活用するための対称ゲート融合戦略を導入する。
本稿では,Adaptive Context-Aware Multi-Modal Network (ACMNet) を2つのベンチマークで評価した。
論文 参考訳(メタデータ) (2020-08-25T06:00:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。