論文の概要: Lightweight high-resolution Subject Matting in the Real World
- arxiv url: http://arxiv.org/abs/2312.07100v1
- Date: Tue, 12 Dec 2023 09:27:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-13 16:49:38.991796
- Title: Lightweight high-resolution Subject Matting in the Real World
- Title(参考訳): 現実世界における軽量高分解能被写体マットリング
- Authors: Peng Liu, Fanyi Wang, Jingwen Su, Yanhao Zhang, Guojun Qi
- Abstract要約: 本研究では,サリエンシオブジェクトマッチングデータセットHRSOMと軽量ネットワークPSUNetを構築した。
モバイルデポライメントフレームワークの効率的な推定を考慮し、対称画素シャッフルモジュールと軽量モジュールTRSUを設計する。
13のSOD手法と比較して、提案したPSUNetは高解像度のベンチマークデータセット上で最高の目標性能を持つ。
- 参考スコア(独自算出の注目度): 43.56357473163735
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing saliency object detection (SOD) methods struggle to satisfy fast
inference and accurate results simultaneously in high resolution scenes. They
are limited by the quality of public datasets and efficient network modules for
high-resolution images. To alleviate these issues, we propose to construct a
saliency object matting dataset HRSOM and a lightweight network PSUNet.
Considering efficient inference of mobile depolyment framework, we design a
symmetric pixel shuffle module and a lightweight module TRSU. Compared to 13
SOD methods, the proposed PSUNet has the best objective performance on the
high-resolution benchmark dataset. Evaluation results of objective assessment
are superior compared to U$^2$Net that has 10 times of parameter amount of our
network. On Snapdragon 8 Gen 2 Mobile Platform, inference a single
640$\times$640 image only takes 113ms. And on the subjective assessment,
evaluation results are better than the industry benchmark IOS16 (Lift subject
from background).
- Abstract(参考訳): 既存の精度オブジェクト検出(SOD)手法は、高解像度のシーンで高速な推測と正確な結果を同時に満たすのに苦労する。
パブリックデータセットの品質と高解像度画像のための効率的なネットワークモジュールによって制限されている。
これらの問題を緩和するため,我々は,データセットhrsomと軽量ネットワークpsunetの構築を提案する。
モバイルデポリメントフレームワークの効率的な推論を考慮して,対称画素シャッフルモジュールと軽量モジュールtrsuを設計した。
13のSOD手法と比較して、提案したPSUNetは高解像度のベンチマークデータセット上で最高の目標性能を持つ。
客観的評価の結果は,ネットワークの10倍のパラメータ量を持つu$^2$netと比較して優れている。
Snapdragon 8 Gen 2 Mobile Platformでは、640$\times$640の画像の推測は113msしかかからない。
そして、主観評価では、評価結果は業界ベンチマークIOS16より優れている(背景から見れば)。
関連論文リスト
- R-Bench: Are your Large Multimodal Model Robust to Real-world Corruptions? [86.94616033250068]
R-Benchは、LMMs*の**実世界のロバストネスに焦点を当てたベンチマークである。
LMMは元の参照画像を正しく扱えるが、歪んだ画像に直面すると、その性能は安定しない。
我々は、R-BenchがLMMの堅牢性を改善し、*実験シミュレーションから*実世界のアプリケーションへ拡張することを願っている。
論文 参考訳(メタデータ) (2024-10-07T20:12:08Z) - Scale-Invariant Object Detection by Adaptive Convolution with Unified Global-Local Context [3.061662434597098]
本稿では,効率的なDetモデルに基づくSAC-Net(Switchable Atrous Convolutional Network)を用いたオブジェクト検出モデルを提案する。
提案したSAC-Netは,マルチスケールオブジェクト検出タスクの性能向上を実現するために,低レベル機能と高レベル機能の両方の利点をカプセル化している。
ベンチマークデータセットを用いた実験により,提案したSAC-Netは,精度の点で最先端モデルよりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-09-17T10:08:37Z) - Recurrent Multi-scale Transformer for High-Resolution Salient Object
Detection [68.65338791283298]
Salient Object Detection (SOD) は、画像やビデオの中で最も顕著なオブジェクトを識別し、セグメント化することを目的としている。
従来のSOD法は主に解像度の低い画像に限られており、高分解能SODの開発に適応することが困難である。
本研究ではまず,2K-8K解像度で10,500個の高品質なアノテート画像を含む新しいHRS10Kデータセットを提案する。
論文 参考訳(メタデータ) (2023-08-07T17:49:04Z) - MLF-DET: Multi-Level Fusion for Cross-Modal 3D Object Detection [54.52102265418295]
MLF-DETと呼ばれる,高性能なクロスモーダル3DオブジェクトDrectionのための,新規かつ効果的なマルチレベルフュージョンネットワークを提案する。
特徴レベルの融合では、マルチスケールのボクセル特徴と画像の特徴を密集したマルチスケールのボクセル画像融合(MVI)モジュールを提示する。
本稿では,画像のセマンティクスを利用して検出候補の信頼度を補正するFCR(Feature-cued Confidence Rectification)モジュールを提案する。
論文 参考訳(メタデータ) (2023-07-18T11:26:02Z) - Efficient Context Integration through Factorized Pyramidal Learning for
Ultra-Lightweight Semantic Segmentation [1.0499611180329804]
本稿では,FPL(Facterized Pyramidal Learning)モジュールを提案する。
空間ピラミッドを2つのステージに分解し,モジュール内での簡易かつ効率的な特徴融合により,悪名高いチェッカーボード効果を解決する。
FPLモジュールとFIRユニットをベースとしたFPLNetと呼ばれる超軽量リアルタイムネットワークを提案する。
論文 参考訳(メタデータ) (2023-02-23T05:34:51Z) - Rethinking Lightweight Salient Object Detection via Network Depth-Width
Tradeoff [26.566339984225756]
既存の有能なオブジェクト検出手法では、より深いネットワークが採用され、性能が向上する。
本稿では,U字形構造を3つの相補枝に分解することで,新しい3方向デコーダフレームワークを提案する。
提案手法は,5つのベンチマークにおいて効率と精度のバランスが良くなることを示す。
論文 参考訳(メタデータ) (2023-01-17T03:43:25Z) - SALISA: Saliency-based Input Sampling for Efficient Video Object
Detection [58.22508131162269]
ビデオオブジェクト検出のための新しい一様SALiencyベースの入力SAmpling技術であるSALISAを提案する。
SALISAは小物体の検出を著しく改善することを示す。
論文 参考訳(メタデータ) (2022-04-05T17:59:51Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z) - A new public Alsat-2B dataset for single-image super-resolution [1.284647943889634]
本稿では,低空間解像度画像(10m, 2.5m)と高空間解像度画像(10m, 2.5m)の新たなリモートセンシングデータセット(Alsat2B)を提案する。
パンシャープ化により高分解能画像を得る。
その結果,提案手法は有望であり,データセットの課題を強調していることがわかった。
論文 参考訳(メタデータ) (2021-03-21T10:47:38Z) - MODNet: Real-Time Trimap-Free Portrait Matting via Objective
Decomposition [39.60219801564855]
既存のポートレート・マッティング法では、計算コストのかかる複数のステージを取得または含むのに費用がかかる補助的な入力が必要となる。
ポートレート・マッティングを1つの入力画像でリアルタイムに行うための軽量なマッティング客観分解ネットワーク(MODNet)を提案する。
論文 参考訳(メタデータ) (2020-11-24T08:38:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。