論文の概要: DUT-LFSaliency: Versatile Dataset and Light Field-to-RGB Saliency
Detection
- arxiv url: http://arxiv.org/abs/2012.15124v1
- Date: Wed, 30 Dec 2020 11:53:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-18 14:43:39.232895
- Title: DUT-LFSaliency: Versatile Dataset and Light Field-to-RGB Saliency
Detection
- Title(参考訳): DUT-LF Saliency:Versatile DatasetとLight Field-to-RGB Saliency Detection
- Authors: Yongri Piao and Zhengkun Rong and Shuang Xu and Miao Zhang and Huchuan
Lu
- Abstract要約: ライトフィールドサリエンシー検出のための汎用性の高いアプリケーションを可能にする大規模なデータセットを紹介します。
本論文では,フォカルストリームとRGBストリームからなる非対称2ストリームモデルを提案する。
実験は、我々の焦点ストリームが最先端のパフォーマンスを達成することを実証する。
- 参考スコア(独自算出の注目度): 104.50425501764806
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Light field data exhibit favorable characteristics conducive to saliency
detection. The success of learning-based light field saliency detection is
heavily dependent on how a comprehensive dataset can be constructed for higher
generalizability of models, how high dimensional light field data can be
effectively exploited, and how a flexible model can be designed to achieve
versatility for desktop computers and mobile devices. To answer these
questions, first we introduce a large-scale dataset to enable versatile
applications for RGB, RGB-D and light field saliency detection, containing 102
classes and 4204 samples. Second, we present an asymmetrical two-stream model
consisting of the Focal stream and RGB stream. The Focal stream is designed to
achieve higher performance on desktop computers and transfer focusness
knowledge to the RGB stream, relying on two tailor-made modules. The RGB stream
guarantees the flexibility and memory/computation efficiency on mobile devices
through three distillation schemes. Experiments demonstrate that our Focal
stream achieves state-of-the-arts performance. The RGB stream achieves Top-2
F-measure on DUTLF-V2, which tremendously minimizes the model size by 83% and
boosts FPS by 5 times, compared with the best performing method. Furthermore,
our proposed distillation schemes are applicable to RGB saliency models,
achieving impressive performance gains while ensuring flexibility.
- Abstract(参考訳): 光電界データは、塩分検出に好適な特性を示す。
学習に基づく光場塩分検出の成功は、モデルのより汎用性を高めるための包括的なデータセットの構築方法、高次元光フィールドデータの有効活用方法、デスクトップコンピュータやモバイルデバイスの汎用性を達成するためのフレキシブルモデルの設計方法に大きく依存している。
これらの質問に答えるために、まず、rgb、rgb-dおよびlight field saliency detectionの汎用アプリケーションを可能にする大規模データセットを導入し、102のクラスと4204のサンプルを含む。
次に,FocalストリームとRGBストリームからなる非対称な2ストリームモデルを提案する。
Focalストリームは、デスクトップコンピュータ上でより高いパフォーマンスを実現し、フォーカスネスの知識をRGBストリームに転送するように設計されている。
RGBストリームは3つの蒸留方式を通じてモバイルデバイスの柔軟性とメモリ/計算効率を保証する。
実験は、我々の焦点ストリームが最先端のパフォーマンスを達成することを実証する。
rgb ストリームは dutlf-v2 上で top-2 f-measure を達成し、モデルサイズを 83% 削減し、最高の実行方法と比較して fps を 5 倍向上させる。
さらに,提案する蒸留スキームはrgb塩分モデルに適用でき,柔軟性を確保しつつ優れた性能を実現する。
関連論文リスト
- TENet: Targetness Entanglement Incorporating with Multi-Scale Pooling and Mutually-Guided Fusion for RGB-E Object Tracking [30.89375068036783]
既存のアプローチでは、従来の外観モデルを用いて、RGB-E追跡のためのイベント特徴抽出を行う。
本稿では,イベントデータ固有の特徴を認識可能な高品質な特徴表現を実現するために,イベントバックボーン(Pooler)を提案する。
提案手法は,2つの広く使用されているRGB-E追跡データセットにおいて,最先端トラッカーを著しく上回っている。
論文 参考訳(メタデータ) (2024-05-08T12:19:08Z) - Salient Object Detection in RGB-D Videos [11.805682025734551]
本稿では,データセットとモデルという2つの主要なコントリビューションについて述べる。
現実的な深度を持つ新しいRGB-D VSODデータセットであるRDVSデータセットを構築した。
RGB-D VSODに適した3ストリームネットワークであるDCTNet+を紹介する。
論文 参考訳(メタデータ) (2023-10-24T03:18:07Z) - RPEFlow: Multimodal Fusion of RGB-PointCloud-Event for Joint Optical
Flow and Scene Flow Estimation [43.358140897849616]
本稿では,RGB画像,ポイント雲,イベントを多段階多モード融合モデルであるRPEFlowに組み込む。
合成データと実データの両方の実験により、我々のモデルは既存の最先端技術よりも広いマージンで優れています。
論文 参考訳(メタデータ) (2023-09-26T17:23:55Z) - Joint Learning of Salient Object Detection, Depth Estimation and Contour
Extraction [91.43066633305662]
RGB-D Salient Object Detection (SOD) のための新しいマルチタスク・マルチモーダルフィルタトランス (MMFT) ネットワークを提案する。
具体的には、深度推定、健全な物体検出、輪郭推定の3つの相補的なタスクを統合する。マルチタスク機構は、タスク認識の特徴を補助タスクから学習するためのモデルを促進する。
実験の結果、複数のデータセット上での深度に基づくRGB-D SOD法をはるかに上回るだけでなく、高品質の深度マップと塩分濃度を同時に正確に予測できることがわかった。
論文 参考訳(メタデータ) (2022-03-09T17:20:18Z) - Middle-level Fusion for Lightweight RGB-D Salient Object Detection [81.43951906434175]
本稿では,新しい軽量RGB-D SODモデルについて述べる。
中層核融合構造に IMFF および L モジュールが組み込まれているため,提案モデルは3.9M のパラメータしか持たず,33 FPS で動作する。
いくつかのベンチマークデータセットによる実験結果から,提案手法の有効性と優位性を検証した。
論文 参考訳(メタデータ) (2021-04-23T11:37:15Z) - Siamese Network for RGB-D Salient Object Detection and Beyond [113.30063105890041]
共有ネットワークバックボーンを通じてRGBと深度入力の両方から学習するための新しいフレームワークが提案されている。
5つの一般的な指標を用いた総合的な実験は、設計されたフレームワークが堅牢なRGB-D塩分濃度検出器をもたらすことを示している。
また、JL-DCFをRGB-Dセマンティックセマンティックセマンティクスフィールドにリンクし、いくつかのセマンティクスセマンティクスモデルよりも優れた性能を示す。
論文 参考訳(メタデータ) (2020-08-26T06:01:05Z) - A Single Stream Network for Robust and Real-time RGB-D Salient Object
Detection [89.88222217065858]
我々は、深度マップを用いて、RGBと深度の間の早期融合と中核融合を誘導する単一ストリームネットワークを設計する。
このモデルは、現在の最も軽量なモデルよりも55.5%軽く、32 FPSのリアルタイム速度で384倍の384ドルの画像を処理している。
論文 参考訳(メタデータ) (2020-07-14T04:40:14Z) - Synergistic saliency and depth prediction for RGB-D saliency detection [76.27406945671379]
既存のRGB-Dサリエンシデータセットは小さく、多様なシナリオに対して過度に適合し、限定的な一般化につながる可能性がある。
そこで本研究では,RGB-Dサリエンシ検出のための半教師付きシステムを提案する。
論文 参考訳(メタデータ) (2020-07-03T14:24:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。