論文の概要: Exploring Driving-aware Salient Object Detection via Knowledge Transfer
- arxiv url: http://arxiv.org/abs/2105.08286v1
- Date: Tue, 18 May 2021 05:24:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-19 23:49:41.520384
- Title: Exploring Driving-aware Salient Object Detection via Knowledge Transfer
- Title(参考訳): 知識伝達による運転支援物体検出の検討
- Authors: Jinming Su, Changqun Xia, and Jia Li
- Abstract要約: 我々は,サルエントオブジェクトのピクセルレベルマスクをアノテートしたタスク指向データセットを構築する。
クロスドメインの知識の相違とタスク固有のシーンギャップは、運転時に注意深いオブジェクトを集中させる2つの大きな課題です。
そこで本研究では,知識伝達畳み込みニューラルネットワークを用いたタスク認識型SODのベースラインモデルを提案する。
- 参考スコア(独自算出の注目度): 16.105754712355274
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, general salient object detection (SOD) has made great progress with
the rapid development of deep neural networks. However, task-aware SOD has
hardly been studied due to the lack of task-specific datasets. In this paper,
we construct a driving task-oriented dataset where pixel-level masks of salient
objects have been annotated. Comparing with general SOD datasets, we find that
the cross-domain knowledge difference and task-specific scene gap are two main
challenges to focus the salient objects when driving. Inspired by these
findings, we proposed a baseline model for the driving task-aware SOD via a
knowledge transfer convolutional neural network. In this network, we construct
an attentionbased knowledge transfer module to make up the knowledge
difference. In addition, an efficient boundary-aware feature decoding module is
introduced to perform fine feature decoding for objects in the complex
task-specific scenes. The whole network integrates the knowledge transfer and
feature decoding modules in a progressive manner. Experiments show that the
proposed dataset is very challenging, and the proposed method outperforms 12
state-of-the-art methods on the dataset, which facilitates the development of
task-aware SOD.
- Abstract(参考訳): 近年,ニューラルネットワークの急速な発展に伴い,sod(general salient object detection)が大きな進歩を遂げている。
しかし、タスク固有のデータセットがないため、タスク対応SODの研究はほとんど行われていない。
本稿では,有向物体の画素レベルのマスクが注釈付けされた運転タスク指向のデータセットを構築する。
一般的なSODデータセットと比較すると、クロスドメインの知識差とタスク固有のシーンギャップは、運転時の健全な物体に焦点を合わせる2つの主な課題であることがわかった。
これらの知見に触発されて,知識伝達畳み込みニューラルネットワークを用いた運転タスク認識型SODのベースラインモデルを提案した。
このネットワークでは,知識差を補うために,注意に基づく知識伝達モジュールを構築する。
さらに、複雑なタスク固有のシーンにおけるオブジェクトの詳細な特徴復号を行うために、効率的な境界認識機能復号モジュールを導入する。
ネットワーク全体は知識伝達と機能デコードモジュールを漸進的に統合する。
実験により,提案したデータセットは非常に困難であることが示され,提案手法は,タスク認識型SODの開発を容易にする12の最先端メソッドよりも優れていた。
関連論文リスト
- Web-Scale Visual Entity Recognition: An LLM-Driven Data Approach [56.55633052479446]
Webスケールのビジュアルエンティティ認識は、クリーンで大規模なトレーニングデータがないため、重大な課題を呈している。
本稿では,ラベル検証,メタデータ生成,合理性説明に多モーダル大言語モデル(LLM)を活用することによって,そのようなデータセットをキュレートする新しい手法を提案する。
実験により、この自動キュレートされたデータに基づいてトレーニングされたモデルは、Webスケールの視覚的エンティティ認識タスクで最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2024-10-31T06:55:24Z) - PGNeXt: High-Resolution Salient Object Detection via Pyramid Grafting Network [24.54269823691119]
本稿では、データセットとネットワークフレームワークの両方の観点から、より難解な高分解能サルエントオブジェクト検出(HRSOD)について述べる。
HRSODデータセットの欠如を補うため、UHRSDと呼ばれる大規模高解像度の高分解能物体検出データセットを慎重に収集した。
すべての画像はピクセルレベルで微妙にアノテートされ、以前の低解像度のSODデータセットをはるかに上回っている。
論文 参考訳(メタデータ) (2024-08-02T09:31:21Z) - Learning Background Prompts to Discover Implicit Knowledge for Open Vocabulary Object Detection [101.15777242546649]
Open vocabulary Object Detection (OVD) は、ベースと新規の両方のカテゴリからオブジェクトを認識できる最適なオブジェクト検出器を求めることを目的としている。
近年の進歩は、知識蒸留を利用して、事前訓練された大規模視覚言語モデルからオブジェクト検出のタスクに洞察力のある知識を伝達している。
本稿では,暗黙的背景知識を活用するための学習バックグラウンドプロンプトを提案するため,LBPと呼ばれる新しいOVDフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-01T17:32:26Z) - A Simple yet Effective Network based on Vision Transformer for
Camouflaged Object and Salient Object Detection [33.30644598646274]
視覚変換器(ViT)に基づく簡易で効果的なネットワーク(SENet)を提案する。
ローカル情報をモデル化するTransformerの機能を強化するために,ローカル情報キャプチャモジュール(licM)を提案する。
また,BCE(Binary Cross-Entropy)とIoU(Intersection over Union)に基づく動的重み付き損失(DW損失)を提案する。
論文 参考訳(メタデータ) (2024-02-29T07:29:28Z) - Evaluating the structure of cognitive tasks with transfer learning [67.22168759751541]
本研究では,脳波復号処理における深層学習表現の伝達可能性について検討した。
最近リリースされた2つのEEGデータセット上で、最先端デコードモデルを用いて広範な実験を行う。
論文 参考訳(メタデータ) (2023-07-28T14:51:09Z) - LiDAR-BEVMTN: Real-Time LiDAR Bird's-Eye View Multi-Task Perception Network for Autonomous Driving [12.713417063678335]
本稿では,LiDARに基づくオブジェクト検出,意味論,動作セグメンテーションのためのリアルタイムマルチタスク畳み込みニューラルネットワークを提案する。
オブジェクト検出を選択的に改善するためのセマンティック・ウェイト・アンド・ガイダンス(SWAG)モジュールを提案する。
我々は,2つのタスク,セマンティックとモーションセグメンテーション,および3Dオブジェクト検出のための最先端性能に近い2つのタスクに対して,最先端の結果を得る。
論文 参考訳(メタデータ) (2023-07-17T21:22:17Z) - The Devil is in the Task: Exploiting Reciprocal Appearance-Localization
Features for Monocular 3D Object Detection [62.1185839286255]
低コストのモノクル3D物体検出は、自律運転において基本的な役割を果たす。
DFR-Netという動的特徴反射ネットワークを導入する。
我々は、KITTIテストセットの全ての単分子3D物体検出器の中で、第1位にランク付けする。
論文 参考訳(メタデータ) (2021-12-28T07:31:18Z) - A Simple and Efficient Multi-task Network for 3D Object Detection and
Road Understanding [20.878931360708343]
シンプルで効率的なマルチタスクネットワークを通じて、すべての知覚タスクを実行できることを示します。
提案するネットワークであるLidarMTLは、生のLiDAR点雲を入力とし、3次元物体検出と道路理解のための6つの知覚出力を予測する。
論文 参考訳(メタデータ) (2021-03-06T08:00:26Z) - EDN: Salient Object Detection via Extremely-Downsampled Network [66.38046176176017]
画像全体のグローバルビューを効果的に学ぶために、極端なダウンサンプリング技術を使用するExtremely-Downsampled Network(EDN)を紹介します。
実験は、ednがリアルタイム速度でsart性能を達成することを実証する。
論文 参考訳(メタデータ) (2020-12-24T04:23:48Z) - Dense Multiscale Feature Fusion Pyramid Networks for Object Detection in
UAV-Captured Images [0.09065034043031667]
本研究では,よりリッチな特徴を可能な限り得ることを目的とした,高密度多スケール特徴融合ピラミッドネットワーク(dmffpn)と呼ばれる新しい手法を提案する。
具体的には、密度の高い接続は、異なる畳み込み層からの表現を完全に活用するように設計されている。
VisDrone-DETと呼ばれるドローンベースのデータセットの実験は、我々の方法の競争力を示唆している。
論文 参考訳(メタデータ) (2020-12-19T10:05:31Z) - Progressive Object Transfer Detection [84.48927705173494]
本稿では,新しいプログレッシブオブジェクト転送検出(POTD)フレームワークを提案する。
第一に、POTDは様々なドメインの様々なオブジェクトを効果的にプログレッシブな検出手順に活用することができる。
第2に、POTDは2つの微妙な転送段階、すなわち、LSTD(low-Shot Transfer Detection)とWSTD(Weakly Supervised Transfer Detection)から構成される。
論文 参考訳(メタデータ) (2020-02-12T00:16:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。