論文の概要: CI-Net: Contextual Information for Joint Semantic Segmentation and Depth
Estimation
- arxiv url: http://arxiv.org/abs/2107.13800v1
- Date: Thu, 29 Jul 2021 07:58:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-30 19:30:32.674606
- Title: CI-Net: Contextual Information for Joint Semantic Segmentation and Depth
Estimation
- Title(参考訳): CI-Net:ジョイントセマンティックセグメンテーションと深さ推定のためのコンテキスト情報
- Authors: Tianxiao Gao, Wu Wei, Zhongbin Cai, Zhun Fan, Shane Xie, Xinmei Wang,
Qiuda Yu
- Abstract要約: 本稿では,その問題を解決するために,文脈情報(CI-Net)を注入したネットワークを提案する。
セマンティックラベルの監督により、ネットワークにはコンテキスト情報が埋め込まれており、シーンをよりよく理解することができる。
提案したCI-NetをNYU-Depth-v2およびSUN-RGBDデータセット上で評価する。
- 参考スコア(独自算出の注目度): 2.8785764686013837
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Monocular depth estimation and semantic segmentation are two fundamental
goals of scene understanding. Due to the advantages of task interaction, many
works study the joint task learning algorithm. However, most existing methods
fail to fully leverage the semantic labels, ignoring the provided context
structures and only using them to supervise the prediction of segmentation
split. In this paper, we propose a network injected with contextual information
(CI-Net) to solve the problem. Specifically, we introduce self-attention block
in the encoder to generate attention map. With supervision from the ground
truth created by semantic labels, the network is embedded with contextual
information so that it could understand the scene better, utilizing dependent
features to make accurate prediction. Besides, a feature sharing module is
constructed to make the task-specific features deeply fused and a consistency
loss is devised to make the features mutually guided. We evaluate the proposed
CI-Net on the NYU-Depth-v2 and SUN-RGBD datasets. The experimental results
validate that our proposed CI-Net is competitive with the state-of-the-arts.
- Abstract(参考訳): 単眼深度推定とセマンティックセグメンテーションはシーン理解の基本的な目的である。
タスクインタラクションの利点により、多くの研究が共同作業学習アルゴリズムを研究している。
しかし、既存のほとんどのメソッドはセマンティックラベルを完全に活用できず、提供されたコンテキスト構造を無視し、セグメント分割の予測を監督するためにのみ使用する。
本稿では,その問題を解決するために,文脈情報(CI-Net)を注入したネットワークを提案する。
具体的には、注意マップを生成するエンコーダに自己注意ブロックを導入する。
セマンティックラベルが生み出した根底的な真実からの監督により、ネットワークはコンテキスト情報に埋め込まれ、シーンをよりよく理解し、依存する特徴を利用して正確な予測を行う。
さらに、タスク固有の機能を深く融合させる機能共有モジュールを構築し、その機能を相互にガイドする一貫性損失を考案する。
提案したCI-NetをNYU-Depth-v2およびSUN-RGBDデータセット上で評価する。
実験の結果,提案したCI-Netが最先端技術と競合していることが確認された。
関連論文リスト
- Refining Segmentation On-the-Fly: An Interactive Framework for Point
Cloud Semantic Segmentation [9.832150567595718]
ポイントクラウドセマンティックセマンティックセグメンテーションのための最初の対話型フレームワークであるInterPCSegを提示する。
本研究では,対話型ポイントクラウドセマンティックセマンティックセグメンテーションタスクに適したインタラクションシミュレーション手法を開発した。
市販セグメンテーションネットワークを用いたS3DISおよびScanNetデータセットのフレームワークの評価を行った。
論文 参考訳(メタデータ) (2024-03-11T03:24:58Z) - COMNet: Co-Occurrent Matching for Weakly Supervised Semantic
Segmentation [13.244183864948848]
我々は,CAMの品質を向上し,オブジェクトの全体に対して注意を払うためにネットワークを強制する,新しいコオカレントマッチングネットワーク(COMNet)を提案する。
具体的には、共通クラスを含むペア画像のマッチングを行い、対応する領域を強化し、単一の画像上にマッチングを構築し、対象領域を横断する意味的特徴を伝達する。
The experiment on the Pascal VOC 2012 and MS-COCO datasets shows our network can effective boost the performance of the baseline model and a new-of-the-art performance。
論文 参考訳(メタデータ) (2023-09-29T03:55:24Z) - Object Segmentation by Mining Cross-Modal Semantics [68.88086621181628]
マルチモーダル特徴の融合と復号を導くために,クロスモーダル・セマンティックスをマイニングする手法を提案する。
具体的には,(1)全周減衰核融合(AF),(2)粗大デコーダ(CFD),(3)多層自己超越からなる新しいネットワークXMSNetを提案する。
論文 参考訳(メタデータ) (2023-05-17T14:30:11Z) - Improving Lidar-Based Semantic Segmentation of Top-View Grid Maps by
Learning Features in Complementary Representations [3.0413873719021995]
我々は、自律運転の文脈において、スパースで単発のLiDAR測定から意味情報を予測するための新しい方法を提案する。
このアプローチは、トップビューグリッドマップのセマンティックセグメンテーションを改善することを目的としている。
各表現に対して、セマンティック情報を効果的に抽出するために、調整されたディープラーニングアーキテクチャが開発された。
論文 参考訳(メタデータ) (2022-03-02T14:49:51Z) - DIAL: Deep Interactive and Active Learning for Semantic Segmentation in
Remote Sensing [34.209686918341475]
我々は、ディープニューラルネットワークと人間のループでの協調を構築することを提案する。
簡単に言うと、エージェントはネットワークと反復的に対話して、当初欠陥があった予測を修正する。
本研究では,不確実性推定に基づくアクティブラーニングにより,ユーザを迅速に誤りに導くことができることを示す。
論文 参考訳(メタデータ) (2022-01-04T09:11:58Z) - Triggering Failures: Out-Of-Distribution detection by learning from
local adversarial attacks in Semantic Segmentation [76.2621758731288]
セグメンテーションにおけるアウト・オブ・ディストリビューション(OOD)オブジェクトの検出に取り組む。
私たちの主な貢献は、ObsNetと呼ばれる新しいOOD検出アーキテクチャであり、ローカル・アタック(LAA)に基づく専用トレーニングスキームと関連付けられています。
3つの異なるデータセットの文献の最近の10つの手法と比較して,速度と精度の両面で最高の性能が得られることを示す。
論文 参考訳(メタデータ) (2021-08-03T17:09:56Z) - Cross-modal Consensus Network for Weakly Supervised Temporal Action
Localization [74.34699679568818]
時間的行動局所化 (WS-TAL) は、ビデオレベルの分類的監督によって、ビデオ内のアクションインスタンスをローカライズすることを目的とした課題である。
この問題に対処するためのクロスモーダルコンセンサスネットワーク(CO2-Net)を提案する。
論文 参考訳(メタデータ) (2021-07-27T04:21:01Z) - CTNet: Context-based Tandem Network for Semantic Segmentation [77.4337867789772]
本研究では,空間コンテキスト情報とチャネルコンテキスト情報とを対話的に探索し,新しいコンテキストベースタンデムネットワーク(CTNet)を提案する。
セマンティックセグメンテーションのための学習表現の性能をさらに向上するため、2つのコンテキストモジュールの結果を適応的に統合する。
論文 参考訳(メタデータ) (2021-04-20T07:33:11Z) - SOSD-Net: Joint Semantic Object Segmentation and Depth Estimation from
Monocular images [94.36401543589523]
これら2つのタスクの幾何学的関係を利用するための意味的対象性の概念を紹介します。
次に, 対象性仮定に基づくセマンティックオブジェクト・深さ推定ネットワーク(SOSD-Net)を提案する。
私たちの知識を最大限に活用するために、SOSD-Netは同時単眼深度推定とセマンティックセグメンテーションのためのジオメトリ制約を利用する最初のネットワークです。
論文 参考訳(メタデータ) (2021-01-19T02:41:03Z) - Bidirectional Graph Reasoning Network for Panoptic Segmentation [126.06251745669107]
本稿では,BGRNet(Bidirectional Graph Reasoning Network)を導入し,前景物と背景物間のモジュラー内およびモジュラー間関係について検討する。
BGRNetはまず、インスタンスとセマンティックセグメンテーションの両方でイメージ固有のグラフを構築し、提案レベルとクラスレベルで柔軟な推論を可能にする。
論文 参考訳(メタデータ) (2020-04-14T02:32:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。