論文の概要: Mutual Graph Learning for Camouflaged Object Detection
- arxiv url: http://arxiv.org/abs/2104.02613v1
- Date: Sat, 3 Apr 2021 10:14:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-07 14:02:19.283195
- Title: Mutual Graph Learning for Camouflaged Object Detection
- Title(参考訳): カモフラージュ物体検出のための相互グラフ学習
- Authors: Qiang Zhai, Xin Li, Fan Yang, Chenglizhao Chen, Hong Cheng, Deng-Ping
Fan
- Abstract要約: 主な課題は、前景の物体と背景の環境との固有の類似性によって、深いモデルによって抽出された特徴が区別できないことである。
我々は,正規格子からグラフ領域への従来の相互学習の考え方を一般化する,新しい相互グラフ学習モデルを設計する。
すべてのタスク間インタラクションをモデリングするために共有関数を使用するほとんどの相互学習アプローチとは対照的に、mglは異なる補完関係を扱うための型付き関数を備えている。
- 参考スコア(独自算出の注目度): 31.422775969808434
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automatically detecting/segmenting object(s) that blend in with their
surroundings is difficult for current models. A major challenge is that the
intrinsic similarities between such foreground objects and background
surroundings make the features extracted by deep model indistinguishable. To
overcome this challenge, an ideal model should be able to seek valuable, extra
clues from the given scene and incorporate them into a joint learning framework
for representation co-enhancement. With this inspiration, we design a novel
Mutual Graph Learning (MGL) model, which generalizes the idea of conventional
mutual learning from regular grids to the graph domain. Specifically, MGL
decouples an image into two task-specific feature maps -- one for roughly
locating the target and the other for accurately capturing its boundary details
-- and fully exploits the mutual benefits by recurrently reasoning their
high-order relations through graphs. Importantly, in contrast to most mutual
learning approaches that use a shared function to model all between-task
interactions, MGL is equipped with typed functions for handling different
complementary relations to maximize information interactions. Experiments on
challenging datasets, including CHAMELEON, CAMO and COD10K, demonstrate the
effectiveness of our MGL with superior performance to existing state-of-the-art
methods.
- Abstract(参考訳): 現在のモデルでは、周囲とブレンドするオブジェクトを自動的に検出/segmentingするのは難しい。
主な課題は、これらの前景オブジェクトと背景環境との固有の類似性によって、深いモデルによって抽出された特徴が区別できないことである。
この課題を克服するために、理想的なモデルは、与えられたシーンから価値ある余分な手がかりを探し出し、それらを共同学習フレームワークに組み込むことができるべきである。
この着想を得て、正規格子からグラフ領域への従来の相互学習のアイデアを一般化した、新しい相互グラフ学習(mgl)モデルを設計する。
具体的には、MGLはイメージを2つのタスク固有の特徴マップ(ターゲットを大まかに特定するマップと境界の詳細を正確に把握するマップ)に分離し、グラフを通じて高次関係を連続的に推論することで相互利益を完全に活用する。
重要なことは、すべてのタスク間相互作用をモデル化するために共有関数を使用するほとんどの相互学習アプローチとは対照的に、MGLは情報相互作用を最大化するために異なる補完関係を扱うための型付き関数を備えている。
CHAMELEON、CAMO、COD10Kといった挑戦的なデータセットの実験は、既存の最先端手法よりも優れたパフォーマンスでMGLの有効性を実証している。
関連論文リスト
- EGTR: Extracting Graph from Transformer for Scene Graph Generation [5.935927309154952]
SGG(Scene Graph Generation)は、オブジェクトを検出し、オブジェクト間の関係を予測するための課題である。
本稿では,DETRデコーダのマルチヘッド自己アテンション層で学習した様々な関係から関係グラフを抽出する軽量一段SGGモデルを提案する。
本稿では,Visual Genome と Open Image V6 データセットに対する提案手法の有効性と有効性を示す。
論文 参考訳(メタデータ) (2024-04-02T16:20:02Z) - Visual Commonsense based Heterogeneous Graph Contrastive Learning [79.22206720896664]
視覚的推論タスクをより良く仕上げるための異種グラフコントラスト学習法を提案する。
本手法はプラグイン・アンド・プレイ方式として設計されており,多種多様な代表手法と迅速かつ容易に組み合わせることができる。
論文 参考訳(メタデータ) (2023-11-11T12:01:18Z) - Unified Visual Relationship Detection with Vision and Language Models [89.77838890788638]
この研究は、複数のデータセットからラベル空間の結合を予測する単一の視覚的関係検出器のトレーニングに焦点を当てている。
視覚と言語モデルを活用した統合視覚関係検出のための新しいボトムアップ手法UniVRDを提案する。
人物体間相互作用検出とシーングラフ生成の双方による実験結果から,本モデルの競合性能が示された。
論文 参考訳(メタデータ) (2023-03-16T00:06:28Z) - Deep Reinforcement Learning of Graph Matching [63.469961545293756]
ノードとペアの制約下でのグラフマッチング(GM)は、最適化からコンピュータビジョンまでの領域におけるビルディングブロックである。
GMのための強化学習ソルバを提案する。
rgmはペアワイズグラフ間のノード対応を求める。
本手法は,フロントエンドの特徴抽出と親和性関数学習に焦点をあてるという意味において,従来のディープグラフマッチングモデルと異なる。
論文 参考訳(メタデータ) (2020-12-16T13:48:48Z) - Zero-Shot Human-Object Interaction Recognition via Affordance Graphs [3.867143522757309]
ゼロショットヒューマンオブジェクトインタラクション認識のための新しいアプローチを提案する。
提案手法では,画像コンテンツ以外の知識をグラフ形式で活用する。
提案手法をいくつかのデータセットで評価し,現状よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-09-02T13:14:44Z) - ConsNet: Learning Consistency Graph for Zero-Shot Human-Object
Interaction Detection [101.56529337489417]
画像中のHuman, Action, Object>の形のHOIインスタンスを検出・認識することを目的としたHuman-Object Interaction (HOI) Detectionの問題点を考察する。
我々は、オブジェクト、アクション、インタラクション間の多レベルコンパレンシーは、稀な、あるいは以前には見られなかったHOIのセマンティック表現を生成するための強力な手がかりであると主張している。
提案モデルでは,人-対象のペアの視覚的特徴とHOIラベルの単語埋め込みを入力とし,それらを視覚-意味的関節埋め込み空間にマッピングし,類似度を計測して検出結果を得る。
論文 参考訳(メタデータ) (2020-08-14T09:11:18Z) - A Graph-based Interactive Reasoning for Human-Object Interaction
Detection [71.50535113279551]
本稿では,HOIを推論するインタラクティブグラフ(Interactive Graph, in-Graph)という,グラフに基づくインタラクティブ推論モデルを提案する。
In-GraphNet と呼ばれる HOI を検出するための新しいフレームワークを構築した。
私たちのフレームワークはエンドツーエンドのトレーニングが可能で、人間のポーズのような高価なアノテーションはありません。
論文 参考訳(メタデータ) (2020-07-14T09:29:03Z) - Cascaded Human-Object Interaction Recognition [175.60439054047043]
マルチステージで粗大なHOI理解のためのカスケードアーキテクチャを提案する。
各段階で、インスタンスローカライゼーションネットワークは、HOI提案を段階的に洗練し、インタラクション認識ネットワークにフィードする。
慎重に設計された人間中心の関係機能により、これらの2つのモジュールは効果的な相互作用理解に向けて協調的に機能する。
論文 参考訳(メタデータ) (2020-03-09T17:05:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。