論文の概要: Bi-directional Object-context Prioritization Learning for Saliency
Ranking
- arxiv url: http://arxiv.org/abs/2203.09416v1
- Date: Thu, 17 Mar 2022 16:16:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-18 15:23:26.011089
- Title: Bi-directional Object-context Prioritization Learning for Saliency
Ranking
- Title(参考訳): 給与ランキングのための双方向オブジェクト指向優先学習
- Authors: Xin Tian, Ke Xu, Xin Yang, Lin Du, Baocai Yin, Rynson W.H. Lau
- Abstract要約: 既存のアプローチは、オブジェクトオブジェクトかオブジェクトシーンの関係を学ぶことに集中しています。
我々は,人間の視覚認識システムにおいて,空間的注意と物体に基づく注意が同時に機能することが観察された。
本稿では,空間的注意を統一する新たな双方向手法を提案する。
- 参考スコア(独自算出の注目度): 60.62461793691836
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The saliency ranking task is recently proposed to study the visual behavior
that humans would typically shift their attention over different objects of a
scene based on their degrees of saliency. Existing approaches focus on learning
either object-object or object-scene relations. Such a strategy follows the
idea of object-based attention in Psychology, but it tends to favor those
objects with strong semantics (e.g., humans), resulting in unrealistic saliency
ranking. We observe that spatial attention works concurrently with object-based
attention in the human visual recognition system. During the recognition
process, the human spatial attention mechanism would move, engage, and
disengage from region to region (i.e., context to context). This inspires us to
model the region-level interactions, in addition to the object-level reasoning,
for saliency ranking. To this end, we propose a novel bi-directional method to
unify spatial attention and object-based attention for saliency ranking. Our
model includes two novel modules: (1) a selective object saliency (SOS) module
that models objectbased attention via inferring the semantic representation of
the salient object, and (2) an object-context-object relation (OCOR) module
that allocates saliency ranks to objects by jointly modeling the object-context
and context-object interactions of the salient objects. Extensive experiments
show that our approach outperforms existing state-of-theart methods. Our code
and pretrained model are available at https://github.com/GrassBro/OCOR.
- Abstract(参考訳): 感性ランキングタスクは、人間が通常、その感性度に基づいて、シーンの異なる物体に注意を移す視覚行動を研究するために提案されている。
既存のアプローチは、オブジェクト-オブジェクトまたはオブジェクト-シーン関係の学習に焦点を当てている。
このような戦略は、心理学における対象に基づく注意の考え方に従うが、強い意味論(例えば人間)を持つ対象を好む傾向があり、非現実的な正当性ランキングをもたらす。
本研究では,人間の視覚認識システムにおいて空間的注意が物体的注意と同時動作することを観察する。
認識過程の間、人間の空間的注意機構は、地域から地域(文脈から文脈へ)へ移動し、関与し、切り離す。
これは、給与ランキングのために、オブジェクトレベルの推論に加えて、地域レベルの相互作用をモデル化することを促します。
そこで,本稿では,空間的注意と物体的注意を一体化するための新しい双方向手法を提案する。
本モデルでは,(1)サリアンオブジェクトの意味表現を推論してオブジェクトベースの注意をモデル化する選択的オブジェクト・サリアンシ(SOS)モジュール,(2)サリアンオブジェクトのオブジェクトコンテキストとコンテキストオブジェクトの相互作用を共同でモデル化することにより,オブジェクトに対するサリアンシのランクを割り当てるオブジェクト・コンテクスト・オブジェクト関係(OCOR)モジュールの2つの新しいモジュールを含む。
広範な実験によって、我々のアプローチは既存のステート・オブ・トミーメソッドよりも優れています。
私たちのコードと事前訓練されたモデルはhttps://github.com/GrassBro/OCOR.orgで公開されています。
関連論文リスト
- Mitigating Object Dependencies: Improving Point Cloud Self-Supervised Learning through Object Exchange [50.45953583802282]
我々は,ポイントクラウドシーン理解のための新たな自己教師型学習(SSL)戦略を導入する。
このアプローチでは、オブジェクトパターンとコンテキストキューの両方を活用して、堅牢な機能を生成します。
提案手法は既存のSSL技術よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-04-11T06:39:53Z) - InterTracker: Discovering and Tracking General Objects Interacting with
Hands in the Wild [40.489171608114574]
既存の方法は相互作用する物体を見つけるためにフレームベースの検出器に依存している。
本稿では,対話オブジェクトの追跡に手動オブジェクトのインタラクションを活用することを提案する。
提案手法は最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2023-08-06T09:09:17Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - Spotlight Attention: Robust Object-Centric Learning With a Spatial
Locality Prior [88.9319150230121]
オブジェクト中心のビジョンは、シーン内のオブジェクトの明示的な表現を構築することを目的としています。
我々は、空間的局所性を最先端のオブジェクト中心視覚モデルに組み込む。
合成および実世界の両方のデータセットにおけるセグメンテーションオブジェクトの大幅な改善が得られた。
論文 参考訳(メタデータ) (2023-05-31T04:35:50Z) - SOS! Self-supervised Learning Over Sets Of Handled Objects In Egocentric
Action Recognition [35.4163266882568]
本稿では,SOS(Self-Supervised Learning Over Sets)を導入し,OIC(ジェネリック・オブジェクト・イン・コンタクト)表現モデルを事前学習する。
OICは複数の最先端ビデオ分類モデルの性能を大幅に向上させる。
論文 参考訳(メタデータ) (2022-04-10T23:27:19Z) - Capturing the objects of vision with neural networks [0.0]
人間の視覚知覚はその物理的関節でシーンを彫り、世界をオブジェクトに分解する。
対照的に、視覚物体認識のディープニューラルネットワーク(DNN)モデルは、主に感覚入力と結びついている。
両分野の関連研究をレビューし、これらの分野が相互にどのように役立つかを検討する。
論文 参考訳(メタデータ) (2021-09-07T21:49:53Z) - Exploiting Scene Graphs for Human-Object Interaction Detection [81.49184987430333]
ヒューマン・オブジェクト・インタラクション(Human-Object Interaction,HOI)検出は、人間とオブジェクト間のインタラクションのローカライズと認識を目的とした、基本的な視覚的タスクである。
そこで本研究では,シーングラフを用いたヒューマン・オブジェクト・インタラクション(SG2HOI)検出タスクのための新しい手法を提案する。
SG2HOIはSG情報を2つの方法で組み込む:(1)シーングラフを世界的文脈の手がかりに埋め込み、シーン固有の環境コンテキストとして機能し、(2)オブジェクトの近傍から関係を収集し、それらを対話に転送するリレーショナル・アウェア・メッセージ・パッシング・モジュールを構築する。
論文 参考訳(メタデータ) (2021-08-19T09:40:50Z) - Object-to-Scene: Learning to Transfer Object Knowledge to Indoor Scene
Recognition [19.503027767462605]
本研究では,オブジェクトの特徴を抽出し,オブジェクト関係を学習して屋内シーンを認識するオブジェクト・ツー・シーン(OTS)手法を提案する。
OTSは、新たなストリームを使わずに、室内のシーン認識において、最先端の手法を2%以上上回っている。
論文 参考訳(メタデータ) (2021-08-01T08:37:08Z) - Synthesizing the Unseen for Zero-shot Object Detection [72.38031440014463]
そこで本研究では,視覚領域における視覚的特徴と視覚的対象の両方を学習するために,視覚的特徴を合成することを提案する。
クラスセマンティックスを用いた新しい生成モデルを用いて特徴を生成するだけでなく,特徴を識別的に分離する。
論文 参考訳(メタデータ) (2020-10-19T12:36:11Z) - A Deep Learning Approach to Object Affordance Segmentation [31.221897360610114]
我々は,ビデオと静的画像の両方において,画素単位の価格ラベルを推定するオートエンコーダを設計する。
本モデルは,ソフトアテンション機構を用いて,オブジェクトラベルやバウンディングボックスの必要性を克服する。
本モデルは,SOR3D-AFF上での強い教師付き手法と比較して,競争力のある結果が得られることを示す。
論文 参考訳(メタデータ) (2020-04-18T15:34:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。