論文の概要: Relational Prior Knowledge Graphs for Detection and Instance
Segmentation
- arxiv url: http://arxiv.org/abs/2310.07573v1
- Date: Wed, 11 Oct 2023 15:15:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 22:10:20.289267
- Title: Relational Prior Knowledge Graphs for Detection and Instance
Segmentation
- Title(参考訳): リレーショナル事前知識グラフによる検出とインスタンスセグメンテーション
- Authors: Osman \"Ulger, Yu Wang, Ysbrand Galama, Sezer Karaoglu, Theo Gevers,
Martin R. Oswald
- Abstract要約: 本稿では,先行値を用いたオブジェクト機能拡張グラフを提案する。
COCOの実験的評価は、リレーショナル先行で拡張されたシーングラフの利用は、オブジェクト検出とインスタンスセグメンテーションの利点をもたらすことを示している。
- 参考スコア(独自算出の注目度): 24.360473253478112
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Humans have a remarkable ability to perceive and reason about the world
around them by understanding the relationships between objects. In this paper,
we investigate the effectiveness of using such relationships for object
detection and instance segmentation. To this end, we propose a Relational
Prior-based Feature Enhancement Model (RP-FEM), a graph transformer that
enhances object proposal features using relational priors. The proposed
architecture operates on top of scene graphs obtained from initial proposals
and aims to concurrently learn relational context modeling for object detection
and instance segmentation. Experimental evaluations on COCO show that the
utilization of scene graphs, augmented with relational priors, offer benefits
for object detection and instance segmentation. RP-FEM demonstrates its
capacity to suppress improbable class predictions within the image while also
preventing the model from generating duplicate predictions, leading to
improvements over the baseline model on which it is built.
- Abstract(参考訳): 人間は、物体間の関係を理解することによって、周囲の世界を知覚し、推論する驚くべき能力を持っている。
本稿では,オブジェクト検出とインスタンス分割にそのような関係を用いることの有効性を検討する。
そこで本研究では,リレーショナル・プレファレンスを用いてオブジェクトの提案機能を強化するグラフトランスフォーマであるリレーショナル・プレファレンス・フィーチャー・エンハンスメント・モデル(rp-fem)を提案する。
提案アーキテクチャは,初期提案から得られたシーングラフ上で動作し,オブジェクト検出とインスタンスセグメンテーションのための関係コンテキストモデリングを同時に学習することを目的としている。
COCOの実験的評価は、リレーショナル先行で拡張されたシーングラフの利用は、オブジェクト検出とインスタンスセグメンテーションの利点をもたらすことを示している。
RP-FEMは、イメージ内の不可能なクラス予測を抑える能力を示し、モデルが重複予測を発生させないことを示し、それが構築されるベースラインモデルよりも改善される。
関連論文リスト
- A Plug-and-Play Method for Rare Human-Object Interactions Detection by Bridging Domain Gap [50.079224604394]
textbfContext-textbfEnhanced textbfFeature textbfAment (CEFA) と呼ばれる新しいモデルに依存しないフレームワークを提案する。
CEFAは機能アライメントモジュールとコンテキスト拡張モジュールで構成される。
本手法は, 稀なカテゴリにおけるHOIモデルの検出性能を向上させるために, プラグアンドプレイモジュールとして機能する。
論文 参考訳(メタデータ) (2024-07-31T08:42:48Z) - EGTR: Extracting Graph from Transformer for Scene Graph Generation [5.935927309154952]
SGG(Scene Graph Generation)は、オブジェクトを検出し、オブジェクト間の関係を予測するための課題である。
本稿では,DETRデコーダのマルチヘッド自己アテンション層で学習した様々な関係から関係グラフを抽出する軽量一段SGGモデルを提案する。
本稿では,Visual Genome と Open Image V6 データセットに対する提案手法の有効性と有効性を示す。
論文 参考訳(メタデータ) (2024-04-02T16:20:02Z) - Scene-Graph ViT: End-to-End Open-Vocabulary Visual Relationship Detection [14.22646492640906]
オープン語彙の視覚的関係検出のための単純かつ高効率なデコーダレスアーキテクチャを提案する。
我々のモデルはTransformerベースの画像エンコーダで、オブジェクトをトークンとして表現し、それらの関係を暗黙的にモデル化する。
提案手法は,ビジュアルゲノムおよび大語彙GQAベンチマーク上で,リアルタイムな推論速度で,最先端の関係検出性能を実現する。
論文 参考訳(メタデータ) (2024-03-21T10:15:57Z) - Unified Visual Relationship Detection with Vision and Language Models [89.77838890788638]
この研究は、複数のデータセットからラベル空間の結合を予測する単一の視覚的関係検出器のトレーニングに焦点を当てている。
視覚と言語モデルを活用した統合視覚関係検出のための新しいボトムアップ手法UniVRDを提案する。
人物体間相互作用検出とシーングラフ生成の双方による実験結果から,本モデルの競合性能が示された。
論文 参考訳(メタデータ) (2023-03-16T00:06:28Z) - Detecting Objects with Context-Likelihood Graphs and Graph Refinement [45.70356990655389]
本研究の目的は,オブジェクトと関係を別々に学習する既存の手法とは対照的に,オブジェクトの関係分布を共同で学習することである。
本稿では,オブジェクト間関係と初期クラス予測から画像のグラフィカルな表現を生成する新しい手法を提案する。
次に,エネルギーに基づくモデリング手法を用いて接合部を学習し,与えられた画像に対して文脈類似グラフを反復的に改良する。
論文 参考訳(メタデータ) (2022-12-23T15:27:21Z) - Relation Regularized Scene Graph Generation [206.76762860019065]
SGG(Scene Graph Generation)は、検出されたオブジェクトの上に構築され、オブジェクトのペアの視覚的関係を予測する。
本稿では,2つのオブジェクト間の関係を予測できる関係正規化ネットワーク(R2-Net)を提案する。
我々のR2-Netはオブジェクトラベルを効果的に洗練し、シーングラフを生成する。
論文 参考訳(メタデータ) (2022-02-22T11:36:49Z) - Instance-Level Relative Saliency Ranking with Graph Reasoning [126.09138829920627]
そこで本研究では,有意な事例を分割し,相対的有意な有意なランク順序を推定するための統一モデルを提案する。
また、サラレンシーランキングブランチを効果的にトレーニングするために、新しい損失関数も提案されている。
実験の結果,提案手法は従来の手法よりも有効であることがわかった。
論文 参考訳(メタデータ) (2021-07-08T13:10:42Z) - Unified Graph Structured Models for Video Understanding [93.72081456202672]
リレーショナル・テンポラル関係を明示的にモデル化するメッセージパッシンググラフニューラルネットワークを提案する。
本手法は,シーン内の関連エンティティ間の関係をより効果的にモデル化できることを示す。
論文 参考訳(メタデータ) (2021-03-29T14:37:35Z) - Tensor Composition Net for Visual Relationship Prediction [115.14829858763399]
画像の視覚的関係を予測するための新しいコンポジションネットワーク(TCN)を提案する。
TCNの鍵となる考え方は、視覚的関係テンソルの低階特性を利用することである。
本稿では,ttcnの画像レベルの視覚関係予測により,画像検索の簡便かつ効率的なメカニズムを示す。
論文 参考訳(メタデータ) (2020-12-10T06:27:20Z) - Improving Relation Extraction by Leveraging Knowledge Graph Link
Prediction [5.820381428297218]
REとKGLPのタスクを共同トレーニングし、REモデルの性能を向上させるマルチタスク学習手法を提案します。
いくつかの既存のREモデルに適用することで、我々のアプローチの一般性を説明し、一貫性のあるパフォーマンス向上を実現するのにどのように役立つかを実証的に示す。
論文 参考訳(メタデータ) (2020-12-09T01:08:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。