論文の概要: Detecting Objects with Context-Likelihood Graphs and Graph Refinement
- arxiv url: http://arxiv.org/abs/2212.12395v3
- Date: Wed, 27 Sep 2023 17:43:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-28 22:15:47.661158
- Title: Detecting Objects with Context-Likelihood Graphs and Graph Refinement
- Title(参考訳): コンテキスト類似グラフとグラフリファインメントによるオブジェクトの検出
- Authors: Aritra Bhowmik, Yu Wang, Nora Baka, Martin R. Oswald, Cees G. M. Snoek
- Abstract要約: 本研究の目的は,オブジェクトと関係を別々に学習する既存の手法とは対照的に,オブジェクトの関係分布を共同で学習することである。
本稿では,オブジェクト間関係と初期クラス予測から画像のグラフィカルな表現を生成する新しい手法を提案する。
次に,エネルギーに基づくモデリング手法を用いて接合部を学習し,与えられた画像に対して文脈類似グラフを反復的に改良する。
- 参考スコア(独自算出の注目度): 45.70356990655389
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The goal of this paper is to detect objects by exploiting their
interrelationships. Contrary to existing methods, which learn objects and
relations separately, our key idea is to learn the object-relation distribution
jointly. We first propose a novel way of creating a graphical representation of
an image from inter-object relation priors and initial class predictions, we
call a context-likelihood graph. We then learn the joint distribution with an
energy-based modeling technique which allows to sample and refine the
context-likelihood graph iteratively for a given image. Our formulation of
jointly learning the distribution enables us to generate a more accurate graph
representation of an image which leads to a better object detection
performance. We demonstrate the benefits of our context-likelihood graph
formulation and the energy-based graph refinement via experiments on the Visual
Genome and MS-COCO datasets where we achieve a consistent improvement over
object detectors like DETR and Faster-RCNN, as well as alternative methods
modeling object interrelationships separately. Our method is detector agnostic,
end-to-end trainable, and especially beneficial for rare object classes.
- Abstract(参考訳): 本論文の目的は,相互関係を利用して物体を検出することである。
オブジェクトと関係を別々に学習する既存の方法とは対照的に、私たちのキーとなる考え方は、オブジェクト-関係分布を共同で学習することである。
まず,オブジェクト間関係の優先順位と初期クラス予測から画像のグラフィカル表現を作成する新しい手法を提案する。
次に, 与えられた画像に対して, 文脈類似グラフを反復的にサンプリングし, 精査するエネルギーベースモデリング手法を用いて, 共同分布を学習する。
分散学習を共同で行うことにより,より正確な画像のグラフ表現を生成できるため,オブジェクト検出性能が向上する。
我々は,detrやfaster-rcnnのような物体検出器に対して一貫した改善を実現するために,視覚ゲノムとms-cocoデータセットを用いた実験を通して,文脈類似グラフの定式化とエネルギーベースのグラフの洗練の利点を実証する。
本手法は, 検出非依存, エンドツーエンドの訓練が可能であり, 希少なオブジェクトクラスに特に有用である。
関連論文リスト
- EGTR: Extracting Graph from Transformer for Scene Graph Generation [5.935927309154952]
SGG(Scene Graph Generation)は、オブジェクトを検出し、オブジェクト間の関係を予測するための課題である。
本稿では,DETRデコーダのマルチヘッド自己アテンション層で学習した様々な関係から関係グラフを抽出する軽量一段SGGモデルを提案する。
本稿では,Visual Genome と Open Image V6 データセットに対する提案手法の有効性と有効性を示す。
論文 参考訳(メタデータ) (2024-04-02T16:20:02Z) - Scene-Graph ViT: End-to-End Open-Vocabulary Visual Relationship Detection [14.22646492640906]
オープン語彙の視覚的関係検出のための単純かつ高効率なデコーダレスアーキテクチャを提案する。
我々のモデルはTransformerベースの画像エンコーダで、オブジェクトをトークンとして表現し、それらの関係を暗黙的にモデル化する。
提案手法は,ビジュアルゲノムおよび大語彙GQAベンチマーク上で,リアルタイムな推論速度で,最先端の関係検出性能を実現する。
論文 参考訳(メタデータ) (2024-03-21T10:15:57Z) - Relational Prior Knowledge Graphs for Detection and Instance
Segmentation [24.360473253478112]
本稿では,先行値を用いたオブジェクト機能拡張グラフを提案する。
COCOの実験的評価は、リレーショナル先行で拡張されたシーングラフの利用は、オブジェクト検出とインスタンスセグメンテーションの利点をもたらすことを示している。
論文 参考訳(メタデータ) (2023-10-11T15:15:05Z) - Bures-Wasserstein Means of Graphs [60.42414991820453]
本研究では,スムーズなグラフ信号分布の空間への埋め込みを通じて,グラフ平均を定義する新しいフレームワークを提案する。
この埋め込み空間において平均を求めることにより、構造情報を保存する平均グラフを復元することができる。
我々は,新しいグラフの意味の存在と特異性を確立し,それを計算するための反復アルゴリズムを提供する。
論文 参考訳(メタデータ) (2023-05-31T11:04:53Z) - You Only Transfer What You Share: Intersection-Induced Graph Transfer
Learning for Link Prediction [79.15394378571132]
従来見過ごされていた現象を調査し、多くの場合、元のグラフに対して密に連結された補グラフを見つけることができる。
より密度の高いグラフは、選択的で有意義な知識を伝達するための自然なブリッジを提供する元のグラフとノードを共有することができる。
この設定をグラフインターセクション誘導トランスファーラーニング(GITL)とみなし,eコマースや学術共同オーサシップ予測の実践的応用に動機づけられた。
論文 参考訳(メタデータ) (2023-02-27T22:56:06Z) - Relationformer: A Unified Framework for Image-to-Graph Generation [18.832626244362075]
この研究は、オブジェクトとその関係を共同で予測する一段階トランスフォーマーベースの統合フレームワークであるRelationformerを提案する。
我々は、直接セットベースのオブジェクト予測を活用し、オブジェクト間の相互作用を取り入れて、オブジェクト関係表現を共同で学習する。
複数、多種多様な、複数ドメインのデータセット上で、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-03-19T00:36:59Z) - Relation Regularized Scene Graph Generation [206.76762860019065]
SGG(Scene Graph Generation)は、検出されたオブジェクトの上に構築され、オブジェクトのペアの視覚的関係を予測する。
本稿では,2つのオブジェクト間の関係を予測できる関係正規化ネットワーク(R2-Net)を提案する。
我々のR2-Netはオブジェクトラベルを効果的に洗練し、シーングラフを生成する。
論文 参考訳(メタデータ) (2022-02-22T11:36:49Z) - Joint Graph Learning and Matching for Semantic Feature Correspondence [69.71998282148762]
本稿では,グラフマッチングを向上するための信頼度の高いグラフ構造を探索するために,GLAMという共用電子グラフ学習とマッチングネットワークを提案する。
提案手法は,3つの人気ビジュアルマッチングベンチマーク (Pascal VOC, Willow Object, SPair-71k) で評価される。
すべてのベンチマークにおいて、従来の最先端のグラフマッチング手法よりも大きなマージンを達成している。
論文 参考訳(メタデータ) (2021-09-01T08:24:02Z) - A Graph-based Interactive Reasoning for Human-Object Interaction
Detection [71.50535113279551]
本稿では,HOIを推論するインタラクティブグラフ(Interactive Graph, in-Graph)という,グラフに基づくインタラクティブ推論モデルを提案する。
In-GraphNet と呼ばれる HOI を検出するための新しいフレームワークを構築した。
私たちのフレームワークはエンドツーエンドのトレーニングが可能で、人間のポーズのような高価なアノテーションはありません。
論文 参考訳(メタデータ) (2020-07-14T09:29:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。