論文の概要: Learning Object Placement via Dual-path Graph Completion
- arxiv url: http://arxiv.org/abs/2207.11464v1
- Date: Sat, 23 Jul 2022 08:39:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 14:22:32.385238
- Title: Learning Object Placement via Dual-path Graph Completion
- Title(参考訳): デュアルパスグラフ補完による物体配置学習
- Authors: Siyuan Zhou and Liu Liu and Li Niu and Liqing Zhang
- Abstract要約: オブジェクト配置は、適切な位置とサイズで背景画像の上に前景オブジェクトを配置することを目的としている。
本研究では,オブジェクト配置をグラフ補完問題として扱い,新しいグラフ補完モジュール(GCM)を提案する。
前景オブジェクトは、このグラフの合理的な場所に挿入されるべき特別なノードとしてエンコードされる。
- 参考スコア(独自算出の注目度): 28.346027247882354
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object placement aims to place a foreground object over a background image
with a suitable location and size. In this work, we treat object placement as a
graph completion problem and propose a novel graph completion module (GCM). The
background scene is represented by a graph with multiple nodes at different
spatial locations with various receptive fields. The foreground object is
encoded as a special node that should be inserted at a reasonable place in this
graph. We also design a dual-path framework upon the structure of GCM to fully
exploit annotated composite images. With extensive experiments on OPA dataset,
our method proves to significantly outperform existing methods in generating
plausible object placement without loss of diversity.
- Abstract(参考訳): オブジェクト配置は、適切な位置とサイズで背景画像の上に前景オブジェクトを置くことを目的としている。
本研究では,オブジェクト配置をグラフ補完問題として扱い,新しいグラフ補完モジュール(GCM)を提案する。
背景シーンは、様々な受容フィールドを持つ異なる空間的な場所に複数のノードを持つグラフで表現される。
前景オブジェクトは、このグラフの合理的な場所に挿入すべき特別なノードとしてエンコードされる。
また,GCMの構造に基づくデュアルパス・フレームワークを設計し,注釈付き複合画像を完全に活用する。
OPAデータセットに関する広範な実験により,本手法は多様性を損なうことなく可塑性物体配置の生成において,既存の手法を著しく上回ることを示す。
関連論文リスト
- Multiview Scene Graph [7.460438046915524]
適切なシーン表現は、空間知性の追求の中心である。
未提示画像からマルチビューシーングラフ(MSG)を構築することを提案する。
MSGは、場所とオブジェクトノードを相互接続したシーンをトポロジ的に表現する。
論文 参考訳(メタデータ) (2024-10-15T02:04:05Z) - SceneGraphLoc: Cross-Modal Coarse Visual Localization on 3D Scene Graphs [81.2396059480232]
SceneGraphLocはシーングラフ内の各ノード(つまりオブジェクトインスタンスを表す)に対する固定サイズの埋め込みを学習する。
画像を利用する場合、SceneGraphLocは、大規模な画像データベースに依存する最先端技術に近いパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-03-30T20:25:16Z) - Grounding Scene Graphs on Natural Images via Visio-Lingual Message
Passing [17.63475613154152]
本稿では,シーングラフの特定の意味的関係制約に従うオブジェクトを協調的にグラウンド化するためのフレームワークを提案する。
シーングラフは、画像内のすべてのオブジェクトとその意味的関係を表現するための効率的で構造化された方法である。
論文 参考訳(メタデータ) (2022-11-03T16:46:46Z) - Leveraging commonsense for object localisation in partial scenes [36.47035776975184]
空間コモンセンスグラフ(D-SCG)の幾何学的推論を容易にする新しいシーン表現を提案する。
新たな注目メッセージパッシング機構を実装したグラフニューラルネットワークを用いて,対象物体の未知の位置を推定する。
本研究では, 局所化精度を8倍に向上させるため, 部分ScanNetによる手法の評価を行い, 最先端技術の改善を5.9%向上させた。
論文 参考訳(メタデータ) (2022-11-01T16:17:07Z) - Complex Scene Image Editing by Scene Graph Comprehension [17.72638225034884]
シーングラフ(SGC-Net)による複雑なシーン画像編集を実現するための2段階手法を提案する。
第1段階では,シーングラフを用いた関心領域予測ネットワークを訓練し,対象物体の位置を推定する。
第2段階では条件付き拡散モデルを用いて、RoI予測に基づいて画像を編集する。
論文 参考訳(メタデータ) (2022-03-24T05:12:54Z) - Segmentation-grounded Scene Graph Generation [47.34166260639392]
ピクセルレベルセグメンテーションに基づくシーングラフ生成のためのフレームワークを提案する。
私たちのフレームワークは、基盤となるシーングラフ生成方法に無知です。
ターゲットデータセットと補助データセットの両方でマルチタスクで学習される。
論文 参考訳(メタデータ) (2021-04-29T08:54:08Z) - Learning Spatial Context with Graph Neural Network for Multi-Person Pose
Grouping [71.59494156155309]
イメージベース多人数ポーズ推定のためのボトムアップ手法は,キーポイント検出とグループ化の2段階からなる。
本研究では,グラフ分割問題としてグループ化タスクを定式化し,グラフニューラルネットワーク(gnn)を用いて親和性行列を学習する。
学習された幾何学に基づく親和性は、強固なキーポイント結合を達成するために外観に基づく親和性とさらに融合する。
論文 参考訳(メタデータ) (2021-04-06T09:21:14Z) - Scene Graph to Image Generation with Contextualized Object Layout
Refinement [92.85331019618332]
シーングラフから画像を生成する新しい手法を提案する。
提案手法では,レイアウトのカバレッジを約20ポイント向上し,オブジェクトの重複量を無視できる量に削減する。
論文 参考訳(メタデータ) (2020-09-23T06:27:54Z) - High-Order Information Matters: Learning Relation and Topology for
Occluded Person Re-Identification [84.43394420267794]
本稿では,高次関係とトポロジ情報を識別的特徴とロバストなアライメントのために学習し,新しい枠組みを提案する。
我々のフレームワークはOccluded-Dukeデータセットで最先端の6.5%mAPスコアを大幅に上回っている。
論文 参考訳(メタデータ) (2020-03-18T12:18:35Z) - Object-Centric Image Generation from Layouts [93.10217725729468]
複数のオブジェクトを持つ複雑なシーンを生成するレイアウト・ツー・イメージ生成法を開発した。
本手法は,シーン内のオブジェクト間の空間的関係の表現を学習し,レイアウトの忠実度の向上につながる。
本稿では,Fr'echet Inception Distanceのオブジェクト中心適応であるSceneFIDを紹介する。
論文 参考訳(メタデータ) (2020-03-16T21:40:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。