論文の概要: OPA: Object Placement Assessment Dataset
- arxiv url: http://arxiv.org/abs/2107.01889v1
- Date: Mon, 5 Jul 2021 09:23:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-06 14:58:19.439828
- Title: OPA: Object Placement Assessment Dataset
- Title(参考訳): OPA: オブジェクト配置評価データセット
- Authors: Liu Liu, Bo Zhang, Jiangtong Li, Li Niu, Qingyang Liu, Liqing Zhang
- Abstract要約: 画像合成は、ある画像から別の背景画像にオブジェクトを挿入することで、現実的な合成画像を生成することを目的とする。
本稿では,オブジェクト配置の観点で合成画像が妥当かどうかを検証するオブジェクト配置評価タスクに焦点をあてる。
- 参考スコア(独自算出の注目度): 20.791187775546625
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image composition aims to generate realistic composite image by inserting an
object from one image into another background image, where the placement (e.g.,
location, size, occlusion) of inserted object may be unreasonable, which would
significantly degrade the quality of the composite image. Although some works
attempted to learn object placement to create realistic composite images, they
did not focus on assessing the plausibility of object placement. In this paper,
we focus on object placement assessment task, which verifies whether a
composite image is plausible in terms of the object placement. To accomplish
this task, we construct the first Object Placement Assessment (OPA) dataset
consisting of composite images and their rationality labels. Dataset is
available at https://github.com/bcmi/Object-Placement-Assessment-Dataset-OPA.
- Abstract(参考訳): 画像合成は、ある画像から別の背景画像にオブジェクトを挿入することで現実的な複合画像を生成することを目的としており、挿入されたオブジェクトの配置(例えば、位置、サイズ、オクルージョン)は理不尽であり、複合画像の品質が著しく低下する可能性がある。
現実的な合成画像を作成するためにオブジェクト配置を学習しようとした研究もあるが、それらはオブジェクト配置の妥当性を評価することに集中しなかった。
本稿では,複合画像が被写体配置の観点で妥当かどうかを検証する,被写体配置評価タスクに焦点を当てる。
この課題を達成するために,合成画像とその合理性ラベルからなる最初のオブジェクト配置評価(opa)データセットを構築した。
Datasetはhttps://github.com/bcmi/Object-Placement-Assessment-Dataset-OPAで入手できる。
関連論文リスト
- Generative Location Modeling for Spatially Aware Object Insertion [35.62317512925592]
生成モデルは、オブジェクト挿入を含む画像編集タスクの強力なツールになっている。
本稿では,現実的な物体の位置を識別するための位置モデルの構築に焦点をあてる。
具体的には,背景画像と所望のオブジェクトクラスに条件付き境界ボックス座標を生成する自己回帰モデルを訓練する。
この定式化により、スパース配置アノテーションを効果的に処理し、直接選好最適化を行うことで、不明瞭な位置を選好データセットに組み込むことができる。
論文 参考訳(メタデータ) (2024-10-17T14:00:41Z) - DESOBAv2: Towards Large-scale Real-world Dataset for Shadow Generation [19.376935979734714]
本研究では,合成画像をよりリアルにするために,挿入された前景オブジェクトに対する可塑性影の生成に焦点をあてる。
既存の小規模なデータセットであるDESOBAを補完するために、DESOBAv2と呼ばれる大規模なデータセットを作成します。
論文 参考訳(メタデータ) (2023-08-19T10:21:23Z) - Foreground Object Search by Distilling Composite Image Feature [15.771802337102837]
フォアグラウンドオブジェクトサーチ(FOS)は、ある背景画像に対して互換性のあるフォアグラウンドオブジェクトを見つけることを目的としている。
判別器を用いて合成画像の整合性を予測することにより,競争力のある検索性能が達成できることを示す。
蒸留複合材料(DiscoFOS)を用いた新しいFOS法を提案する。
論文 参考訳(メタデータ) (2023-08-09T14:43:10Z) - MegaPose: 6D Pose Estimation of Novel Objects via Render & Compare [84.80956484848505]
MegaPoseは、トレーニング中に見えない新しいオブジェクトの6Dポーズを推定する方法である。
本稿では,新しいオブジェクトに適用可能なR&Compare戦略に基づく6次元ポーズリファインダを提案する。
第2に,合成レンダリングと同一物体の観察画像間のポーズ誤差をリファインダで補正できるか否かを分類するために訓練されたネットワークを利用する,粗いポーズ推定のための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-12-13T19:30:03Z) - FewSOL: A Dataset for Few-Shot Object Learning in Robotic Environments [21.393674766169543]
本稿では,オブジェクト認識のためのFew-Shot Object Learningデータセットについて紹介する。
私たちは、異なる視点から、オブジェクトごとに9つのRGB-D画像を持つ336の現実世界のオブジェクトをキャプチャしました。
評価結果から, ロボット環境下では, 数発の物体分類において, 改良の余地がまだ大きいことが示唆された。
論文 参考訳(メタデータ) (2022-07-06T05:57:24Z) - Discovering Objects that Can Move [55.743225595012966]
手動ラベルなしでオブジェクトを背景から分離する、オブジェクト発見の問題について検討する。
既存のアプローチでは、色、テクスチャ、位置などの外観の手がかりを使用して、ピクセルをオブジェクトのような領域に分類する。
私たちは、動的オブジェクト -- 世界で独立して動くエンティティ -- にフォーカスすることを選びます。
論文 参考訳(メタデータ) (2022-03-18T21:13:56Z) - Making Images Real Again: A Comprehensive Survey on Deep Image Composition [34.09380539557308]
画像合成タスクは複数のサブタスクに分割でき、各サブタスクは1つ以上の課題を目標とすることができる。
本稿では,サブタスクの包括的調査と画像合成のブレンディングを行う。
それぞれについて、既存のメソッド、利用可能なデータセット、一般的な評価指標を要約する。
論文 参考訳(メタデータ) (2021-06-28T09:09:14Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z) - A Simple and Effective Use of Object-Centric Images for Long-Tailed
Object Detection [56.82077636126353]
シーン中心画像における物体検出を改善するために,物体中心画像を活用する。
私たちは、シンプルで驚くほど効果的なフレームワークを提示します。
我々の手法は、レアオブジェクトのオブジェクト検出(およびインスタンスセグメンテーション)の精度を相対的に50%(および33%)向上させることができる。
論文 参考訳(メタデータ) (2021-02-17T17:27:21Z) - Adversarial Image Composition with Auxiliary Illumination [53.89445873577062]
本稿では,現実的な画像合成を実現するためのAIC-Netを提案する。
影の発生と前景の移動を両立させる新しい分岐生成機構を提案する。
歩行者と自動車のコンポジションタスクに関する実験により,提案したAIC-Netが優れたコンポジション性能を実現することを示す。
論文 参考訳(メタデータ) (2020-09-17T12:58:16Z) - Object-Centric Image Generation from Layouts [93.10217725729468]
複数のオブジェクトを持つ複雑なシーンを生成するレイアウト・ツー・イメージ生成法を開発した。
本手法は,シーン内のオブジェクト間の空間的関係の表現を学習し,レイアウトの忠実度の向上につながる。
本稿では,Fr'echet Inception Distanceのオブジェクト中心適応であるSceneFIDを紹介する。
論文 参考訳(メタデータ) (2020-03-16T21:40:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。