論文の概要: OCORD: Open-Campus Object Removal Dataset
- arxiv url: http://arxiv.org/abs/2501.07397v1
- Date: Mon, 13 Jan 2025 15:12:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-14 14:24:04.346319
- Title: OCORD: Open-Campus Object Removal Dataset
- Title(参考訳): OCORD: オープンCampusオブジェクト削除データセット
- Authors: Shuo Zhang, Runpu Wei, Kongming Liang,
- Abstract要約: 本稿では,固定カメラ設定による長期ビデオキャプチャによる高解像度現実空間データセットの構築により,オブジェクト除去に対する新しいアプローチを提案する。
アノテーションの時間と労力を大幅に削減しつつ、画像、背景、マスクのペアを提供する。
効率的なアノテーションパイプラインで、オブジェクトを削除するための、最初の完全にオープンで高解像度の現実世界データセットをリリースします。
- 参考スコア(独自算出の注目度): 7.078301712338078
- License:
- Abstract: The rapid advancements in generative models, particularly diffusion-based techniques, have revolutionized image inpainting tasks by enabling the generation of high-fidelity and diverse content. However, object removal remains under-explored as a specific subset of inpainting, facing challenges such as inadequate semantic understanding and the unintended generation of artifacts. Existing datasets for object removal often rely on synthetic data, which fails to align with real-world scenarios, limiting model performance. Although some real-world datasets address these issues partially, they suffer from scalability, annotation inefficiencies, and limited realism in physical phenomena such as lighting and shadows. To address these limitations, this paper introduces a novel approach to object removal by constructing a high-resolution real-world dataset through long-duration video capture with fixed camera settings. Leveraging advanced tools such as Grounding-DINO, Segment-Anything-Model, and MASA for automated annotation, we provides image, background, and mask pairs while significantly reducing annotation time and labor. With our efficient annotation pipeline, we release the first fully open, high-resolution real-world dataset for object removal, and improved performance in object removal tasks through fine-tuning of pre-trained diffusion models.
- Abstract(参考訳): 生成モデルの急速な進歩、特に拡散に基づく技術は、高忠実で多様なコンテンツの生成を可能にすることによって、画像のインパインティングタスクに革命をもたらした。
しかしながら、オブジェクトの除去は、不適切な意味理解や意図しないアーティファクトの生成といった課題に直面した、インペイントの特定のサブセットとして探索されていない。
既存のオブジェクト削除用データセットは、しばしば合成データに依存し、実際のシナリオと整合せず、モデルのパフォーマンスが制限される。
現実のデータセットの一部はこれらの問題に部分的に対処するが、スケーラビリティ、アノテーションの非効率性、照明や影のような物理的現象における制限された現実性に悩まされている。
これらの制約に対処するために,固定カメラ設定による長期ビデオキャプチャにより,高解像度の現実空間データセットを構築することにより,オブジェクト除去に対する新しいアプローチを提案する。
Grounding-DINO、Segment-Anything-Model、MASAといった高度なツールを自動アノテーションに活用することで、画像、背景、マスクのペアを提供しながら、アノテーションの時間と労力を大幅に削減する。
効率的なアノテーションパイプラインにより、オブジェクト除去のための最初の完全にオープンで高解像度の現実世界データセットをリリースし、事前学習された拡散モデルの微調整によりオブジェクト除去タスクの性能を改善した。
関連論文リスト
- Generative Image Layer Decomposition with Visual Effects [49.75021036203426]
LayerDecompは、イメージ層分解のための生成フレームワークである。
清潔な背景と、忠実に保存された視覚効果を持つ高品質な透明な前景を作り出す。
本手法は,オブジェクト除去や空間編集作業において,既存の手法よりも優れた分解特性を実現する。
論文 参考訳(メタデータ) (2024-11-26T20:26:49Z) - MegaScenes: Scene-Level View Synthesis at Scale [69.21293001231993]
NVS (Scene-level novel view synthesis) は多くの視覚やグラフィックスの応用に基礎を置いている。
MegaScenesと呼ばれるインターネット写真コレクションから大規模なシーンレベルのデータセットを作成し、世界中の動き(SfM)から100K以上の構造を復元する。
我々は、最先端NVS手法の故障事例を分析し、生成一貫性を大幅に改善する。
論文 参考訳(メタデータ) (2024-06-17T17:55:55Z) - DiffUHaul: A Training-Free Method for Object Dragging in Images [78.93531472479202]
DiffUHaulと呼ばれるオブジェクトドラッグタスクのためのトレーニング不要な手法を提案する。
まず、各認知段階に注意マスキングを適用して、各生成を異なるオブジェクトにまたがってよりゆがみやすくする。
初期のデノナイジングステップでは、ソース画像とターゲット画像の注意特徴を補間して、新しいレイアウトを元の外観とスムーズに融合させる。
論文 参考訳(メタデータ) (2024-06-03T17:59:53Z) - ObjectDrop: Bootstrapping Counterfactuals for Photorealistic Object Removal and Insertion [34.29147907526832]
拡散モデルは画像編集に革命をもたらしたが、しばしば物理法則に違反した画像を生成する。
本稿では,qcounterfactal データセットを中心とした実用的ソリューションを提案する。
このデータセット上で拡散モデルを微調整することで、オブジェクトを除去するだけでなく、シーンへの影響も除去できるのです。
論文 参考訳(メタデータ) (2024-03-27T17:59:52Z) - High-resolution Iterative Feedback Network for Camouflaged Object
Detection [128.893782016078]
カモフラージュされたオブジェクトを背景に視覚的に同化させることは、オブジェクト検出アルゴリズムにとって難しい。
エッジやバウンダリのぼやけた視界を生じさせる細部劣化を避けるために,高分解能テクスチャの詳細を抽出することを目的としている。
我々は,高解像度特徴量による低解像度表現を反復的フィードバック方式で洗練する新しいHitNetを提案する。
論文 参考訳(メタデータ) (2022-03-22T11:20:21Z) - Discovering Objects that Can Move [55.743225595012966]
手動ラベルなしでオブジェクトを背景から分離する、オブジェクト発見の問題について検討する。
既存のアプローチでは、色、テクスチャ、位置などの外観の手がかりを使用して、ピクセルをオブジェクトのような領域に分類する。
私たちは、動的オブジェクト -- 世界で独立して動くエンティティ -- にフォーカスすることを選びます。
論文 参考訳(メタデータ) (2022-03-18T21:13:56Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z) - Detection and Segmentation of Custom Objects using High Distraction
Photorealistic Synthetic Data [0.5076419064097732]
合成データを用いてインスタンスセグメンテーションを行うための簡便で有用な手法を示す。
目標は、カスタムオブジェクトの実際のデータを手動で収集し、注釈付けすることで、高いパフォーマンスを達成することである。
このホワイトペーパーは、光実写シミュレーションデータが現実の応用に利用できるという強い証拠を提供する。
論文 参考訳(メタデータ) (2020-07-28T16:33:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。