論文の概要: Enrich the content of the image Using Context-Aware Copy Paste
- arxiv url: http://arxiv.org/abs/2407.08151v1
- Date: Thu, 11 Jul 2024 03:07:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-12 19:08:29.551411
- Title: Enrich the content of the image Using Context-Aware Copy Paste
- Title(参考訳): コンテキスト対応コピーペーストによる画像の内容の充実
- Authors: Qiushi Guo,
- Abstract要約: 本稿では,By Latent Information Propagation (BLIP) を組み込んだコンテキスト認識手法を提案する。
抽出したコンテンツ情報とカテゴリ情報とをマッチングすることにより,Segment Anything Model (SAM) と You Only Look Once (YOLO) を用いて対象物の密結合性を確保する。
各種データセットを対象とした実験により,データ多様性の向上と高品質な擬似画像の生成において,本手法の有効性が示された。
- 参考スコア(独自算出の注目度): 1.450405446885067
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data augmentation remains a widely utilized technique in deep learning, particularly in tasks such as image classification, semantic segmentation, and object detection. Among them, Copy-Paste is a simple yet effective method and gain great attention recently. However, existing Copy-Paste often overlook contextual relevance between source and target images, resulting in inconsistencies in generated outputs. To address this challenge, we propose a context-aware approach that integrates Bidirectional Latent Information Propagation (BLIP) for content extraction from source images. By matching extracted content information with category information, our method ensures cohesive integration of target objects using Segment Anything Model (SAM) and You Only Look Once (YOLO). This approach eliminates the need for manual annotation, offering an automated and user-friendly solution. Experimental evaluations across diverse datasets demonstrate the effectiveness of our method in enhancing data diversity and generating high-quality pseudo-images across various computer vision tasks.
- Abstract(参考訳): データ拡張は、ディープラーニング、特に画像分類、セマンティックセグメンテーション、オブジェクト検出などのタスクにおいて広く利用されているテクニックである。
中でもCopy-Pasteはシンプルだが効果的な方法であり、近年は注目されている。
しかし、既存の Copy-Paste はソースとターゲットのイメージのコンテキスト的関連性を見落とし、出力に矛盾が生じている。
この課題に対処するために、ソース画像からのコンテンツ抽出に双方向潜時情報伝達(BLIP)を統合するコンテキスト認識アプローチを提案する。
抽出したコンテンツ情報とカテゴリ情報とをマッチングすることにより,Segment Anything Model (SAM) と You Only Look Once (YOLO) を用いて対象物の密結合性を確保する。
このアプローチでは手動のアノテーションが不要になり、自動化されたユーザフレンドリなソリューションが提供される。
多様なデータセットにまたがる実験により,データ多様性の向上とコンピュータビジョンタスクにおける高品質な擬似画像の生成において,本手法の有効性が示された。
関連論文リスト
- Revolutionizing Text-to-Image Retrieval as Autoregressive Token-to-Voken Generation [90.71613903956451]
テキスト・ツー・イメージ検索はマルチメディア処理における基本的な課題である。
本稿では,AVGという自己回帰ボウケン生成手法を提案する。
AVGは有効性と有効性の両方において優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2024-07-24T13:39:51Z) - Enhancing Historical Image Retrieval with Compositional Cues [3.2276097734075426]
本稿では,この話題に計算美学,すなわち画像合成から重要な要素を紹介する。
CNNが抽出した合成関連情報を設計した検索モデルに明示的に統合することにより、画像の合成規則と意味情報の両方を考察する。
論文 参考訳(メタデータ) (2024-03-21T10:51:19Z) - ICC: Quantifying Image Caption Concreteness for Multimodal Dataset Curation [36.43428388918294]
ペア化されたテキストイメージデータのWebスケールトレーニングは、ますますマルチモーダルな学習の中心になりつつある。
標準的なデータフィルタリングアプローチでは、ミスマッチしたテキストイメージペアを削除できない。
画像参照なしで字幕テキストを評価し,その具体性を計測する新しい指標である画像キャプション具体性を提案する。
論文 参考訳(メタデータ) (2024-03-02T20:36:10Z) - Leveraging Open-Vocabulary Diffusion to Camouflaged Instance
Segmentation [59.78520153338878]
テキスト・ツー・イメージ拡散技術は、テキスト記述から高品質な画像を生成する素晴らしい能力を示している。
そこで本研究では,オープン語彙を応用した最先端拡散モデルを用いて,多スケールのテキスト・視覚的特徴を学習する手法を提案する。
論文 参考訳(メタデータ) (2023-12-29T07:59:07Z) - Improving Human-Object Interaction Detection via Virtual Image Learning [68.56682347374422]
人間-物体相互作用(Human-Object Interaction、HOI)は、人間と物体の相互作用を理解することを目的としている。
本稿では,仮想画像学習(Virtual Image Leaning, VIL)による不均衡分布の影響を軽減することを提案する。
ラベルからイメージへの新たなアプローチであるMultiple Steps Image Creation (MUSIC)が提案され、実際の画像と一貫した分布を持つ高品質なデータセットを作成する。
論文 参考訳(メタデータ) (2023-08-04T10:28:48Z) - De-coupling and De-positioning Dense Self-supervised Learning [65.56679416475943]
Dense Self-Supervised Learning (SSL)メソッドは、複数のオブジェクトでイメージを処理する際に、画像レベルの特徴表現を使用する際の制限に対処する。
本研究は, 層深度やゼロパディングに伴う受容野の増大によって生じる, 結合と位置バイアスに悩まされていることを示す。
我々はCOCOにおける本手法の利点と、オブジェクト分類、セマンティックセグメンテーション、オブジェクト検出のための新しい挑戦的ベンチマークであるOpenImage-MINIについて示す。
論文 参考訳(メタデータ) (2023-03-29T18:07:25Z) - Region-level Active Learning for Cluttered Scenes [60.93811392293329]
本稿では,従来の画像レベルのアプローチとオブジェクトレベルのアプローチを一般化した領域レベルのアプローチに仮定する新たな戦略を提案する。
その結果,本手法はラベル付けの労力を大幅に削減し,クラス不均衡や散らかったシーンを生かしたリアルなデータに対する希少なオブジェクト検索を改善することが示唆された。
論文 参考訳(メタデータ) (2021-08-20T14:02:38Z) - A deep learning approach to clustering visual arts [7.363576598794859]
本稿では,deep Learning approach to cLustering vIsUal artSを提案する。
この方法は、事前訓練された畳み込みネットワークを使用して特徴を抽出し、これらの特徴を深い組込みクラスタリングモデルに供給する。
生の入力データを潜在空間にマッピングするタスクは、この潜在空間内のクラスタセントロイドの集合を見つけるタスクと共同で最適化される。
論文 参考訳(メタデータ) (2021-06-11T08:35:26Z) - Generating Annotated High-Fidelity Images Containing Multiple Coherent
Objects [10.783993190686132]
コンテキスト情報を明示的に必要とせずに、複数のオブジェクトで画像を合成できるマルチオブジェクト生成フレームワークを提案する。
我々は,Multi-MNISTおよびCLEVRデータセットを用いた実験により,コヒーレンシーと忠実さの保存方法を示す。
論文 参考訳(メタデータ) (2020-06-22T11:33:55Z) - Webpage Segmentation for Extracting Images and Their Surrounding
Contextual Information [0.0]
本稿では,Web ページ上に表示される特徴に基づいて,Web 画像の抽出とそのコンテキスト情報を対象とした Web ページ分割アルゴリズムを提案する。
提案手法の有効性を検証するために,提案手法が既存のセグメンテーションアルゴリズムよりも優れた結果が得られることを示した。
論文 参考訳(メタデータ) (2020-05-18T19:00:03Z) - Learning Enriched Features for Real Image Restoration and Enhancement [166.17296369600774]
畳み込みニューラルネットワーク(CNN)は、画像復元作業における従来のアプローチよりも劇的に改善されている。
ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とした,新しいアーキテクチャを提案する。
提案手法は,高解像度の空間的詳細を同時に保存しながら,複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
論文 参考訳(メタデータ) (2020-03-15T11:04:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。