論文の概要: Efficient Multi-Crop Saliency Partitioning for Automatic Image Cropping
- arxiv url: http://arxiv.org/abs/2506.22814v1
- Date: Sat, 28 Jun 2025 08:32:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.584977
- Title: Efficient Multi-Crop Saliency Partitioning for Automatic Image Cropping
- Title(参考訳): 自動画像クロッピングのための効率的なマルチクロップ・サリエンシ分割法
- Authors: Andrew Hamara, Andrew C. Freeman,
- Abstract要約: 固定アスペクト比クロッピングアルゴリズムを拡張し、線形時間で複数の非重複作物を効率的に抽出する。
本手法は,サリエンシマップ全体を再計算することなく,注意閾値を動的に調整し,選択した作物を考慮から除去する。
- 参考スコア(独自算出の注目度): 0.6906005491572401
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automatic image cropping aims to extract the most visually salient regions while preserving essential composition elements. Traditional saliency-aware cropping methods optimize a single bounding box, making them ineffective for applications requiring multiple disjoint crops. In this work, we extend the Fixed Aspect Ratio Cropping algorithm to efficiently extract multiple non-overlapping crops in linear time. Our approach dynamically adjusts attention thresholds and removes selected crops from consideration without recomputing the entire saliency map. We discuss qualitative results and introduce the potential for future datasets and benchmarks.
- Abstract(参考訳): 自動画像トリミングは、重要な構成要素を保持しながら、最も視覚的に健全な領域を抽出することを目的としている。
従来のサリエンシ対応の収穫法は、1つのバウンディングボックスを最適化し、複数の不随伴作物を必要とするアプリケーションには効果がない。
本研究では,線形時間で複数の非重複作物を効率的に抽出するために,固定アスペクト比クロップ法を拡張した。
本手法は,サリエンシマップ全体を再計算することなく,注意閾値を動的に調整し,選択した作物を考慮から除去する。
質的な結果について議論し、将来のデータセットやベンチマークの可能性を紹介する。
関連論文リスト
- Seeing What Matters: Empowering CLIP with Patch Generation-to-Selection [54.21851618853518]
本稿では,CLIPのトレーニング効率を高めるために,パッチ生成と選択という簡潔で効果的なアプローチを提案する。
私たちのアプローチであるCLIP-PGSは、ゼロショット分類と検索タスクにおいて、新しい最先端結果を設定する。
論文 参考訳(メタデータ) (2025-03-21T12:10:38Z) - Self-Supervised Multi-Scale Network for Blind Image Deblurring via Alternating Optimization [12.082424048578753]
本稿では,遅延画像とぼやけたカーネルを共同で推定する,自己監督型マルチスケールブラインド画像デブロアリング手法を提案する。
複数スケールにわたる協調的推定により,計算集約的な粗大な伝播や画像の劣化を回避できる。
論文 参考訳(メタデータ) (2024-09-02T07:08:17Z) - Cropper: Vision-Language Model for Image Cropping through In-Context Learning [54.34593968212081]
画像トリミングのための大規模視覚言語モデル(VLM)を効果的に活用する手法を提案する。
まず,画像トリミングのための効率的なプロンプト検索機構を提案する。
第2に、予測された作物を反復的に増強する反復的改良戦略を導入する。
提案手法は, 自由形態の収穫, 主観的な収穫, アスペクト比の収穫など, 広範囲にわたる収穫作業に適用可能である。
論文 参考訳(メタデータ) (2024-08-14T20:03:03Z) - FreeCompose: Generic Zero-Shot Image Composition with Diffusion Prior [50.0535198082903]
我々は,複数の入力イメージを単一のコヒーレントなイメージに統合する,新しい画像合成手法を提案する。
本稿では, 大規模事前学習拡散モデルに内在する強力な生成的前駆体を利用して, 汎用画像合成を実現する可能性を示す。
論文 参考訳(メタデータ) (2024-07-06T03:35:43Z) - An Experience-based Direct Generation approach to Automatic Image
Cropping [0.0]
画像美学を明示的にモデル化することなく,画像を直接収穫する新しい手法を提案する。
我々のモデルは、経験豊富な編集者が収集した画像の大規模なデータセットに基づいて訓練されている。
我々の戦略は2つの関連するタスクにおいて既存の手法と競合するか、あるいは性能が良いことを示す。
論文 参考訳(メタデータ) (2022-12-30T06:25:27Z) - CropMix: Sampling a Rich Input Distribution via Multi-Scale Cropping [97.05377757299672]
そこで本研究では,元のデータセット分布からリッチな入力分布を生成するための簡単なCropMixを提案する。
CropMixは、分類タスクを実行するトレーニングレシピやニューラルネットワークアーキテクチャにシームレスに適用することができる。
CropMixは、より強力な表現に向けて、対照的な学習とマスクされた画像モデリングの両方に利益があることを示す。
論文 参考訳(メタデータ) (2022-05-31T16:57:28Z) - Repurposing Existing Deep Networks for Caption and Aesthetic-Guided
Image Cropping [33.46066328197085]
本稿では,ユーザ記述と美学に基づいて,与えられた画像を抽出する新しい最適化フレームワークを提案する。
当社のフレームワークは,意図したユーザ記述や美的満足度に整合した作物を生産することができる。
論文 参考訳(メタデータ) (2022-01-07T00:23:40Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。