論文の概要: Comprehensive Saliency Fusion for Object Co-segmentation
- arxiv url: http://arxiv.org/abs/2201.12828v1
- Date: Sun, 30 Jan 2022 14:22:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-01 18:19:55.396433
- Title: Comprehensive Saliency Fusion for Object Co-segmentation
- Title(参考訳): オブジェクト・コセグメンテーションのための包括的塩分融合
- Authors: Harshit Singh Chhabra, Koteswar Rao Jerripothula
- Abstract要約: サリエンシ融合は、オブジェクトのコセグメンテーションを実行するための有望な方法の1つです。
本稿では,問題を再検討し,同じ画像と異なる画像の相性マップの融合を提案する。
また、深層学習の進歩を活用して、サリエンシ抽出と対応プロセスを実現している。
- 参考スコア(独自算出の注目度): 3.908842679355254
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Object co-segmentation has drawn significant attention in recent years,
thanks to its clarity on the expected foreground, the shared object in a group
of images. Saliency fusion has been one of the promising ways to carry it out.
However, prior works either fuse saliency maps of the same image or saliency
maps of different images to extract the expected foregrounds. Also, they rely
on hand-crafted saliency extraction and correspondence processes in most cases.
This paper revisits the problem and proposes fusing saliency maps of both the
same image and different images. It also leverages advances in deep learning
for the saliency extraction and correspondence processes. Hence, we call it
comprehensive saliency fusion. Our experiments reveal that our approach
achieves much-improved object co-segmentation results compared to prior works
on important benchmark datasets such as iCoseg, MSRC, and Internet Images.
- Abstract(参考訳): オブジェクトのコセグメンテーションは、画像群における共有オブジェクトであるフォアグラウンドの明確さにより、近年大きな注目を集めている。
健全な融合は、それを実行するための有望な方法の1つです。
しかし、以前の研究では、同じ画像のサリエンシマップと異なる画像のサリエンシマップを融合して、期待されているフォアグラウンドを抽出する。
また、ほとんどの場合、手作りサリエンシ抽出や対応プロセスにも依存している。
本稿では,問題を再検討し,同じ画像と異なる画像の相似性マップを提案する。
また、深層学習の進歩を、唾液抽出と対応プロセスに活用する。
したがって、私たちはそれを包括的衛生融合と呼ぶ。
提案手法は,iCoseg,MSRC,Internet Imagesなどの重要なベンチマークデータセットに対する先行研究と比較して,大幅に改善されたオブジェクトのコセグメンテーション結果を実現する。
関連論文リスト
- From Latent to Engine Manifolds: Analyzing ImageBind's Multimodal Embedding Space [0.0]
本稿では,画像/テキストペアの重なり合う情報を捉えることを目的とした,簡易な埋め込み融合ワークフローを提案する。
このような融合埋め込みをベクトルデータベースに格納した後、次元の減少を実験し、関節埋め込みのセマンティックな品質を伝えるための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2024-08-30T17:16:33Z) - TSJNet: A Multi-modality Target and Semantic Awareness Joint-driven
Image Fusion Network [2.7387720378113554]
我々は、TSJNetと呼ばれるターゲットおよびセマンティック・アウェアネス駆動型核融合ネットワークを導入する。
一連の構造に配置された核融合、検出、セグメンテーションを含む。
視覚的に快く融合した結果を生成することができ、それぞれ2.84%と7.47%のオブジェクト検出とセグメンテーションのmAP @0.5とmIoUが平均的に増加する。
論文 参考訳(メタデータ) (2024-02-02T08:37:38Z) - Image Fusion in Remote Sensing: An Overview and Meta Analysis [12.500746892824338]
リモートセンシング(RS)における画像融合は、様々な解像度、ソース、モダリティの生画像を正確で完全でコヒーレントな画像に変換する能力により、一貫した要求であった。
しかし、画像融合ソリューションは様々なリモートセンシング問題と非常に異なるため、既存のレビューではトピックアプリケーションとして狭義に定義されることが多い。
本論文は,1)多対一画像融合,2)多対多画像融合という単純な分類法を用いて,関連研究を包括的に調査する。
論文 参考訳(メタデータ) (2024-01-16T21:21:17Z) - An Interactively Reinforced Paradigm for Joint Infrared-Visible Image
Fusion and Saliency Object Detection [59.02821429555375]
この研究は、野生の隠れた物体の発見と位置決めに焦点をあて、無人のシステムに役立てる。
経験的分析により、赤外線と可視画像融合(IVIF)は、難しい物体の発見を可能にする。
マルチモーダル・サリエント・オブジェクト検出(SOD)は、画像内の物体の正確な空間的位置を正確に記述する。
論文 参考訳(メタデータ) (2023-05-17T06:48:35Z) - SemIE: Semantically-aware Image Extrapolation [1.5588799679661636]
画像外挿を行うための意味的に認識可能な新しいパラダイムを提案する。
提案手法は (i) 既に存在するオブジェクトを拡張することに焦点を当て、 (ii) コンテキストに基づいて拡張された領域に新しいオブジェクトを追加することに焦点を当てている。
我々はCityscapesとADE20K-bedroomデータセットの実験を行い、FIDとオブジェクト共起統計における類似性の観点から、本手法がすべてのベースラインより優れていることを示す。
論文 参考訳(メタデータ) (2021-08-31T09:31:27Z) - NeuralFusion: Online Depth Fusion in Latent Space [77.59420353185355]
潜在特徴空間における深度マップアグリゲーションを学習する新しいオンライン深度マップ融合手法を提案する。
提案手法は,高騒音レベルを処理し,特に測光ステレオベース深度マップに共通する粗悪なアウトレージに対処できる。
論文 参考訳(メタデータ) (2020-11-30T13:50:59Z) - Mining Cross-Image Semantics for Weakly Supervised Semantic Segmentation [128.03739769844736]
2つのニューラルコアテンションを分類器に組み込んで、画像間のセマンティックな類似点と相違点をキャプチャする。
オブジェクトパターン学習の強化に加えて、コアテンションは他の関連する画像からのコンテキストを活用して、ローカライズマップの推論を改善することができる。
提案アルゴリズムは,これらすべての設定に対して新たな最先端性を設定し,その有効性と一般化性を示す。
論文 参考訳(メタデータ) (2020-07-03T21:53:46Z) - Gradient-Induced Co-Saliency Detection [81.54194063218216]
Co-SOD(Co-saliency Detection)は、一般的な唾液前景を関連画像のグループに分割することを目的としている。
本稿では,人間の行動にインスパイアされた,勾配誘導型共分散検出法を提案する。
論文 参考訳(メタデータ) (2020-04-28T08:40:55Z) - Unsupervised Learning of Landmarks based on Inter-Intra Subject
Consistencies [72.67344725725961]
本稿では,物体間ランドマーク成分を顔画像に組み込むことにより,画像ランドマーク発見のための教師なし学習手法を提案する。
これは、補助的な主題関連構造に基づいて、元の主題のランドマークを変換するオブジェクト間マッピングモジュールによって達成される。
変換された画像から元の被写体に戻るために、ランドマーク検出器は、対のオブジェクト内画像と対のオブジェクト間画像の両方に一貫した意味を含む空間的位置を学習せざるを得ない。
論文 参考訳(メタデータ) (2020-04-16T20:38:16Z) - Image Co-skeletonization via Co-segmentation [102.59781674888657]
我々は,新しい共同処理の話題である画像コスケルトン化を提案する。
単一の自然な画像におけるオブジェクトのスケルトン化は、オブジェクトに関する事前の知識がほとんどないため、難しい問題である。
本稿では,コ・スケルトン化とコ・セグメンテーション・タスクの結合フレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-12T09:35:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。