論文の概要: Unlocking Attributes' Contribution to Successful Camouflage: A Combined Textual and VisualAnalysis Strategy
- arxiv url: http://arxiv.org/abs/2408.12086v1
- Date: Thu, 22 Aug 2024 02:51:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-23 15:23:41.570719
- Title: Unlocking Attributes' Contribution to Successful Camouflage: A Combined Textual and VisualAnalysis Strategy
- Title(参考訳): カモフラージュに寄与する属性のアンロック:テキストとビジュアル分析の併用戦略
- Authors: Hong Zhang, Yixuan Lyu, Qian Yu, Hanyang Liu, Huimin Ma, Ding Yuan, Yifan Yang,
- Abstract要約: 本研究は,カモフラージュ特性がカモフラージュパターンの有効性に与える影響を総合的に検討する。
カモフラージュされたオブジェクトとその属性コントリビューションを記述した最初のデータセットをコンパイルした。
我々は,Camouflaged Object Attribution(COS)タスクのためのテキスト情報と視覚情報を組み合わせた堅牢なフレームワークを開発した。
ACUMENは優れたパフォーマンスを示し、3つの広く使用されているデータセットで9つのリードメソッドを上回っている。
- 参考スコア(独自算出の注目度): 27.251750465641305
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the domain of Camouflaged Object Segmentation (COS), despite continuous improvements in segmentation performance, the underlying mechanisms of effective camouflage remain poorly understood, akin to a black box. To address this gap, we present the first comprehensive study to examine the impact of camouflage attributes on the effectiveness of camouflage patterns, offering a quantitative framework for the evaluation of camouflage designs. To support this analysis, we have compiled the first dataset comprising descriptions of camouflaged objects and their attribute contributions, termed COD-Text And X-attributions (COD-TAX). Moreover, drawing inspiration from the hierarchical process by which humans process information: from high-level textual descriptions of overarching scenarios, through mid-level summaries of local areas, to low-level pixel data for detailed analysis. We have developed a robust framework that combines textual and visual information for the task of COS, named Attribution CUe Modeling with Eye-fixation Network (ACUMEN). ACUMEN demonstrates superior performance, outperforming nine leading methods across three widely-used datasets. We conclude by highlighting key insights derived from the attributes identified in our study. Code: https://github.com/lyu-yx/ACUMEN.
- Abstract(参考訳): カモフラージュ・オブジェクト・セグメンテーション(COS)の領域では、セグメンテーション性能が継続的に改善されているにもかかわらず、効果的なカモフラージュのメカニズムはブラックボックスと同様に理解されていない。
このギャップに対処するため,カモフラージュ特性がカモフラージュパターンの有効性に与える影響を総合的に検討し,カモフラージュ設計評価のための定量的枠組みを提供する。
この分析を支援するために、我々は、COD-Text And X-attributions (COD-TAX)と呼ばれる、カモフラージュされたオブジェクトとその属性のコントリビューションを記述した最初のデータセットをコンパイルした。
さらに、人間が情報を処理する階層的なプロセスからインスピレーションを得ており、その内容は、局所的な中レベルの要約から、詳細な分析のための低レベルのピクセルデータまで、上位シナリオの高レベルテキスト記述から導かれる。
我々は、COSのタスクのためのテキスト情報と視覚情報を組み合わせた堅牢なフレームワーク、Attribution CUe Modeling with Eye-fixation Network (ACUMEN)を開発した。
ACUMENは優れたパフォーマンスを示し、3つの広く使用されているデータセットで9つのリードメソッドを上回っている。
本研究の結論は,本研究で同定された属性から得られた重要な知見を明らかにすることである。
コード:https://github.com/lyu-yx/ACUMEN.com
関連論文リスト
- Adaptive Guidance Learning for Camouflaged Object Detection [23.777432551429396]
本稿では,適応型誘導学習ネットワーク「textitAGLNet」を提案する。
広く使用されている3つのCODベンチマークデータセットの実験により,提案手法が大幅な性能向上を実現することが示された。
論文 参考訳(メタデータ) (2024-05-05T06:21:58Z) - Leveraging Open-Vocabulary Diffusion to Camouflaged Instance
Segmentation [59.78520153338878]
テキスト・ツー・イメージ拡散技術は、テキスト記述から高品質な画像を生成する素晴らしい能力を示している。
そこで本研究では,オープン語彙を応用した最先端拡散モデルを用いて,多スケールのテキスト・視覚的特徴を学習する手法を提案する。
論文 参考訳(メタデータ) (2023-12-29T07:59:07Z) - Vision-Enhanced Semantic Entity Recognition in Document Images via
Visually-Asymmetric Consistency Learning [19.28860833813788]
既存のモデルでは、視覚的エンコーダを弱いモード間監視信号で訓練することが一般的である。
そこで本稿では,textbfVisually-textbfAsymmetric cotextbfNsistentextbfCy textbfLearning (textscVancl) アプローチを提案する。
論文 参考訳(メタデータ) (2023-10-23T10:37:22Z) - Camouflaged Image Synthesis Is All You Need to Boost Camouflaged
Detection [65.8867003376637]
本研究では,カモフラージュデータの合成フレームワークを提案する。
提案手法では,既存の物体検出モデルのトレーニングに使用可能な,現実的なカモフラージュ画像の生成に生成モデルを用いる。
我々のフレームワークは3つのデータセット上で最先端の手法より優れています。
論文 参考訳(メタデータ) (2023-08-13T06:55:05Z) - Learning Referring Video Object Segmentation from Weak Annotation [78.45828085350936]
RVOS(Referring Video Object segmentation)は、対象物を記述する文に基づいて、対象物をすべてのビデオフレームにセグメント化することを目的としたタスクである。
そこで本研究では, RVOS に対する十分な監視を提供しながら, アノテーションの労力を 8 倍に削減する新たなアノテーション方式を提案する。
私たちのスキームは、最初にオブジェクトが現れるフレームのマスクと、残りのフレームのバウンディングボックスのみを必要とする。
論文 参考訳(メタデータ) (2023-08-04T06:50:52Z) - Feature Aggregation and Propagation Network for Camouflaged Object
Detection [42.33180748293329]
カモフラージュされたオブジェクト検出(COD)は、環境に埋め込まれたカモフラージュされたオブジェクトを検出し、分離することを目的としている。
いくつかのCOD法が開発されているが, 前景オブジェクトと背景環境との固有の類似性により, 依然として不満足な性能に悩まされている。
カモフラージュされた物体検出のための新しい特徴集約・伝播ネットワーク(FAP-Net)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:54:28Z) - Learning from Temporal Spatial Cubism for Cross-Dataset Skeleton-based
Action Recognition [88.34182299496074]
アクションラベルはソースデータセットでのみ利用可能だが、トレーニング段階のターゲットデータセットでは利用できない。
我々は,2つの骨格に基づく行動データセット間の領域シフトを低減するために,自己スーパービジョン方式を利用する。
時間的セグメントや人体部分のセグメンテーションとパーフォーミングにより、我々は2つの自己教師あり学習分類タスクを設計する。
論文 参考訳(メタデータ) (2022-07-17T07:05:39Z) - Towards Deeper Understanding of Camouflaged Object Detection [64.81987999832032]
バイナリセグメンテーション設定は、カモフラージュの概念を完全に理解できない。
そこで本研究では,カモフラージュされたオブジェクトの局所化,セグメント化,ランク付けを同時に行う3段階学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-23T14:26:18Z) - Learning Statistical Texture for Semantic Segmentation [53.7443670431132]
セマンティックセグメンテーションのための新しい統計テクスチャ学習ネットワーク(STLNet)を提案する。
STLNetは、初めて低レベルの情報の分布を分析し、それらをタスクに効率的に活用する。
1)テクスチャ関連情報を捕捉し,テクスチャの詳細を強化するためのテクスチャエンハンスモジュール(TEM),(2)ピラミッドテクスチャ特徴抽出モジュール(PTFEM)の2つのモジュールを導入し,複数のスケールから統計的テクスチャ特徴を効果的に抽出する。
論文 参考訳(メタデータ) (2021-03-06T15:05:35Z) - Towards Accurate Camouflaged Object Detection with Mixture Convolution and Interactive Fusion [45.45231015502287]
本稿では,大規模な受容場と効果的な特徴融合を統合されたフレームワークに統合する,新しい深層学習型COD手法を提案する。
提案手法は,大規模な受容場からのリッチなコンテキスト情報を集約する,効果的な融合戦略により,カモフラージュされた物体を検出する。
論文 参考訳(メタデータ) (2021-01-14T16:06:08Z) - Unifying Graph Embedding Features with Graph Convolutional Networks for
Skeleton-based Action Recognition [18.001693718043292]
本稿では,人行動認識のためのグラフ畳み込みネットワークに15のグラフ埋め込み機能を組み込んだ新しいフレームワークを提案する。
我々のモデルは,NTU-RGB+D,Kineetics,SYSU-3Dという3つの大規模データセットで検証されている。
論文 参考訳(メタデータ) (2020-03-06T02:31:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。