論文の概要: Multi-Semantic Interactive Learning for Object Detection
- arxiv url: http://arxiv.org/abs/2303.10411v1
- Date: Sat, 18 Mar 2023 13:14:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-21 19:38:38.371439
- Title: Multi-Semantic Interactive Learning for Object Detection
- Title(参考訳): オブジェクト検出のためのマルチセマンティック対話学習
- Authors: Shuxin Wang, Zhichao Zheng, Yanhui Gu, Junsheng Zhou, Yi Chen
- Abstract要約: 本稿では,異なる分野間の意味的関連性を検討するために,マルチセマンティック・インタラクティブ・ラーニング(MSIL)を提案する。
MSILはプラグイン・アンド・プレイコンポーネントとして既存のオブジェクト検出ネットに統合できる。
- 参考スコア(独自算出の注目度): 11.392255321898324
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Single-branch object detection methods use shared features for localization
and classification, yet the shared features are not fit for the two different
tasks simultaneously. Multi-branch object detection methods usually use
different features for localization and classification separately, ignoring the
relevance between different tasks. Therefore, we propose multi-semantic
interactive learning (MSIL) to mine the semantic relevance between different
branches and extract multi-semantic enhanced features of objects. MSIL first
performs semantic alignment of regression and classification branches, then
merges the features of different branches by semantic fusion, finally extracts
relevant information by semantic separation and passes it back to the
regression and classification branches respectively. More importantly, MSIL can
be integrated into existing object detection nets as a plug-and-play component.
Experiments on the MS COCO, and Pascal VOC datasets show that the integration
of MSIL with existing algorithms can utilize the relevant information between
semantics of different tasks and achieve better performance.
- Abstract(参考訳): 単一ブランチオブジェクト検出手法は、ローカライズと分類に共有機能を使用するが、共有機能は2つの異なるタスクに同時に適合しない。
マルチブランチオブジェクト検出法は通常、異なるタスク間の関連性を無視して、ローカライズと分類に異なる機能を使用する。
そこで本研究では,異なる枝間の意味的関連性をマイニングし,オブジェクトのマルチセマンティクス拡張特徴を抽出するマルチセマンティクスインタラクティブラーニング(msil)を提案する。
MSILはまず回帰と分類分岐のセマンティックアライメントを行い、その後、意味融合によって異なる分岐の特徴をマージし、最後に意味分離によって関連する情報を抽出し、それぞれ回帰と分類枝に渡す。
さらに重要なことに、msilはプラグアンドプレイコンポーネントとして既存のオブジェクト検出ネットに統合することができる。
MSCOCOとPascal VOCデータセットの実験により、MSILと既存のアルゴリズムの統合は、タスクのセマンティクス間の関連情報を活用し、より良いパフォーマンスを実現することができることが示された。
関連論文リスト
- Dual Relation Mining Network for Zero-Shot Learning [48.89161627050706]
本稿では,効果的な視覚・意味的相互作用を実現し,知識伝達のための属性間の意味的関係を学習するためのDual Relation Mining Network(DRMN)を提案する。
具体的には,多層的特徴融合により視覚情報を強化する視覚・意味的関係マイニングのためのデュアルアテンションブロック(DAB)を提案する。
セマンティック・インタラクション・トランスフォーマ(SIT)を用いて画像間の属性表現の一般化を促進する。
論文 参考訳(メタデータ) (2024-05-06T16:31:19Z) - Auxiliary Tasks Enhanced Dual-affinity Learning for Weakly Supervised
Semantic Segmentation [79.05949524349005]
AuxSegNet+は、サリエンシマップから豊富な情報を探索する弱教師付き補助学習フレームワークである。
また,サリエンシとセグメンテーションの特徴マップから画素レベルの親和性を学習するためのクロスタスク親和性学習機構を提案する。
論文 参考訳(メタデータ) (2024-03-02T10:03:21Z) - Relevant Intrinsic Feature Enhancement Network for Few-Shot Semantic
Segmentation [34.257289290796315]
本稿では,フォアグラウンドインスタンスのセマンティック一貫性を改善するために,RiFeNet(Relevant Intrinsic Feature Enhancement Network)を提案する。
RiFeNetはPASCAL-5iとCOCOベンチマークの最先端メソッドを上回っている。
論文 参考訳(メタデータ) (2023-12-11T16:02:57Z) - Semantics Meets Temporal Correspondence: Self-supervised Object-centric Learning in Videos [63.94040814459116]
自己教師付き手法は、高レベルの意味論と低レベルの時間対応の学習において顕著な進歩を見せている。
融合した意味特徴と対応地図の上に,意味認識型マスキングスロットアテンションを提案する。
我々は、時間的コヒーレントなオブジェクト中心表現を促進するために、セマンティックおよびインスタンスレベルの時間的一貫性を自己スーパービジョンとして採用する。
論文 参考訳(メタデータ) (2023-08-19T09:12:13Z) - MIANet: Aggregating Unbiased Instance and General Information for
Few-Shot Semantic Segmentation [6.053853367809978]
既存の少数ショットセグメンテーション手法はメタラーニング戦略に基づいて,サポートセットからインスタンス知識を抽出する。
本稿では,多情報集約ネットワーク(MIANet)を提案する。
PASCAL-5iとCOCO-20iの実験により、MIANetは優れた性能を示し、新しい最先端技術を確立した。
論文 参考訳(メタデータ) (2023-05-23T09:36:27Z) - Advancing Incremental Few-shot Semantic Segmentation via Semantic-guided
Relation Alignment and Adaptation [98.51938442785179]
増分的な数ショットセマンティックセマンティックセマンティクスは、セマンティクスセマンティクスモデルを新しいクラスに漸進的に拡張することを目的としている。
このタスクは、データ不均衡のため、ベースクラスと新しいクラスの間で深刻な意味認識の問題に直面します。
本稿では,従来の意味情報のガイダンスを完全に考慮した意味誘導型関係調整適応法を提案する。
論文 参考訳(メタデータ) (2023-05-18T10:40:52Z) - Part-guided Relational Transformers for Fine-grained Visual Recognition [59.20531172172135]
識別的特徴を学習し,特徴変換モジュールとの相関関係を探索するフレームワークを提案する。
提案手法は,3-of-the-levelオブジェクト認識において,部分ブランチの追加に頼らず,最先端の性能に達する。
論文 参考訳(メタデータ) (2022-12-28T03:45:56Z) - Universal-RCNN: Universal Object Detector via Transferable Graph R-CNN [117.80737222754306]
我々はUniversal-RCNNと呼ばれる新しいユニバーサルオブジェクト検出器を提案する。
まず、すべてのカテゴリの高レベルなセマンティック表現を統合することで、グローバルなセマンティックプールを生成する。
ドメイン内推論モジュールは、空間認識GCNによってガイドされる1つのデータセット内のスパースグラフ表現を学習し、伝播する。
論文 参考訳(メタデータ) (2020-02-18T07:57:45Z) - Pixel-Semantic Revise of Position Learning A One-Stage Object Detector
with A Shared Encoder-Decoder [5.371825910267909]
異なる手法がオブジェクトを適応的に検出することを分析する。
いくつかの最先端検出器は、異なる特徴ピラミッドと多レベルセマンティック情報を強化するための多くのメカニズムを組み合わせている。
この研究は、注意機構を持つ共有エンコーダデコーダを持つアンカーフリー検出器によって対処される。
論文 参考訳(メタデータ) (2020-01-04T08:55:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。