論文の概要: GTNet: Generative Transfer Network for Zero-Shot Object Detection
- arxiv url: http://arxiv.org/abs/2001.06812v2
- Date: Fri, 24 Jan 2020 13:27:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-08 12:38:30.545386
- Title: GTNet: Generative Transfer Network for Zero-Shot Object Detection
- Title(参考訳): GTNet:ゼロショットオブジェクト検出のための生成転送ネットワーク
- Authors: Shizhen Zhao, Changxin Gao, Yuanjie Shao, Lerenhan Li, Changqian Yu,
Zhong Ji, Nong Sang
- Abstract要約: ゼロショットオブジェクト検出(ZSD)のための生成転送ネットワーク(GTNet)を提案する。
GTNetはオブジェクト検出モジュールと知識伝達モジュールで構成される。
Object Detection Moduleは、大規模に見られるドメイン知識を学習することができる。
Knowledge Transfer Moduleは、機能シンセサイザーを利用して見えないクラス機能を生成し、Object Detection Moduleの新しい分類層をトレーニングするために適用します。
- 参考スコア(独自算出の注目度): 58.48150259029143
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a Generative Transfer Network (GTNet) for zero shot object
detection (ZSD). GTNet consists of an Object Detection Module and a Knowledge
Transfer Module. The Object Detection Module can learn large-scale seen domain
knowledge. The Knowledge Transfer Module leverages a feature synthesizer to
generate unseen class features, which are applied to train a new classification
layer for the Object Detection Module. In order to synthesize features for each
unseen class with both the intra-class variance and the IoU variance, we design
an IoU-Aware Generative Adversarial Network (IoUGAN) as the feature
synthesizer, which can be easily integrated into GTNet. Specifically, IoUGAN
consists of three unit models: Class Feature Generating Unit (CFU), Foreground
Feature Generating Unit (FFU), and Background Feature Generating Unit (BFU).
CFU generates unseen features with the intra-class variance conditioned on the
class semantic embeddings. FFU and BFU add the IoU variance to the results of
CFU, yielding class-specific foreground and background features, respectively.
We evaluate our method on three public datasets and the results demonstrate
that our method performs favorably against the state-of-the-art ZSD approaches.
- Abstract(参考訳): ゼロショットオブジェクト検出(ZSD)のための生成転送ネットワーク(GTNet)を提案する。
GTNetはオブジェクト検出モジュールと知識伝達モジュールで構成される。
Object Detection Moduleは、大規模に見られるドメイン知識を学ぶことができる。
Knowledge Transfer Moduleは、機能シンセサイザーを利用して見えないクラス機能を生成し、Object Detection Moduleの新しい分類層をトレーニングするために適用します。
クラス内分散とIoU分散の両方で各未確認クラスの機能を合成するために,GTNetに容易に統合可能な特徴合成器としてIoU-Aware Generative Adversarial Network (IoUGAN) を設計する。
具体的には、クラス特徴生成ユニット(CFU)、フォアグラウンド特徴生成ユニット(FFU)、バックグラウンド特徴生成ユニット(BFU)の3つのユニットモデルで構成されている。
CFUは、クラスセマンティック埋め込みに条件付きクラス内の分散で見えない特徴を生成する。
FFUとBFUは、CFUの結果にIoUの分散を加え、それぞれクラス固有の前景と背景の特徴をもたらす。
提案手法を3つの公開データセット上で評価し,最新のzsd手法に好適な結果を得た。
関連論文リスト
- Salient Object Detection in Optical Remote Sensing Images Driven by
Transformer [69.22039680783124]
光リモートセンシング画像(ORSI-SOD)のためのGlobal extract Local Exploration Network(GeleNet)を提案する。
具体的には、GeleNetはまずトランスフォーマーバックボーンを採用し、グローバルな長距離依存関係を持つ4レベルの機能埋め込みを生成する。
3つの公開データセットに関する大規模な実験は、提案されたGeleNetが関連する最先端メソッドより優れていることを示している。
論文 参考訳(メタデータ) (2023-09-15T07:14:43Z) - Feature Aggregation and Propagation Network for Camouflaged Object
Detection [42.33180748293329]
カモフラージュされたオブジェクト検出(COD)は、環境に埋め込まれたカモフラージュされたオブジェクトを検出し、分離することを目的としている。
いくつかのCOD法が開発されているが, 前景オブジェクトと背景環境との固有の類似性により, 依然として不満足な性能に悩まされている。
カモフラージュされた物体検出のための新しい特徴集約・伝播ネットワーク(FAP-Net)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:54:28Z) - 3DGTN: 3D Dual-Attention GLocal Transformer Network for Point Cloud
Classification and Segmentation [21.054928631088575]
本稿では,Global Local(GLocal) Transformer Network(3DGTN)と呼ばれる,新たなポイントクラウド表現学習ネットワークを提案する。
提案するフレームワークは,分類データセットとセグメンテーションデータセットの両方で評価される。
論文 参考訳(メタデータ) (2022-09-21T14:34:21Z) - GSMFlow: Generation Shifts Mitigating Flow for Generalized Zero-Shot
Learning [55.79997930181418]
Generalized Zero-Shot Learningは、目に見えないクラスから見えないクラスに意味的な知識を移すことで、目に見えないクラスと見えないクラスの両方から画像を認識することを目的としている。
生成モデルの利点を生かして、見学したクラスから学んだ知識に基づいて、現実的な見知らぬサンプルを幻覚させることは、有望な解決策である。
本研究では,複数の条件付きアフィン結合層からなるフローベース生成フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-05T04:04:37Z) - Mitigating Generation Shifts for Generalized Zero-Shot Learning [52.98182124310114]
一般化ゼロショット学習(英: Generalized Zero-Shot Learning、GZSL)は、学習中に見知らぬクラスが観察できない、見つからないサンプルを認識するために意味情報(属性など)を活用するタスクである。
本稿では,未知のデータ合成を効率よく,効率的に学習するための新しい生成シフト緩和フローフレームワークを提案する。
実験結果から,GSMFlowは従来のゼロショット設定と一般化されたゼロショット設定の両方において,最先端の認識性能を実現することが示された。
論文 参考訳(メタデータ) (2021-07-07T11:43:59Z) - Attribute-Modulated Generative Meta Learning for Zero-Shot
Classification [52.64680991682722]
ゼロショット学習のためのAttribute-Modulated GenerAtive Meta-modelを提案する。
本モデルは属性対応変調ネットワークと属性対応生成ネットワークから構成される。
実験により,AMAZはZSLで3.8%,ZSLで5.1%改善し,ZSL設定を一般化した。
論文 参考訳(メタデータ) (2021-04-22T04:16:43Z) - 3D IoU-Net: IoU Guided 3D Object Detector for Point Clouds [68.44740333471792]
正規分類と回帰分岐に3D IoU予測分岐を付加する。
我々は,IoU感度特徴学習とIoUアライメント操作を併用した3次元IoU-Netを提案する。
KITTIカー検出ベンチマークの実験結果から,IoU知覚による3次元IoU-Netが最先端性能を実現することが示された。
論文 参考訳(メタデータ) (2020-04-10T09:24:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。