論文の概要: Cerberus Transformer: Joint Semantic, Affordance and Attribute Parsing
- arxiv url: http://arxiv.org/abs/2111.12608v1
- Date: Wed, 24 Nov 2021 16:32:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-25 16:57:29.902973
- Title: Cerberus Transformer: Joint Semantic, Affordance and Attribute Parsing
- Title(参考訳): Cerberus Transformer:ジョイントセマンティック、アフォーマンス、属性解析
- Authors: Xiaoxue Chen, Tianyu Liu, Hao Zhao, Guyue Zhou, Ya-Qin Zhang
- Abstract要約: 我々は, 共同意味論, 余裕, 属性解析の新たな課題に取り組む。
我々は、Cerberusという名前の注意に基づくアーキテクチャと、カスタマイズされたトレーニングフレームワークを提案する。
本手法は上記の課題に効果的に対処し、3つの課題すべてに対して最先端のパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 9.321541170038122
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-task indoor scene understanding is widely considered as an intriguing
formulation, as the affinity of different tasks may lead to improved
performance. In this paper, we tackle the new problem of joint semantic,
affordance and attribute parsing. However, successfully resolving it requires a
model to capture long-range dependency, learn from weakly aligned data and
properly balance sub-tasks during training. To this end, we propose an
attention-based architecture named Cerberus and a tailored training framework.
Our method effectively addresses the aforementioned challenges and achieves
state-of-the-art performance on all three tasks. Moreover, an in-depth analysis
shows concept affinity consistent with human cognition, which inspires us to
explore the possibility of weakly supervised learning. Surprisingly, Cerberus
achieves strong results using only 0.1%-1% annotation. Visualizations further
confirm that this success is credited to common attention maps across tasks.
Code and models can be accessed at https://github.com/OPEN-AIR-SUN/Cerberus.
- Abstract(参考訳): 異なるタスクの親和性がパフォーマンスの向上につながる可能性があるため、マルチタスクの屋内シーン理解は興味深い定式化と見なされている。
本稿では, 共同意味論, 余裕度, 属性解析の新たな課題に取り組む。
しかし、うまく解決するには、長距離依存関係をキャプチャし、弱いアライメントデータから学び、トレーニング中にサブタスクを適切にバランスさせるモデルが必要となる。
この目的のために,cerberusと呼ばれる注意に基づくアーキテクチャと,トレーニングフレームワークを提案する。
本手法は,上記の課題を効果的に解決し,3つのタスクすべてにおいて最先端のパフォーマンスを実現する。
さらに、深い分析により、人間の認知と一致する概念親和性が示され、弱い教師付き学習の可能性を探ることを促す。
驚くべきことに、Cerberus は 0.1%-1% のアノテーションで強い結果を得る。
可視化により、この成功はタスク間での共通注意マップの功績が証明される。
コードとモデルはhttps://github.com/OPEN-AIR-SUN/Cerberus.comでアクセスできる。
関連論文リスト
- Distribution Matching for Multi-Task Learning of Classification Tasks: a
Large-Scale Study on Faces & Beyond [62.406687088097605]
マルチタスク学習(MTL)は、複数の関連するタスクを共同で学習し、共有表現空間から恩恵を受けるフレームワークである。
MTLは、ほとんど重複しない、あるいは重複しないアノテーションで分類タスクで成功することを示す。
本稿では,分散マッチングによるタスク間の知識交換を可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-02T14:18:11Z) - Learning Transferable Adversarial Robust Representations via Multi-view
Consistency [57.73073964318167]
デュアルエンコーダを用いたメタ逆多視点表現学習フレームワークを提案する。
未確認領域からの少数ショット学習タスクにおけるフレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2022-10-19T11:48:01Z) - Task Compass: Scaling Multi-task Pre-training with Task Prefix [122.49242976184617]
既存の研究では、大規模教師付きタスクによるマルチタスク学習がタスク間の負の効果に悩まされていることが示されている。
タスク間の関係を探索するために,タスクプレフィックスガイド付きマルチタスク事前学習フレームワークを提案する。
我々のモデルは、幅広いタスクの強力な基盤バックボーンとして機能するだけでなく、タスク関係を分析するための探索ツールとしても実現可能である。
論文 参考訳(メタデータ) (2022-10-12T15:02:04Z) - DenseMTL: Cross-task Attention Mechanism for Dense Multi-task Learning [18.745373058797714]
本稿では,相互に相互にタスクを交換するマルチタスク学習アーキテクチャを提案する。
我々は3つのマルチタスク・セットアップにまたがって広範な実験を行い、合成および実世界のベンチマークにおいて競合するベースラインと比較して、我々のアプローチの利点を示している。
論文 参考訳(メタデータ) (2022-06-17T17:59:45Z) - DiSparse: Disentangled Sparsification for Multitask Model Compression [92.84435347164435]
DiSparseは、シンプルで効果的で、第一級のマルチタスクプルーニングとスパーストレーニングスキームである。
実験の結果,様々な設定や設定において優れた性能を示した。
論文 参考訳(メタデータ) (2022-06-09T17:57:46Z) - Learning to Relate Depth and Semantics for Unsupervised Domain
Adaptation [87.1188556802942]
教師なしドメイン適応(UDA)設定において,視覚的タスク関係を符号化してモデル性能を向上させる手法を提案する。
本稿では,意味的および深さ的予測のタスク依存性を符号化する新しいクロスタスク関係層(ctrl)を提案する。
さらに、セマンティック擬似ラベルを利用してターゲットドメインを監督する反復自己学習(ISL)トレーニングスキームを提案する。
論文 参考訳(メタデータ) (2021-05-17T13:42:09Z) - Improving Few-Shot Learning with Auxiliary Self-Supervised Pretext Tasks [0.0]
最近の少数ショット学習の研究は、学習された表現の質が少数ショット分類のパフォーマンスにおいて重要な役割を果たしていることを示しています。
一方,自己教師付き学習の目標は,クラスラベルを使わずにデータの有用な意味情報を復元することである。
我々は,最近の自己教師あり手法を補助タスクとして利用するマルチタスクフレームワークを用いて,両パラダイムの相補性を活用する。
論文 参考訳(メタデータ) (2021-01-24T23:21:43Z) - Adversarial Continual Learning [99.56738010842301]
本稿では,タスク不変およびタスク特化機能に対する不整合表現を学習するハイブリッド連続学習フレームワークを提案する。
本モデルでは,タスク固有のスキルの忘れを防止するためにアーキテクチャの成長と,共有スキルを維持するための経験的リプレイアプローチを組み合わせる。
論文 参考訳(メタデータ) (2020-03-21T02:08:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。