論文の概要: Efficient Multitask Dense Predictor via Binarization
- arxiv url: http://arxiv.org/abs/2405.14136v1
- Date: Thu, 23 May 2024 03:19:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-24 19:05:09.725090
- Title: Efficient Multitask Dense Predictor via Binarization
- Title(参考訳): 二元化による効率的なマルチタスク距離予測器
- Authors: Yuzhang Shang, Dan Xu, Gaowen Liu, Ramana Rao Kompella, Yan Yan,
- Abstract要約: 資源集約型マルチタスク密度予測器を圧縮するために,ネットワークバイナライゼーションを導入する。
両立マルチタスクDense Predictor, Bi-MTDP, およびいくつかの種類のBi-MTDPを提案する。
Bi-MTDPの1つの変種は、フル精度(FP)マルチタスク密度予測SoTA、ARTC(CNNベース)、InvPT(ViTベース)より優れている
- 参考スコア(独自算出の注目度): 19.5100813204537
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-task learning for dense prediction has emerged as a pivotal area in computer vision, enabling simultaneous processing of diverse yet interrelated pixel-wise prediction tasks. However, the substantial computational demands of state-of-the-art (SoTA) models often limit their widespread deployment. This paper addresses this challenge by introducing network binarization to compress resource-intensive multi-task dense predictors. Specifically, our goal is to significantly accelerate multi-task dense prediction models via Binary Neural Networks (BNNs) while maintaining and even improving model performance at the same time. To reach this goal, we propose a Binary Multi-task Dense Predictor, Bi-MTDP, and several variants of Bi-MTDP, in which a multi-task dense predictor is constructed via specified binarized modules. Our systematical analysis of this predictor reveals that performance drop from binarization is primarily caused by severe information degradation. To address this issue, we introduce a deep information bottleneck layer that enforces representations for downstream tasks satisfying Gaussian distribution in forward propagation. Moreover, we introduce a knowledge distillation mechanism to correct the direction of information flow in backward propagation. Intriguingly, one variant of Bi-MTDP outperforms full-precision (FP) multi-task dense prediction SoTAs, ARTC (CNN-based) and InvPT (ViT-Based). This result indicates that Bi-MTDP is not merely a naive trade-off between performance and efficiency, but is rather a benefit of the redundant information flow thanks to the multi-task architecture. Code is available at https://github.com/42Shawn/BiMTDP.
- Abstract(参考訳): 濃密な予測のためのマルチタスク学習は、コンピュータビジョンにおいて重要な領域として現れ、多様な画素間関係の予測タスクの同時処理を可能にしている。
しかし、最先端モデル(SoTA)のかなりの計算要求は、しばしばその広範な展開を制限する。
本稿では,資源集約型マルチタスク密度予測器を圧縮するネットワークバイナライゼーションを導入することで,この問題に対処する。
具体的には、BNN(Binary Neural Networks)を介してマルチタスクの高密度予測モデルを大幅に高速化し、同時にモデル性能を維持・改善することを目的としている。
この目標を達成するために,Binary Multi-task Dense Predictor, Bi-MTDP, and severalvariants of Bi-MTDP, which which a multi-task dense predictor are constructed via specific binarized module。
この予測器の系統的解析により,バイナライゼーションによる性能低下は主に情報劣化が原因であることが判明した。
この問題に対処するために,ガウス分布を満たす下流タスクの表現を前方伝播で強制する情報ボトルネック層を導入する。
さらに,後方伝播における情報流の方向を補正する知識蒸留機構を導入する。
興味深いことに、Bi-MTDPの1つの変種はフル精度(FP)マルチタスク密度予測SoTA、ARTC(CNNベース)、InvPT(ViTベース)を上回っている。
この結果から, Bi-MTDP は単に性能と効率の単純なトレードオフであるだけでなく,マルチタスクアーキテクチャによる冗長な情報フローの利点であることが示唆された。
コードはhttps://github.com/42Shawn/BiMTDPで入手できる。
関連論文リスト
- The Binary Quantized Neural Network for Dense Prediction via Specially Designed Upsampling and Attention [6.659719111319061]
単一予測タスクから高密度予測タスクへバイナリニューラルネットワーク(BNN)の成功を伝達するための効果的なアップサンプリング手法と効率的な注意計算手法を提案する。
我々の注意法は計算の複雑さを100倍に削減できるが、元の効果は維持できる。
論文 参考訳(メタデータ) (2024-05-28T03:12:33Z) - BiPFT: Binary Pre-trained Foundation Transformer with Low-rank Estimation of Binarization Residual Polynomials [27.573329030086676]
本研究では,自然言語理解(NLU)タスクのためのBiPFT(Bibinary Pretrained Foundation Transformer)を提案する。
BiPFTはバイナリニューラルネットワーク(BNN)の学習能力を大幅に向上させる
大規模な実験により、GLUEベンチマークでタスク固有のベースラインを平均15.4%上回るBiPFTの有効性が検証された。
論文 参考訳(メタデータ) (2023-12-14T13:42:57Z) - ULTRA-DP: Unifying Graph Pre-training with Multi-task Graph Dual Prompt [67.8934749027315]
本稿では,タスク識別と位置識別をGNNに注入する,グラフハイブリッド事前学習のための統合フレームワークを提案する。
また,約$k$-nearest隣人のグループに基づいた,新しい事前学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-23T12:11:13Z) - ComPtr: Towards Diverse Bi-source Dense Prediction Tasks via A Simple
yet General Complementary Transformer [91.43066633305662]
本稿では,多種多様な二ソース密度予測タスクのためのアンダーラインComPlementaryアンダーライン変換器textbfComPtrを提案する。
ComPtrは異なる入力を等しく扱い、変換器上にシーケンス・ツー・シーケンスの形で効率的な密な相互作用モデルを構築する。
論文 参考訳(メタデータ) (2023-07-23T15:17:45Z) - DBT-DMAE: An Effective Multivariate Time Series Pre-Train Model under
Missing Data [16.589715330897906]
MTSはデータ不足に悩まされ、下流のタスクが劣化または崩壊する。
本稿では,MTSプレトレインモデルについて述べる。
-DMAE、上記の障害を克服する。
論文 参考訳(メタデータ) (2022-09-16T08:54:02Z) - A Compacted Structure for Cross-domain learning on Monocular Depth and
Flow Estimation [31.671655267992683]
本稿では,フロー・トゥ・深さ(F2D),深さ・フロー(D2F),指数移動平均(EMA)による相互支援を実現するマルチタスク方式を提案する。
二重ヘッド機構は, 剛性および非剛性運動の光学的流れを分割・コンカレントな方法で予測するために用いられる。
KITTIデータセットの実験により、我々のマルチタスクスキームは他のマルチタスクスキームよりも優れていることが示された。
論文 参考訳(メタデータ) (2022-08-25T10:46:29Z) - Semantics-Depth-Symbiosis: Deeply Coupled Semi-Supervised Learning of
Semantics and Depth [83.94528876742096]
我々は,意味的セグメンテーションと深さ推定という2つの密なタスクのMTL問題に取り組み,クロスチャネル注意モジュール(CCAM)と呼ばれる新しいアテンションモジュールを提案する。
次に,AffineMixと呼ばれる予測深度を用いた意味分節タスクのための新しいデータ拡張と,ColorAugと呼ばれる予測セマンティクスを用いた単純な深度増分を定式化する。
最後に,提案手法の性能向上をCityscapesデータセットで検証し,深度と意味に基づく半教師付きジョイントモデルにおける最先端結果の実現を支援する。
論文 参考訳(メタデータ) (2022-06-21T17:40:55Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z) - Multi-Task Learning for Dense Prediction Tasks: A Survey [87.66280582034838]
マルチタスク学習(MTL)技術は、性能、計算、メモリフットプリントに関する有望な結果を示している。
我々は、コンピュータビジョンにおけるMLLのための最先端のディープラーニングアプローチについて、よく理解された視点を提供する。
論文 参考訳(メタデータ) (2020-04-28T09:15:50Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。