論文の概要: NexusFlow: Unifying Disparate Tasks under Partial Supervision via Invertible Flow Networks
- arxiv url: http://arxiv.org/abs/2512.06251v1
- Date: Sat, 06 Dec 2025 02:51:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.263454
- Title: NexusFlow: Unifying Disparate Tasks under Partial Supervision via Invertible Flow Networks
- Title(参考訳): NexusFlow: インバータブルフローネットワークによる部分的なスーパービジョン下での異種タスクの統合
- Authors: Fangzhou Lin, Yuping Wang, Yuliang Guo, Zixun Huang, Xinyu Huang, Haichong Zhang, Kazunori Yamada, Zhengzhong Tu, Liu Ren, Ziming Zhang,
- Abstract要約: 部分的に監督されたマルチタスク学習は、アノテーションが不完全である場合にタスク全体の知識を活用することを目的としている。
両設定に有効な、新しくて軽量で、プラグアンドプレイのフレームワークであるNexusFlowを紹介します。
筆者らはまず,高密度地図再構成とスパース多目的追跡を監督する領域分割自律運転における中核的課題について,NexusFlowを評価した。
NexusFlowはnuScenesに新たな最先端結果を設定し、強力な部分教師付きベースラインを上回っている。
- 参考スコア(独自算出の注目度): 39.702913983044425
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Partially Supervised Multi-Task Learning (PS-MTL) aims to leverage knowledge across tasks when annotations are incomplete. Existing approaches, however, have largely focused on the simpler setting of homogeneous, dense prediction tasks, leaving the more realistic challenge of learning from structurally diverse tasks unexplored. To this end, we introduce NexusFlow, a novel, lightweight, and plug-and-play framework effective in both settings. NexusFlow introduces a set of surrogate networks with invertible coupling layers to align the latent feature distributions of tasks, creating a unified representation that enables effective knowledge transfer. The coupling layers are bijective, preserving information while mapping features into a shared canonical space. This invertibility avoids representational collapse and enables alignment across structurally different tasks without reducing expressive capacity. We first evaluate NexusFlow on the core challenge of domain-partitioned autonomous driving, where dense map reconstruction and sparse multi-object tracking are supervised in different geographic regions, creating both structural disparity and a strong domain gap. NexusFlow sets a new state-of-the-art result on nuScenes, outperforming strong partially supervised baselines. To demonstrate generality, we further test NexusFlow on NYUv2 using three homogeneous dense prediction tasks, segmentation, depth, and surface normals, as a representative N-task PS-MTL scenario. NexusFlow yields consistent gains across all tasks, confirming its broad applicability.
- Abstract(参考訳): 部分教師付きマルチタスク学習(PS-MTL)は、アノテーションが不完全である場合にタスク間の知識を活用することを目的としている。
しかし、既存のアプローチは、構造的に多様なタスクから学ぶというより現実的な課題を未発見のまま残して、均質で密度の高い予測タスクのより単純な設定に主に焦点を当ててきた。
この目的のために、我々はNexusFlowを紹介します。NexusFlowは、新しい、軽量で、プラグアンドプレイのフレームワークで、両方の設定に効果的です。
NexusFlowでは,タスクの潜在的特徴分布を調整するために,非可逆結合層を備えた代理ネットワークのセットを導入し,効果的な知識伝達を可能にする統一表現を生成する。
結合層は双対的であり、情報を保存し、特徴を共有標準空間にマッピングする。
この可逆性は表現的崩壊を回避し、表現力を減らすことなく構造的に異なるタスク間のアライメントを可能にする。
筆者らはまず,高密度地図再構成とスパース多目的追跡を異なる地理的領域で管理する領域分割自律運転における中核的課題について,NexusFlowを評価した。
NexusFlowはnuScenesに新たな最先端結果を設定し、強力な部分教師付きベースラインを上回っている。
N-task PS-MTLのシナリオとして,3つの均質な密度予測タスク,セグメンテーション,深さ,表面正規化を用いて,NYUv2上でNexusFlowをさらに検証する。
NexusFlowはすべてのタスクで一貫したゲインを獲得し、その適用性を確認している。
関連論文リスト
- LiNeS: Post-training Layer Scaling Prevents Forgetting and Enhances Model Merging [80.17238673443127]
LiNeSは、微調整タスク性能を向上しつつ、事前訓練された一般化を維持するために設計されたポストトレーニング編集技術である。
LiNeSは、視覚と自然言語処理のさまざまなベンチマークにおいて、シングルタスクとマルチタスクの両方で大幅に改善されている。
論文 参考訳(メタデータ) (2024-10-22T16:26:05Z) - EgoFlowNet: Non-Rigid Scene Flow from Point Clouds with Ego-Motion Support [15.138542932078916]
本稿では,オブジェクトをベースとした抽象化を必要とせず,弱い教師付きで訓練されたポイントレベルのシーンフロー推定ネットワークを提案する。
提案手法は,エゴモーションとシーンフローの2つの並列分岐を暗黙的に駆動する二分分割マスクを推定する。
現実的なKITTIのシーンでは,地上点の存在下では,EgoFlowNetは最先端の手法よりも優れた性能を示している。
論文 参考訳(メタデータ) (2024-07-03T08:53:50Z) - NeuraLUT: Hiding Neural Network Density in Boolean Synthesizable Functions [2.7086888205833968]
Field-Programmable Gate Array (FPGA)アクセラレータは、レイテンシとリソースクリティカルなDeep Neural Network (DNN)推論タスクの処理に成功している。
本稿では、ニューロンの境界を緩和し、サブネットワーク全体を単一のLUTにマッピングすることを提案する。
提案手法は,既知の遅延クリティカルタスク,ジェットサブストラクチャタグ,古典的コンピュータビジョンタスク,MNISTを用いた桁分類で検証する。
論文 参考訳(メタデータ) (2024-02-29T16:10:21Z) - Joint Learning for Scattered Point Cloud Understanding with Hierarchical Self-Distillation [34.26170741722835]
そこで本研究では,部分点雲を高速に補正し,同定するエンド・ツー・エンドアーキテクチャを提案する。
階層型自己蒸留(HSD)は任意の階層ベースのポイントクラウドメソッドに適用できる。
論文 参考訳(メタデータ) (2023-12-28T08:51:04Z) - Multi-Level Contrastive Learning for Dense Prediction Task [59.591755258395594]
本稿では,高密度予測タスクのための領域レベルの特徴表現を効率よく学習するための,MCL(Multi-Level Contrastive Learning for Dense Prediction Task)を提案する。
本手法は, 局所化, スケールの整合性, 認識の3つの要因に動機付けられている。
提案手法は,様々なデータセットにおける最近の最先端の手法よりも有意なマージンを有する。
論文 参考訳(メタデータ) (2023-04-04T17:59:04Z) - GFlowOut: Dropout with Generative Flow Networks [76.59535235717631]
モンテカルロ・ドロップアウトは近似推論の比較的安価な方法として広く利用されている。
最近の研究は、ドロップアウトマスクを潜伏変数と見なすことができ、変動推論で推測できることを示している。
GFlowOutleveragesは、最近提案されたジェネレーティブフローネットワーク(GFlowNets)の確率的フレームワークを使用して、ドロップアウトマスク上の後部分布を学習する。
論文 参考訳(メタデータ) (2022-10-24T03:00:01Z) - Self-Supervised Arbitrary-Scale Point Clouds Upsampling via Implicit
Neural Representation [79.60988242843437]
そこで本研究では,自己監督型および倍率フレキシブルな点雲を同時にアップサンプリングする手法を提案する。
実験結果から, 自己教師あり学習に基づく手法は, 教師あり学習に基づく手法よりも, 競争力や性能が向上することが示された。
論文 参考訳(メタデータ) (2022-04-18T07:18:25Z) - Dense Residual Network: Enhancing Global Dense Feature Flow for
Character Recognition [75.4027660840568]
本稿では,すべての畳み込み層から階層的特徴をフルに活用することにより,局所的・大域的特徴フローを改善する方法について検討する。
技術的には、テキスト認識のための効率的で効果的なCNNフレームワークであるFDRN(Fast Dense Residual Network)を提案する。
論文 参考訳(メタデータ) (2020-01-23T06:55:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。