論文の概要: Task-oriented Learnable Diffusion Timesteps for Universal Few-shot Learning of Dense Tasks
- arxiv url: http://arxiv.org/abs/2512.23210v2
- Date: Wed, 31 Dec 2025 21:09:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-05 13:15:27.666466
- Title: Task-oriented Learnable Diffusion Timesteps for Universal Few-shot Learning of Dense Tasks
- Title(参考訳): 難易度学習のためのタスク指向学習可能拡散時間
- Authors: Changgyoon Oh, Jongoh Jeong, Jegyeong Cho, Kuk-Jin Yoon,
- Abstract要約: 現在の拡散モデルに基づくアプリケーションは、マルチステップ前方のマルコフ過程から学習された視覚表現のパワーを単一タスク予測タスクに利用している。
本稿では,タスク認識型タイムステップ選択(TTS)と,その選択したタイムステップ機能を統合するTFC(Timestep Feature Consolidation)の2つのモジュールを提案する。
本フレームワークは,少数のサポートクエリのみを考慮すれば,高密度な予測性能を効果的に実現している。
- 参考スコア(独自算出の注目度): 48.86985692711283
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Denoising diffusion probabilistic models have brought tremendous advances in generative tasks, achieving state-of-the-art performance thus far. Current diffusion model-based applications exploit the power of learned visual representations from multistep forward-backward Markovian processes for single-task prediction tasks by attaching a task-specific decoder. However, the heuristic selection of diffusion timestep features still heavily relies on empirical intuition, often leading to sub-optimal performance biased towards certain tasks. To alleviate this constraint, we investigate the significance of versatile diffusion timestep features by adaptively selecting timesteps best suited for the few-shot dense prediction task, evaluated on an arbitrary unseen task. To this end, we propose two modules: Task-aware Timestep Selection (TTS) to select ideal diffusion timesteps based on timestep-wise losses and similarity scores, and Timestep Feature Consolidation (TFC) to consolidate the selected timestep features to improve the dense predictive performance in a few-shot setting. Accompanied by our parameter-efficient fine-tuning adapter, our framework effectively achieves superiority in dense prediction performance given only a few support queries. We empirically validate our learnable timestep consolidation method on the large-scale challenging Taskonomy dataset for dense prediction, particularly for practical universal and few-shot learning scenarios.
- Abstract(参考訳): 拡散確率モデルのデノイングは生成タスクに大きな進歩をもたらし、これまでのところ最先端のパフォーマンスを実現している。
現在の拡散モデルに基づくアプリケーションは、タスク固有のデコーダをアタッチすることで、マルチステップ前方マルコフ過程から学習した視覚表現のパワーをシングルタスク予測タスクに活用する。
しかし、拡散時間ステップの特徴のヒューリスティックな選択は、まだ経験的な直観に大きく依存しており、しばしば特定のタスクに偏った準最適性能をもたらす。
この制約を緩和するために、任意の未確認タスクで評価された数発の高密度予測タスクに適した時間ステップを適応的に選択することで、多目的拡散時間ステップ機能の重要性について検討する。
そこで本研究では,TTS(Task-Aware Timestep Selection)とTFC(Timestep Feature Consolidation)の2つのモジュールを提案する。
パラメータ効率のよい微調整アダプタを併用した本フレームワークは,少数のサポートクエリのみを考慮し,高密度な予測性能を効果的に実現している。
本研究では,大規模課題であるタスクノミクスデータセット上で学習可能な時間ステップ統合手法を実証的に検証し,特に実践的普遍的および少数ショット学習シナリオを対象として検討した。
関連論文リスト
- Multi-Scale Finetuning for Encoder-based Time Series Foundation Models [67.95907033226585]
時系列基礎モデル (TSFM) は, 時系列予測において印象的なゼロショット性能を示す。
直感的な微調整はパフォーマンスの向上をもたらすが、TSFMの能力を完全に活用するには不十分である、と我々は主張する。
マルチスケール・ファインタニング(MSFT)は,マルチスケール・モデリングをファインタニング・プロセスに明示的に統合する,シンプルながら汎用的なフレームワークである。
論文 参考訳(メタデータ) (2025-06-17T01:06:01Z) - Task-Agnostic Pre-training and Task-Guided Fine-tuning for Versatile Diffusion Planner [12.360598915420255]
拡散モデルはマルチタスクの軌跡をモデル化する能力を示した。
既存のマルチタスクプランナやポリシーは、通常、マルチタスクの模倣によるタスク固有のデモンストレーションや、タスク固有の報酬ラベルを必要とする。
本稿では,タスク非依存の準最適軌道を含む大規模劣等データを活用する多目的拡散プランナを提案する。
論文 参考訳(メタデータ) (2024-09-30T05:05:37Z) - Spurious Feature Eraser: Stabilizing Test-Time Adaptation for Vision-Language Foundation Model [86.9619638550683]
視覚言語基礎モデルは、画像とテキストのペアデータに拡張性があるため、多数の下流タスクで顕著な成功を収めている。
しかし、これらのモデルは、決定ショートカットの結果、きめ細かな画像分類などの下流タスクに適用した場合に重大な制限を呈する」。
論文 参考訳(メタデータ) (2024-03-01T09:01:53Z) - Distillation Enhanced Time Series Forecasting Network with Momentum Contrastive Learning [7.4106801792345705]
長周期時系列予測のための革新的蒸留強化フレームワークであるDE-TSMCLを提案する。
具体的には、タイムスタンプをマスクするかどうかを適応的に学習する学習可能なデータ拡張機構を設計する。
そこで本研究では,時系列のサンプル間および時間内相関を探索するために,モーメントを更新したコントラスト学習タスクを提案する。
複数のタスクからモデル損失を発生させることで、下流予測タスクの効果的な表現を学習することができる。
論文 参考訳(メタデータ) (2024-01-31T12:52:10Z) - Temporally Correlated Task Scheduling for Sequence Learning [143.70523777803723]
多くのアプリケーションにおいて、シーケンス学習タスクは通常、複数の時間的に相関した補助タスクと関連付けられている。
シーケンス学習に学習可能なスケジューラを導入し、トレーニングのための補助的なタスクを適応的に選択できる。
本手法は,同時翻訳とストックトレンド予測の性能を著しく向上させる。
論文 参考訳(メタデータ) (2020-07-10T10:28:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。