論文の概要: Adaptive Temporal Refinement: Continuous Depth Allocation and Distance Regression for Efficient Action Localization
- arxiv url: http://arxiv.org/abs/2511.03943v1
- Date: Thu, 06 Nov 2025 00:41:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.252427
- Title: Adaptive Temporal Refinement: Continuous Depth Allocation and Distance Regression for Efficient Action Localization
- Title(参考訳): アダプティブ・テンポラル・リファインメント(Adaptive Temporal Refinement) : 効果的な行動局所化のための連続深度アロケーションと距離回帰
- Authors: Ibne Farabi Shihab, Sanjeda Akter, Anuj Sharma,
- Abstract要約: 時間的行動の局所化には正確な境界検出が必要である。
境界距離回帰(BDR)は、情報理論的に最適な位置決めを提供する。
Adaptive Temporal Refinement (ATR)は、連続的な深さ選択による計算を割り当てる。
- 参考スコア(独自算出の注目度): 6.908972852063454
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Temporal action localization requires precise boundary detection; however, current methods apply uniform computation despite significant variations in difficulty across boundaries. We present two complementary contributions. First, Boundary Distance Regression (BDR) provides information-theoretically optimal localization through signed-distance regression rather than classification, achieving 43\% sharper boundary peaks. BDR retrofits to existing methods with approximately 50 lines of code, yielding consistent 1.8 to 3.1\% mAP@0.7 improvements across diverse architectures. Second, Adaptive Temporal Refinement (ATR) allocates computation via continuous depth selection $\tau \in [0,1]$, enabling end-to-end differentiable optimization without reinforcement learning. On THUMOS14, ATR achieves 56.5\% mAP@0.7 at 162G FLOPs, compared to 53.6\% at 198G for uniform processing, providing a 2.9\% improvement with 18\% less compute. Gains scale with boundary heterogeneity, showing 4.2\% improvement on short actions. Training cost is mitigated via knowledge distillation, with lightweight students retaining 99\% performance at baseline cost. Results are validated across four benchmarks with rigorous statistical testing.
- Abstract(参考訳): 時間的行動ローカライゼーションは正確な境界検出を必要とするが、現在の手法では境界を越えた難易度が異なるにもかかわらず一様計算を適用する。
我々は2つの補完的な貢献をする。
第一に、境界距離回帰(BDR)は、分類よりも符号付き距離回帰による情報理論的に最適な局所化を提供し、43\%のシャープな境界ピークを達成する。
BDRは約50行のコードを持つ既存のメソッドに適合し、様々なアーキテクチャで1.8から3.1\%のmAP@0.7の改善をもたらす。
第二に、Adaptive Temporal Refinement (ATR) は、連続深さ選択による計算を$\tau \in [0,1]$で割り当て、強化学習なしでエンドツーエンドで微分可能な最適化を可能にする。
THUMOS14では、ATRは162G FLOPsで56.5\% mAP@0.7、均一処理で53.6\%、計算で2.9\%、計算で18\%である。
利得は境界の不均一性によりスケールし、短い作用では4.2\%の改善を示す。
訓練費は知識蒸留によって軽減され、軽量の学生はベースラインのコストで99 %のパフォーマンスを維持している。
結果は厳密な統計テストを伴う4つのベンチマークで検証される。
関連論文リスト
- EDFFDNet: Towards Accurate and Efficient Unsupervised Multi-Grid Image Registration [17.190325630307097]
本稿では指数デカイ基底関数を用いた自由形変形を用いた指数デカイ自由形変形ネットワーク(EDFFDNet)を提案する。
密接な相互作用をスパースなものにすることで、ASMAはパラメータを減らし、精度を向上させる。
EDFFDNetは、パラメータ、メモリ、総ランタイムをそれぞれ70.5%、32.6%、33.7%削減することを示した。
EDFFDNet-2はより少ない計算コストを維持しながらPSNRを1.06dB改善する。
論文 参考訳(メタデータ) (2025-09-09T12:30:51Z) - SGAD: Semantic and Geometric-aware Descriptor for Local Feature Matching [16.683203139962153]
本稿では,領域ベースのマッチングを根本的に再考するSemantic and Geometric-aware Descriptor Network (SGAD)を紹介する。
SGADは、複雑なグラフの最適化なしに直接マッチングを可能にする、高度に識別可能な領域記述子を生成する。
我々は、領域マッチングタスクを分類とランク付けサブタスクに分解する新しい監督戦略により、領域マッチングの性能をさらに改善する。
論文 参考訳(メタデータ) (2025-08-04T10:46:53Z) - Learning Adaptive Parallel Reasoning with Language Models [70.1745752819628]
本稿では,適応並列推論(Adaptive Parallel Reasoning, APR)を提案する。
APRは、spawn()とjoin()操作を使用して適応的なマルチスレッド推論を可能にすることで、既存の推論メソッドを一般化する。
鍵となる革新は、親と子の両方の推論スレッドを最適化して、事前に定義された推論構造を必要とせずにタスクの成功率を高める、エンドツーエンドの強化学習戦略である。
論文 参考訳(メタデータ) (2025-04-21T22:29:02Z) - AdaGC: Improving Training Stability for Large Language Model Pretraining [18.163318397205533]
大きなLanguageText Models(LLM)は、スケーリング中に損失の急増に直面します。
グローバルなクリッピングがこれを緩和する一方で、従来のアプローチは特定のバリエーションを緩和する。
我々は,AdaGCがグローバルクリッピングよりも25%早く収束していることを示す。
論文 参考訳(メタデータ) (2025-02-16T08:13:23Z) - Integral Continual Learning Along the Tangent Vector Field of Tasks [112.02761912526734]
本稿では,特殊データセットからの情報を段階的に組み込んだ軽量連続学習手法を提案する。
ソースデータセットの0.4%まで小さく、小さな固定サイズのメモリバッファを保持しており、単純な再サンプリングによって更新される。
提案手法は,異なるデータセットに対して,様々なバッファサイズで高い性能を実現する。
論文 参考訳(メタデータ) (2022-11-23T16:49:26Z) - Non-Parametric Adaptive Network Pruning [125.4414216272874]
アルゴリズム設計を簡略化するノンパラメトリックモデリングを導入。
顔認識コミュニティに触発されて,メッセージパッシングアルゴリズムを用いて,適応的な例示数を求める。
EPrunerは「重要」フィルタを決定する際にトレーニングデータへの依存を壊します。
論文 参考訳(メタデータ) (2021-01-20T06:18:38Z) - Second-Order Provable Defenses against Adversarial Attacks [63.34032156196848]
ネットワークの固有値が有界であれば、凸最適化を用いて$l$ノルムの証明を効率的に計算できることを示す。
認証精度は5.78%,44.96%,43.19%であった。
論文 参考訳(メタデータ) (2020-06-01T05:55:18Z) - ScopeFlow: Dynamic Scene Scoping for Optical Flow [94.42139459221784]
我々は,光流の一般的なトレーニングプロトコルを変更することを提案する。
この改善は、挑戦的なデータをサンプリングする際のバイアスを観察することに基づいている。
トレーニングプロトコルでは,正規化と拡張の双方が減少することが判明した。
論文 参考訳(メタデータ) (2020-02-25T09:58:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。