論文の概要: WAFT: Warping-Alone Field Transforms for Optical Flow
- arxiv url: http://arxiv.org/abs/2506.21526v1
- Date: Thu, 26 Jun 2025 17:47:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-27 19:53:10.23003
- Title: WAFT: Warping-Alone Field Transforms for Optical Flow
- Title(参考訳): WAFT:オプティカルフローのためのウォーピング・アロン場変換
- Authors: Yihan Wang, Jia Deng,
- Abstract要約: 我々は,光流の簡易かつ効率的な方法であるウォーピング・アロン場変換(WAFT)を紹介する。
WAFTはRAFTと似ているが、コストを高解像度のワープに置き換え、メモリコストの低減を図っている。
- 参考スコア(独自算出の注目度): 30.98695432299259
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce Warping-Alone Field Transforms (WAFT), a simple and effective method for optical flow. WAFT is similar to RAFT but replaces cost volume with high-resolution warping, achieving better accuracy with lower memory cost. This design challenges the conventional wisdom that constructing cost volumes is necessary for strong performance. WAFT is a simple and flexible meta-architecture with minimal inductive biases and reliance on custom designs. Compared with existing methods, WAFT ranks 1st on Spring and KITTI benchmarks, achieves the best zero-shot generalization on KITTI, while being up to 4.1x faster than methods with similar performance. Code and model weights are available at https://github.com/princeton-vl/WAFT.
- Abstract(参考訳): 我々は,光流の簡易かつ効率的な方法であるウォーピング・アロン場変換(WAFT)を紹介する。
WAFTはRAFTと似ているが、コストを高解像度のワープに置き換え、メモリコストの低減を図っている。
この設計は、コストボリュームの構築が性能向上に不可欠であるという従来の知恵に挑戦する。
WAFTはシンプルで柔軟なメタアーキテクチャであり、最小限の帰納バイアスとカスタムデザインに依存している。
従来の方法と比較して、WAFTはSpringとKITTIのベンチマークで1位であり、KITTIで最高のゼロショットの一般化を実現しているが、同様の性能を持つメソッドよりも4.1倍高速である。
コードとモデルの重み付けはhttps://github.com/princeton-vl/WAFTで確認できる。
関連論文リスト
- Refining Salience-Aware Sparse Fine-Tuning Strategies for Language Models [14.68920095399595]
SPEFT(Sparsity-based PEFT)は、モデルの重み行列にトレーニング可能なスパース適応を導入する。
我々は、ゼロコストNASプロキシにインスパイアされたSPEFTのサリエンス指標を初めて体系的に評価した。
我々の研究は、PEFTに複雑性が不可欠であるという考えに挑戦する。
論文 参考訳(メタデータ) (2024-12-18T04:14:35Z) - Visual Fourier Prompt Tuning [63.66866445034855]
本稿では,大規模なトランスフォーマーモデルに適用するための汎用的で効果的な方法として,Visual Fourier Prompt Tuning (VFPT)法を提案する。
提案手法では,高速フーリエ変換を即時埋め込みに取り入れ,空間領域情報と周波数領域情報の両方を調和的に検討する。
提案手法は,2つのベンチマークにおいて,現状のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-11-02T18:18:35Z) - SEA-RAFT: Simple, Efficient, Accurate RAFT for Optical Flow [29.823972546363716]
よりシンプルで効率的で正確な光流用RAFTであるSEA-RAFTを紹介する。
SEA-RAFTは、3.69のエンドポイントエラー(EPE)と0.36の1ピクセルアウトレイラレート(1px)でSpringベンチマークの最先端の精度を達成する
SEA-RAFTは高い効率で既存の手法よりも少なくとも2.3倍速く動作し、競争性能を維持している。
論文 参考訳(メタデータ) (2024-05-23T17:04:04Z) - From PEFT to DEFT: Parameter Efficient Finetuning for Reducing Activation Density in Transformers [52.199303258423306]
本稿では,事前学習したモデルにおいて,高い活性化空間性を促進する新しい密度損失を提案する。
提案手法である textbfDEFT は,RoBERTa$_mathrmLarge$ で textbf44.94% ,Flan-T5$_mathrmXXL$ で textbf53.19% (エンコーダ密度) と textbf90.60% (デコーダ密度) で常に活性化密度を減少させることができる。
論文 参考訳(メタデータ) (2024-02-02T21:25:46Z) - CrAFT: Compression-Aware Fine-Tuning for Efficient Visual Task
Adaptation [3.043665249713003]
プルーニングや量子化といったポストトレーニング後の圧縮技術は、デプロイメントコストの削減に役立つ。
本稿では,ネットワーク圧縮を効果的に訓練するフレームワークCrAFTを提案する。
CrAFTアプローチは、単一のGPUで数分または数時間以内に微調整を行うため、無視可能なトレーニングオーバーヘッドを追加する。
論文 参考訳(メタデータ) (2023-05-08T07:51:40Z) - Sparse-IFT: Sparse Iso-FLOP Transformations for Maximizing Training Efficiency [1.292809267782105]
Sparse Iso-FLOP Transformations (Sparse-IFT) は密度モデルFLOPを維持しながら精度を向上させる。
本研究は,マスクトポロジ,重み,最終性能の相関性について明らかにした。
我々の知る限りでは、高密度モデルの精度を向上させるためにスパーシティの使用を実証する最初の研究である。
論文 参考訳(メタデータ) (2023-03-21T01:06:37Z) - Efficient Few-Shot Object Detection via Knowledge Inheritance [62.36414544915032]
Few-shot Object Detection (FSOD) は、未確認のタスクに少ないトレーニングサンプルで適応できるジェネリック検出器を学習することを目的としている。
計算量の増加を伴わない効率的なプレトレイン・トランスファー・フレームワーク(PTF)のベースラインを提案する。
また,予測された新しいウェイトと事前訓練されたベースウェイトとのベクトル長の不整合を軽減するために,適応長再スケーリング(ALR)戦略を提案する。
論文 参考訳(メタデータ) (2022-03-23T06:24:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。