論文の概要: What Makes RAFT Better Than PWC-Net?
- arxiv url: http://arxiv.org/abs/2203.10712v1
- Date: Mon, 21 Mar 2022 03:15:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-23 04:30:04.333576
- Title: What Makes RAFT Better Than PWC-Net?
- Title(参考訳): RAFTがPWC-Netより優れている理由
- Authors: Deqing Sun, Charles Herrmann, Fitsum Reda, Michael Rubinstein, David
Fleet, William T. Freeman
- Abstract要約: 我々は、PWC-Net、IRR-PWC、RAFTの3つの著名なモデルを再検討する。
新たにトレーニングしたPWC-NetとIRR-PWCモデルは、SintelとKITTI 2015ベンチマークで発表された結果に比べて30%も大きく改善されている。
- 参考スコア(独自算出の注目度): 42.05993438897019
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: How important are training details and datasets to recent optical flow models
like RAFT? And do they generalize? To explore these questions, rather than
develop a new model, we revisit three prominent models, PWC-Net, IRR-PWC and
RAFT, with a common set of modern training techniques and datasets, and observe
significant performance gains, demonstrating the importance and generality of
these training details. Our newly trained PWC-Net and IRR-PWC models show
surprisingly large improvements, up to 30% versus original published results on
Sintel and KITTI 2015 benchmarks. They outperform the more recent Flow1D on
KITTI 2015 while being 3x faster during inference. Our newly trained RAFT
achieves an Fl-all score of 4.31% on KITTI 2015, more accurate than all
published optical flow methods at the time of writing. Our results demonstrate
the benefits of separating the contributions of models, training techniques and
datasets when analyzing performance gains of optical flow methods. Our source
code will be publicly available.
- Abstract(参考訳): RAFTのような最近の光学フローモデルに対するトレーニングの詳細とデータセットはどの程度重要か?
一般化するのか?
新たなモデルを開発する代わりに,PWC-Net,IRR-PWC,RAFTの3つの著名なモデルを,現代的なトレーニング手法とデータセットの共通セットで再検討し,これらのトレーニングの詳細の重要性と汎用性を実証した。
新たにトレーニングしたPWC-NetとIRR-PWCモデルは、SintelとKITTI 2015ベンチマークで発表された結果に比べて30%も大きく改善されている。
彼らは最新のFlow1DをKITTI 2015で上回り、推論では3倍高速になった。
新たにトレーニングしたRAFTは、KITTI 2015でFl-allスコアが4.31%に達した。
本結果は,光学フロー法の性能向上を解析する際に,モデル,トレーニング手法,データセットの寄与を分離する利点を示す。
ソースコードは公開される予定だ。
関連論文リスト
- A Critical Evaluation of AI Feedback for Aligning Large Language Models [60.42291111149438]
教師が既存のRLAIFパイプラインより優れていることを示す。
より一般的には、RLAIFの利得は、ベースモデルファミリ、テスト時間評価プロトコル、批判モデルによって大きく異なることが分かる。
論文 参考訳(メタデータ) (2024-02-19T18:53:54Z) - Continual Learning with Pre-Trained Models: A Survey [66.49084129482239]
継続的な学習は、新しい知識を学ぶ際に、かつての知識の破滅的な忘れを克服することを目的としている。
本稿では, PTM を用いた CL の最近の進歩を包括的に調査する。
論文 参考訳(メタデータ) (2024-01-29T18:27:52Z) - Effective pruning of web-scale datasets based on complexity of concept
clusters [48.125618324485195]
本稿では,大規模なマルチモーダルデータセットを抽出し,イメージネット上でCLIPスタイルのモデルを訓練する手法を提案する。
高品質なデータのより小さなセットでのトレーニングは、トレーニングコストを大幅に削減して、より高いパフォーマンスをもたらす可能性があることに気付きました。
我々は38の評価タスクにおいて、新しい最先端のImagehttps://info.arxiv.org/help/prep#commentsネットゼロショット精度と競合平均ゼロショット精度を実現する。
論文 参考訳(メタデータ) (2024-01-09T14:32:24Z) - Fair Coresets via Optimal Transport [12.501454853876556]
サンプルレベルの重みとともに,適切な合成代表サンプルを生成する新しいコアセット手法を提案する。
我々は、FWCの制約のないバージョンが、k-メディアンやk-平均クラスタリングのためのロイドのアルゴリズムと等価であることを示す。
合成データセットと実データセットの両方で実施された実験により、FWCは下流モデルにおける競合フェアネス・パフォーマンスのトレードオフを達成することが示された。
論文 参考訳(メタデータ) (2023-11-09T15:21:56Z) - Correlated Time Series Self-Supervised Representation Learning via
Spatiotemporal Bootstrapping [13.988624652592259]
時系列分析は多くの実業界で重要な役割を担っている。
本稿では,個別インスタンスを対象とした時間段階表現学習フレームワークを提案する。
学習した表現の上に訓練された線形回帰モデルにより、ほとんどの場合、我々のモデルは最高のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-12T09:42:16Z) - Predicting Software Performance with Divide-and-Learn [3.635696352780227]
本稿では,DALと呼ばれる「分枝学習」の概念に基づくアプローチを提案する。
実世界の8つのシステムと5つのトレーニングデータによる実験結果から、DaLは40件中33件で最高のシステムよりもパフォーマンスが劣っていることが判明した。
論文 参考訳(メタデータ) (2023-06-11T11:16:27Z) - Foundational Models for Continual Learning: An Empirical Study of Latent
Replay [17.322679682451597]
本稿では,下流の連続学習シナリオの基礎として,事前学習型視覚モデルの有効性について検討する。
大規模ベンチマークシナリオにおける各種事前学習モデルの有効性を,潜時および生データ空間におけるバニラ再生設定と比較した。
論文 参考訳(メタデータ) (2022-04-30T19:11:37Z) - Learning by Distillation: A Self-Supervised Learning Framework for
Optical Flow Estimation [71.76008290101214]
DistillFlowは光の流れを学ぶための知識蒸留手法である。
KITTIとSintelの両方のデータセット上で、最先端の教師なし学習性能を実現する。
我々のモデルは、KITTI 2015ベンチマークにおけるすべての単分子的手法の中で、第1位にランクされ、Sintel Finalベンチマークで発表されたすべてのメソッドよりも優れています。
論文 参考訳(メタデータ) (2021-06-08T09:13:34Z) - Towards Practical Lipreading with Distilled and Efficient Models [57.41253104365274]
ニューラルネットワークの復活により、リリーディングは多くの進歩を目の当たりにした。
最近の研究は、最適なアーキテクチャを見つけるか、一般化を改善することで、パフォーマンスを改善するといった側面に重点を置いている。
現在の方法論と、実践的なシナリオにおける効果的なリップリーディングのデプロイ要件との間には、依然として大きなギャップがあります。
まず, LRW と LRW-1000 をそれぞれ 88.5% と 46.6% に比例して, 最先端の性能を高めることを提案する。
論文 参考訳(メタデータ) (2020-07-13T16:56:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。