論文の概要: Semi-Supervised Learning of Optical Flow by Flow Supervisor
- arxiv url: http://arxiv.org/abs/2207.10314v1
- Date: Thu, 21 Jul 2022 06:11:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-22 13:02:58.697183
- Title: Semi-Supervised Learning of Optical Flow by Flow Supervisor
- Title(参考訳): フロースーパーバイザによる光流れの半教師付き学習
- Authors: Woobin Im, Sebin Lee, Sung-Eui Yoon
- Abstract要約: そこで本研究では,事前学習したモデルに対して,地中真実の流れを伴わずに,目標データセットに適応するファインチューニング手法を提案する。
この設計は、従来の自己超越法よりも安定した収束と精度の向上を目的としている。
我々は,Sintel および KITTI ベンチマークにおける最先端光学フローモデルに対する有意義な改善を実現する。
- 参考スコア(独自算出の注目度): 16.406213579356795
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: A training pipeline for optical flow CNNs consists of a pretraining stage on
a synthetic dataset followed by a fine tuning stage on a target dataset.
However, obtaining ground truth flows from a target video requires a tremendous
effort. This paper proposes a practical fine tuning method to adapt a
pretrained model to a target dataset without ground truth flows, which has not
been explored extensively. Specifically, we propose a flow supervisor for
self-supervision, which consists of parameter separation and a student output
connection. This design is aimed at stable convergence and better accuracy over
conventional self-supervision methods which are unstable on the fine tuning
task. Experimental results show the effectiveness of our method compared to
different self-supervision methods for semi-supervised learning. In addition,
we achieve meaningful improvements over state-of-the-art optical flow models on
Sintel and KITTI benchmarks by exploiting additional unlabeled datasets. Code
is available at https://github.com/iwbn/flow-supervisor.
- Abstract(参考訳): 光フローCNNのトレーニングパイプラインは、合成データセットの事前訓練段階と、ターゲットデータセットの微調整段階から構成される。
しかし、ターゲットビデオから真理を得るには、多大な努力が必要だ。
本稿では,未検討の地中真理の流れを伴わずに,事前学習したモデルをターゲットデータセットに適応するための実用的な微調整法を提案する。
具体的には,パラメータ分離と学生出力接続からなる自己監督のためのフロースーパーバイザを提案する。
この設計は、微調整作業において不安定な従来の自己超越法よりも安定した収束と精度の向上を目的としている。
実験の結果, 半教師あり学習における自己超越法と比較し, 提案手法の有効性が示された。
さらに,Sintel および KITTI ベンチマークにおける最先端光学フローモデルに対する有意義な改善を実現する。
コードはhttps://github.com/iwbn/flow-supervisorで入手できる。
関連論文リスト
- Data Adaptive Traceback for Vision-Language Foundation Models in Image Classification [34.37262622415682]
我々はData Adaptive Tracebackと呼ばれる新しい適応フレームワークを提案する。
具体的には、ゼロショット法を用いて、事前学習データの最もダウンストリームなタスク関連サブセットを抽出する。
我々は、擬似ラベルに基づく半教師付き手法を採用し、事前学習画像の再利用と、半教師付き学習における確証バイアス問題に対処するための視覚言語コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2024-07-11T18:01:58Z) - Enhancing Robustness of Vision-Language Models through Orthogonality Learning and Self-Regularization [77.62516752323207]
そこで本研究では,事前訓練した重みを効率よく微調整する直交微調整法を導入し,頑健さと一般化の強化を実現した。
自己正規化戦略は、OrthSRと呼ばれるVLMのゼロショット一般化の観点から安定性を維持するためにさらに活用される。
筆者らはCLIPとCoOpを再検討し,少数の画像のクラスフィシエーションシナリオにおけるモデルの改善を効果的に行う。
論文 参考訳(メタデータ) (2024-07-11T10:35:53Z) - Learning with Noisy Foundation Models [95.50968225050012]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - FlowDA: Unsupervised Domain Adaptive Framework for Optical Flow
Estimation [6.122542233250026]
本稿では、光学的フロー推定のための教師なし領域適応(UDA)フレームワークであるFlowDAを紹介する。
FlowDAは、最先端の教師なし光フロー推定法SMURFを21.6%、実光フローデータセット生成法MPI-Flowを27.8%、光フロー推定適応法FlowSupervisorを30.9%上回る。
論文 参考訳(メタデータ) (2023-12-28T12:51:48Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Self-Distillation for Further Pre-training of Transformers [83.84227016847096]
我々は、さらなる事前学習段階の正則化として自己蒸留を提案する。
画像およびテキスト分類タスクのための様々なベンチマークデータセットにおける自己蒸留の有効性を実証的に検証する。
論文 参考訳(メタデータ) (2022-09-30T02:25:12Z) - Imposing Consistency for Optical Flow Estimation [73.53204596544472]
プロキシタスクによる一貫性の導入は、データ駆動学習を強化することが示されている。
本稿では,光フロー推定のための新しい,効果的な整合性戦略を提案する。
論文 参考訳(メタデータ) (2022-04-14T22:58:30Z) - Learning by Distillation: A Self-Supervised Learning Framework for
Optical Flow Estimation [71.76008290101214]
DistillFlowは光の流れを学ぶための知識蒸留手法である。
KITTIとSintelの両方のデータセット上で、最先端の教師なし学習性能を実現する。
我々のモデルは、KITTI 2015ベンチマークにおけるすべての単分子的手法の中で、第1位にランクされ、Sintel Finalベンチマークで発表されたすべてのメソッドよりも優れています。
論文 参考訳(メタデータ) (2021-06-08T09:13:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。