論文の概要: LLA-FLOW: A Lightweight Local Aggregation on Cost Volume for Optical
Flow Estimation
- arxiv url: http://arxiv.org/abs/2304.08101v2
- Date: Tue, 18 Jul 2023 07:00:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-19 18:56:35.019032
- Title: LLA-FLOW: A Lightweight Local Aggregation on Cost Volume for Optical
Flow Estimation
- Title(参考訳): lla-flow:光フロー推定のためのコストボリュームに関する軽量局所集計
- Authors: Jiawei Xu, Zongqing Lu, Qingmin Liao
- Abstract要約: いくつかの手法は、ネットワークが推定にコストボリュームのグローバル情報を使用することを可能にする、スタック化されたトランスフォーマーモジュールを挿入する。
しかし、グローバルな情報集約は、トレーニングと推論の間に深刻なメモリと時間コストを引き起こし、モデルデプロイメントを妨げます。
我々は、従来の地域制約からインスピレーションを得て、ローカル類似度集約(LSA)とシフトローカル類似度集約(SLSA)を設計する。
Sintelの最終パスの実験は、競争性能を維持しながら、我々のアプローチに必要なコストが低いことを示している。
- 参考スコア(独自算出の注目度): 35.922073542578055
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Lack of texture often causes ambiguity in matching, and handling this issue
is an important challenge in optical flow estimation. Some methods insert
stacked transformer modules that allow the network to use global information of
cost volume for estimation. But the global information aggregation often incurs
serious memory and time costs during training and inference, which hinders
model deployment. We draw inspiration from the traditional local region
constraint and design the local similarity aggregation (LSA) and the shifted
local similarity aggregation (SLSA). The aggregation for cost volume is
implemented with lightweight modules that act on the feature maps. Experiments
on the final pass of Sintel show the lower cost required for our approach while
maintaining competitive performance.
- Abstract(参考訳): テクスチャの欠如はしばしばマッチングの曖昧さを引き起こし、この問題に対処することが光フロー推定の重要な課題である。
いくつかの方法はスタック化されたトランスフォーマーモジュールを挿入し、ネットワークが見積もりにコストボリュームのグローバル情報を使用することを可能にする。
しかし、グローバルな情報集約は、トレーニングと推論の間に深刻なメモリと時間コストを引き起こし、モデルデプロイメントを妨げます。
従来の地域制約からインスピレーションを得て,地域類似度集約(LSA)と地域類似度集約(SLSA)を設計する。
コストボリュームの集約は、機能マップに作用する軽量モジュールで実装される。
Sintelの最終パスの実験は、競争性能を維持しながら、我々のアプローチに必要なコストが低いことを示している。
関連論文リスト
- Can We Theoretically Quantify the Impacts of Local Updates on the Generalization Performance of Federated Learning? [50.03434441234569]
フェデレートラーニング(FL)は、直接データ共有を必要とせず、さまざまなサイトで機械学習モデルをトレーニングする効果により、大きな人気を集めている。
局所的な更新を伴うFLは通信効率のよい分散学習フレームワークであることが様々なアルゴリズムによって示されているが、局所的な更新によるFLの一般化性能は比較的低い。
論文 参考訳(メタデータ) (2024-09-05T19:00:18Z) - FedHPL: Efficient Heterogeneous Federated Learning with Prompt Tuning and Logit Distillation [32.305134875959226]
フェデレートラーニング(FL)は、分散クライアントが中央サーバーでモデルを協調訓練できるプライバシー保護パラダイムである。
我々はパラメータ効率の高い$textbfFed$erated Learning framework for $textbfH$eterogeneous settingsを提案する。
我々のフレームワークは最先端のFLアプローチより優れており、オーバーヘッドもトレーニングラウンドも少なくなっている。
論文 参考訳(メタデータ) (2024-05-27T15:25:32Z) - LW-FedSSL: Resource-efficient Layer-wise Federated Self-supervised Learning [14.413037571286564]
LW-FedSSLは、エッジデバイスが一度にモデルの単一レイヤをインクリメンタルにトレーニングできる、レイヤワイドな自己教師型学習アプローチである。
我々は,LW-FedSSLが従来のフェデレーション型自己教師型学習(FedSSL)と同等のパフォーマンスを実現するために,サーバ側の校正と表現アライメント機構を導入する。
提案されたメカニズムにより、LW-FedSSLはメモリ使用量の3.3倍の削減、2.1倍の少ない計算処理(FLOP)、3.2倍の通信コストを達成する。
論文 参考訳(メタデータ) (2024-01-22T01:57:31Z) - Go beyond End-to-End Training: Boosting Greedy Local Learning with
Context Supply [0.12187048691454236]
ゆるやかなローカル学習は、ネットワークを勾配に分離したモジュールに分割し、局所的な予備的損失に基づいて監督的に訓練する。
勾配分離モジュールのセグメンテーション数が増加するにつれて、局所学習方式の性能は大幅に低下する。
本稿では,情報損失を補うために,分離モジュール間のコンテキスト供給を組み込んだContSupスキームを提案する。
論文 参考訳(メタデータ) (2023-12-12T10:25:31Z) - TFMQ-DM: Temporal Feature Maintenance Quantization for Diffusion Models [52.454274602380124]
拡散モデルは非常に時間ステップ$t$に大きく依存し、良好なマルチラウンドデノジングを実現している。
本稿では,時間情報ブロック上に構築した時間的特徴保守量子化(TFMQ)フレームワークを提案する。
先駆的なブロック設計により、時間情報認識再構成(TIAR)と有限集合キャリブレーション(FSC)を考案し、完全な時間的特徴を整列させる。
論文 参考訳(メタデータ) (2023-11-27T12:59:52Z) - FedSpeed: Larger Local Interval, Less Communication Round, and Higher
Generalization Accuracy [84.45004766136663]
フェデレートラーニング(Federated Learning)は、分散機械学習フレームワークである。
これは、局所的不整合最適と局所的過度な適合による頑丈なクライアントドリフトによってもたらされる非消滅バイアスに悩まされる。
本稿では,これらの問題による負の影響を軽減するために,新しい実用的手法であるFedSpeedを提案する。
論文 参考訳(メタデータ) (2023-02-21T03:55:29Z) - $\texttt{FedBC}$: Calibrating Global and Local Models via Federated
Learning Beyond Consensus [66.62731854746856]
フェデレートラーニング(FL)では、デバイス全体にわたるモデル更新の集約を通じて、グローバルモデルを協調的に学習する目的は、ローカル情報を通じたパーソナライズという目標に反対する傾向にある。
本研究では,このトレードオフを多基準最適化により定量的にキャリブレーションする。
私たちは、$texttFedBC$が、スイートデータセット間でグローバルおよびローカルモデルのテスト精度のメトリクスのバランスをとることを実証しています。
論文 参考訳(メタデータ) (2022-06-22T02:42:04Z) - Achieving Personalized Federated Learning with Sparse Local Models [75.76854544460981]
フェデレートラーニング(FL)は異種分散データに対して脆弱である。
この問題に対処するため、個人ごとに専用のローカルモデルを作成するためにパーソナライズされたFL(PFL)が提案された。
既存のPFLソリューションは、異なるモデルアーキテクチャに対する不満足な一般化を示すか、あるいは膨大な余分な計算とメモリを犠牲にするかのどちらかである。
我々は、パーソナライズされたスパースマスクを用いて、エッジ上のスパースローカルモデルをカスタマイズする新しいPFLスキームFedSpaを提案する。
論文 参考訳(メタデータ) (2022-01-27T08:43:11Z) - DCVNet: Dilated Cost Volume Networks for Fast Optical Flow [5.526631378837701]
コストボリュームは、2つの入力画像間での対応の類似性を捉え、最先端の光学的流れのアプローチにおいて重要な要素である。
そこで本研究では,小型・大規模の変位を同時に捉えるために,異なる拡張係数を持つコストボリュームを構築する方法を提案する。
スキップ接続を有するU-Netを用いて、拡張コストのボリュームを、光学的フローを得るために、可能なすべての変位の間の重みに変換する。
論文 参考訳(メタデータ) (2021-03-31T17:59:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。