論文の概要: Graphical Residual Flows
- arxiv url: http://arxiv.org/abs/2204.11846v1
- Date: Sat, 23 Apr 2022 09:57:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-27 13:53:53.082961
- Title: Graphical Residual Flows
- Title(参考訳): グラフィカルな残留フロー
- Authors: Jacobie Mouton and Steve Kroon
- Abstract要約: この研究は、可逆的残差ネットワークに基づくグラフィカルフローであるグラフィカル残差フローを導入している。
フローに依存性情報を組み込むアプローチは、これらのフローのヤコビ行列を正確に計算できることを意味します。
- 参考スコア(独自算出の注目度): 2.8597160727750564
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graphical flows add further structure to normalizing flows by encoding
non-trivial variable dependencies. Previous graphical flow models have focused
primarily on a single flow direction: the normalizing direction for density
estimation, or the generative direction for inference. However, to use a single
flow to perform tasks in both directions, the model must exhibit stable and
efficient flow inversion. This work introduces graphical residual flows, a
graphical flow based on invertible residual networks. Our approach to
incorporating dependency information in the flow, means that we are able to
calculate the Jacobian determinant of these flows exactly. Our experiments
confirm that graphical residual flows provide stable and accurate inversion
that is also more time-efficient than alternative flows with similar task
performance. Furthermore, our model provides performance competitive with other
graphical flows for both density estimation and inference tasks.
- Abstract(参考訳): グラフィカルフローは、非自明な変数依存をエンコードすることでフローの正規化にさらに構造を追加する。
従来のグラフィカルフローモデルは, 密度推定の正規化方向, 推論の生成方向など, 単一の流れ方向に主眼を置いていた。
しかし、両方の方向でタスクを実行するために単一のフローを使用するには、モデルは安定かつ効率的なフロー反転を示す必要がある。
本研究は,可逆残差ネットワークに基づくグラフィックフローであるグラフィカル残差フローを導入する。
フローに依存性情報を組み込むアプローチは、これらのフローのヤコビ行列を正確に計算できることを意味します。
実験により, 作業性能が類似する他のフローよりも時間効率が高い, 安定かつ高精度なインバージョンが得られた。
さらに,このモデルでは,密度推定と推論タスクの両方において,他のグラフィカルフローと競合する性能を提供する。
関連論文リスト
- D-Flow: Differentiating through Flows for Controlled Generation [37.80603174399585]
フローを微分することで生成プロセスを制御するフレームワークであるD-Flowを紹介する。
我々は、ガウス確率パスで訓練された拡散/FMモデルに対して、生成過程を微分することで、データ多様体の勾配を予測できるというキーとなる観察によって、この枠組みを動機付けている。
我々は,画像と音声の逆問題や条件分子生成など,線形および非線形に制御された生成問題に対する枠組みを検証する。
論文 参考訳(メタデータ) (2024-02-21T18:56:03Z) - Guided Flows for Generative Modeling and Decision Making [55.42634941614435]
その結果,ガイドフローは条件付き画像生成やゼロショット音声合成におけるサンプル品質を著しく向上させることがわかった。
特に、我々は、拡散モデルと比較して、オフライン強化学習設定axスピードアップにおいて、まず、計画生成にフローモデルを適用する。
論文 参考訳(メタデータ) (2023-11-22T15:07:59Z) - DistractFlow: Improving Optical Flow Estimation via Realistic
Distractions and Pseudo-Labeling [49.46842536813477]
本稿では,光フロー推定モデルのトレーニングのための新しいデータ拡張手法であるDistractFlowを提案する。
2つのフレームのうちの1つを、類似したドメインを描写したイントラクタイメージと組み合わせることで、自然の物体やシーンと相反する視覚的摂動を誘発することができる。
私たちのアプローチでは、追加のアノテーションを必要とせずに、利用可能なトレーニングペアの数を大幅に増やすことができます。
論文 参考訳(メタデータ) (2023-03-24T15:42:54Z) - Flow Guidance Deformable Compensation Network for Video Frame
Interpolation [33.106776459443275]
既存の動きに基づく手法の欠点を克服するため,フローガイダンス変形補償ネットワーク(FGDCN)を提案する。
FGDCNは、フレームサンプリングプロセスをフローステップと変形ステップの2つのステップに分解する。
実験結果から,提案アルゴリズムはパラメータが少ない各種データセットに対して優れた性能を示すことがわかった。
論文 参考訳(メタデータ) (2022-11-22T09:35:14Z) - GMFlow: Learning Optical Flow via Global Matching [124.57850500778277]
光フロー推定学習のためのGMFlowフレームワークを提案する。
機能拡張のためのカスタマイズトランスフォーマー、グローバル機能マッチングのための相関層とソフトマックス層、フロー伝搬のための自己保持層である。
我々の新しいフレームワークは、挑戦的なSintelベンチマークにおいて、32項目RAFTのパフォーマンスより優れています。
論文 参考訳(メタデータ) (2021-11-26T18:59:56Z) - Generative Flows with Invertible Attentions [135.23766216657745]
生成フローモデルに対する2種類の非可逆的注意機構を導入する。
フロー特徴写像の2分割毎に注意重みと入力表現を学習するために,分割に基づく注意機構を利用する。
提案手法は, トラクタブルジャコビアン行列を用いた非可逆アテンションモジュールをフローベースモデルの任意の位置にシームレスに統合する。
論文 参考訳(メタデータ) (2021-06-07T20:43:04Z) - Self-Supervised Learning of Non-Rigid Residual Flow and Ego-Motion [63.18340058854517]
動的3次元シーンに対する非剛性残留流とエゴ運動流の連成推定によるエンドツーエンドのシーンフロー学習法を提案する。
我々は、点クラウドシーケンスの時間的一貫性性に基づいて、自己監督的な信号で教師付きフレームワークを拡張した。
論文 参考訳(メタデータ) (2020-09-22T11:39:19Z) - What Matters in Unsupervised Optical Flow [51.45112526506455]
教師なし光流における鍵成分の集合を比較し解析する。
教師なしフローモデルに対する新しい改良点を多数構築する。
本稿では,従来の最先端技術よりもはるかに優れた非教師なしフロー技術を提案する。
論文 参考訳(メタデータ) (2020-06-08T19:36:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。