論文の概要: RT-GAN: Recurrent Temporal GAN for Adding Lightweight Temporal
Consistency to Frame-Based Domain Translation Approaches
- arxiv url: http://arxiv.org/abs/2310.00868v1
- Date: Mon, 2 Oct 2023 03:13:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-04 23:45:26.484500
- Title: RT-GAN: Recurrent Temporal GAN for Adding Lightweight Temporal
Consistency to Frame-Based Domain Translation Approaches
- Title(参考訳): RT-GAN:フレームベースドメイン変換アプローチに軽量時間一貫性を付加するための繰り返し時間GAN
- Authors: Shawn Mathew, Saad Nadeem, Alvin C. Goh, and Arie Kaufman
- Abstract要約: 本稿では,個別のフレームベースアプローチに時間的整合性を加えるための,可変時間パラメータRT-GANを用いた軽量な解を提案する。
大腸内視鏡検査における2症例に対するアプローチの有効性について検討した。
- 参考スコア(独自算出の注目度): 3.7873597471903944
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While developing new unsupervised domain translation methods for endoscopy
videos, it is typical to start with approaches that initially work for
individual frames without temporal consistency. Once an individual-frame model
has been finalized, additional contiguous frames are added with a modified deep
learning architecture to train a new model for temporal consistency. This
transition to temporally-consistent deep learning models, however, requires
significantly more computational and memory resources for training. In this
paper, we present a lightweight solution with a tunable temporal parameter,
RT-GAN (Recurrent Temporal GAN), for adding temporal consistency to individual
frame-based approaches that reduces training requirements by a factor of 5. We
demonstrate the effectiveness of our approach on two challenging use cases in
colonoscopy: haustral fold segmentation (indicative of missed surface) and
realistic colonoscopy simulator video generation. The datasets, accompanying
code, and pretrained models will be made available at
\url{https://github.com/nadeemlab/CEP}.
- Abstract(参考訳): 内視鏡ビデオのための新しい教師なしドメイン翻訳手法を開発する一方で、最初は時間的一貫性のない個々のフレームに対して機能するアプローチから始めるのが一般的である。
個別のフレームモデルが完成すると、追加の連続したフレームに修正されたディープラーニングアーキテクチャを追加して、時間的一貫性のための新しいモデルをトレーニングする。
しかし、この時間的に一貫性のあるディープラーニングモデルへの移行は、トレーニングのためにはるかに多くの計算とメモリリソースを必要とする。
本稿では,時間パラメータを調整可能なRT-GAN(Recurrent Temporal GAN)を用いた軽量なソリューションを提案する。
大腸内視鏡検査の難治な2症例について,ハウストラムフォールドセグメンテーション(欠損面を示す)と現実的大腸内視鏡シミュレータービデオ生成の2例について,本手法の有効性を実証した。
データセット、付随コード、事前トレーニングされたモデルは、 \url{https://github.com/nadeemlab/CEP}で利用可能になる。
関連論文リスト
- STLight: a Fully Convolutional Approach for Efficient Predictive Learning by Spatio-Temporal joint Processing [6.872340834265972]
チャネルワイドおよび深度ワイドの畳み込みを学習可能な層としてのみ依存する,S時間学習のための新しい方法STLightを提案する。
STLightは、空間次元と時間次元を並べ替えることで、従来の畳み込みアプローチの限界を克服する。
本アーキテクチャは,データセットや設定のSTLベンチマーク上での最先端性能を実現するとともに,パラメータや計算FLOPの計算効率を大幅に向上させる。
論文 参考訳(メタデータ) (2024-11-15T13:53:19Z) - Cross Space and Time: A Spatio-Temporal Unitized Model for Traffic Flow Forecasting [16.782154479264126]
時間的要因間の複雑な相互作用により、バックボーン・時間的トラフィックフローを予測することが課題となる。
既存のアプローチでは、これらの次元を分離し、重要な相互依存を無視している。
本稿では,空間的および時間的依存関係の両方をキャプチャする統合フレームワークであるSanonymous-Temporal Unitized Unitized Cell (ASTUC)を紹介する。
論文 参考訳(メタデータ) (2024-11-14T07:34:31Z) - Hierarchical Temporal Context Learning for Camera-based Semantic Scene Completion [57.232688209606515]
カメラによるセマンティックシーンの補完を改善するための,新たな時間的文脈学習パラダイムであるHTCLを提案する。
提案手法は,Semantic KITTIベンチマークで1st$をランク付けし,mIoUの点でLiDARベースの手法を超えている。
論文 参考訳(メタデータ) (2024-07-02T09:11:17Z) - Self-STORM: Deep Unrolled Self-Supervised Learning for Super-Resolution Microscopy [55.2480439325792]
我々は、シーケンス固有のモデルベースのオートエンコーダをトレーニングすることで、そのようなデータの必要性を軽減する、深層無学習の自己教師付き学習を導入する。
提案手法は, 監視対象の性能を超過する。
論文 参考訳(メタデータ) (2024-03-25T17:40:32Z) - Time-series Generation by Contrastive Imitation [87.51882102248395]
モーメントマッチングの目的によってモチベーションされ、複合的エラーを軽減し、局所的(しかし前方的な)遷移ポリシーを最適化する。
推論において、学習されたポリシーは反復的なサンプリングのジェネレータとして機能し、学習されたエネルギーはサンプルの品質を評価するための軌道レベル尺度として機能する。
論文 参考訳(メタデータ) (2023-11-02T16:45:25Z) - Disentangling Spatial and Temporal Learning for Efficient Image-to-Video
Transfer Learning [59.26623999209235]
ビデオの空間的側面と時間的側面の学習を両立させるDiSTを提案する。
DiSTの非絡み合い学習は、大量の事前学習パラメータのバックプロパゲーションを避けるため、非常に効率的である。
5つのベンチマークの大規模な実験は、DiSTが既存の最先端メソッドよりも優れたパフォーマンスを提供することを示す。
論文 参考訳(メタデータ) (2023-09-14T17:58:33Z) - Transform-Equivariant Consistency Learning for Temporal Sentence
Grounding [66.10949751429781]
ビデオ毎により差別的な表現を学習するために,新しい同変一貫性規則学習フレームワークを導入する。
私たちのモチベーションは、クエリ誘導アクティビティの時間的境界を一貫して予測することにある。
特に,ビデオの完全性と滑らか性を高めるために,自己教師付き一貫性損失モジュールを考案した。
論文 参考訳(メタデータ) (2023-05-06T19:29:28Z) - StyleVideoGAN: A Temporal Generative Model using a Pretrained StyleGAN [70.31913835035206]
本稿では,映像合成問題に対する新しいアプローチを提案する。
トレーニング済みのStyleGANネットワークを利用することで、トレーニング対象の外観を制御できます。
我々の時間的アーキテクチャは、RGBフレームのシーケンスではなく、StyleGANの潜在符号のシーケンスに基づいて訓練される。
論文 参考訳(メタデータ) (2021-07-15T09:58:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。