論文の概要: RecTable: Fast Modeling Tabular Data with Rectified Flow
- arxiv url: http://arxiv.org/abs/2503.20731v1
- Date: Wed, 26 Mar 2025 17:12:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-27 13:18:08.080384
- Title: RecTable: Fast Modeling Tabular Data with Rectified Flow
- Title(参考訳): RecTable: 整流を伴うタブラルデータの高速モデリング
- Authors: Masane Fuchi, Tomohiro Takagi,
- Abstract要約: 本稿では,テキスト・ツー・イメージ・ジェネレーションやテキスト・ツー・ビデオ・ジェネレーションなどに適用された修正フローモデリングを用いたRecTableを紹介する。
実験により, RecTableは, 最先端拡散モデルやスコアベースモデルと比較して, 競争性能が向上することを示した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Score-based or diffusion models generate high-quality tabular data, surpassing GAN-based and VAE-based models. However, these methods require substantial training time. In this paper, we introduce RecTable, which uses the rectified flow modeling, applied in such as text-to-image generation and text-to-video generation. RecTable features a simple architecture consisting of a few stacked gated linear unit blocks. Additionally, our training strategies are also simple, incorporating a mixed-type noise distribution and a logit-normal timestep distribution. Our experiments demonstrate that RecTable achieves competitive performance compared to the several state-of-the-art diffusion and score-based models while reducing the required training time. Our code is available at https://github.com/fmp453/rectable.
- Abstract(参考訳): スコアベースまたは拡散モデルは、GANベースおよびVAEベースモデルを上回る高品質な表データを生成する。
しかし、これらの方法は相当な訓練時間を必要とする。
本稿では,テキスト・ツー・イメージ・ジェネレーションやテキスト・ツー・ビデオ・ジェネレーションなどの修正フローモデルを用いたRecTableを提案する。
RecTableは、いくつかのスタック化されたゲート付き線形ユニットブロックからなる単純なアーキテクチャを備えている。
さらに、我々のトレーニング戦略は、混合型ノイズ分布とロジト正規時間分布を取り入れて、単純である。
実験により, RecTableは, 必要なトレーニング時間を短縮しつつ, 最先端の拡散モデルやスコアベースモデルと比較して, 競争性能が向上することを示した。
私たちのコードはhttps://github.com/fmp453/rectable.comから入手可能です。
関連論文リスト
- Fast constrained sampling in pre-trained diffusion models [77.21486516041391]
拡散モデルは、大規模な生成画像モデルの分野を支配してきた。
本研究では,大規模な事前学習拡散モデルにおける高速拘束サンプリングのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-24T14:52:38Z) - Rectified Diffusion: Straightness Is Not Your Need in Rectified Flow [65.51671121528858]
拡散モデルは、視覚生成を大幅に改善したが、生成ODEを解くという計算集約的な性質のため、生成速度の遅さによって妨げられている。
広く認識されている解である整流流は、ODEパスを直線化することで生成速度を向上させる。
本稿では,より広範な拡散モデルのカテゴリをカバーするために,設計空間と修正の応用範囲を一般化するRectified Diffusionを提案する。
論文 参考訳(メタデータ) (2024-10-09T17:43:38Z) - Representation Alignment for Generation: Training Diffusion Transformers Is Easier Than You Think [72.48325960659822]
生成のための大規模拡散モデルの訓練における主要なボトルネックは、これらの表現を効果的に学習することにある。
本稿では,RePresentation Alignment (REPA) と呼ばれる単純な正規化を導入し,ノイズの多い入力隠れ状態の投影を,外部の事前学習された視覚エンコーダから得られるクリーンな画像表現と整合させる手法を提案する。
我々の単純な戦略は、一般的な拡散やDiTsやSiTsといったフローベースのトランスフォーマーに適用した場合、トレーニング効率と生成品質の両方に大きな改善をもたらす。
論文 参考訳(メタデータ) (2024-10-09T14:34:53Z) - Local Flow Matching Generative Models [19.859984725284896]
局所フローマッチング(Local Flow Matching)は、フローベース生成モデルに基づく密度推定のための計算フレームワークである。
$textttLFM$はシミュレーション不要のスキームを採用し、フローマッチングサブモデルのシーケンスを漸進的に学習する。
FMと比較して, $textttLFM$ のトレーニング効率と競争的生成性能の改善を実証した。
論文 参考訳(メタデータ) (2024-10-03T14:53:10Z) - Diffusion-Driven Data Replay: A Novel Approach to Combat Forgetting in Federated Class Continual Learning [13.836798036474143]
Federated Class Continual Learningにおける大きな課題は、破滅的な忘れ方だ。
本研究では拡散モデルに基づく新しいデータ再生手法を提案する。
我々の手法は既存のベースラインを大きく上回っている。
論文 参考訳(メタデータ) (2024-09-02T10:07:24Z) - Guided Flows for Generative Modeling and Decision Making [55.42634941614435]
その結果,ガイドフローは条件付き画像生成やゼロショット音声合成におけるサンプル品質を著しく向上させることがわかった。
特に、我々は、拡散モデルと比較して、オフライン強化学習設定axスピードアップにおいて、まず、計画生成にフローモデルを適用する。
論文 参考訳(メタデータ) (2023-11-22T15:07:59Z) - Diffusion-Model-Assisted Supervised Learning of Generative Models for
Density Estimation [10.793646707711442]
本稿では,密度推定のための生成モデルを訓練するためのフレームワークを提案する。
スコアベース拡散モデルを用いてラベル付きデータを生成する。
ラベル付きデータが生成されると、シンプルな完全に接続されたニューラルネットワークをトレーニングして、教師付き方法で生成モデルを学ぶことができます。
論文 参考訳(メタデータ) (2023-10-22T23:56:19Z) - RanPAC: Random Projections and Pre-trained Models for Continual Learning [59.07316955610658]
継続学習(CL)は、古いタスクを忘れずに、非定常データストリームで異なるタスク(分類など)を学習することを目的としている。
本稿では,事前学習モデルを用いたCLの簡潔かつ効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2023-07-05T12:49:02Z) - ProtoDiffusion: Classifier-Free Diffusion Guidance with Prototype
Learning [0.0]
本研究では,拡散モデルにプロトタイプ学習を組み込んで,拡散モデルよりも高速な生成品質を実現する。
ProtoDiffusionと呼ばれる本手法は,ベースライン法に比べて早期の訓練において優れた性能を発揮する。
論文 参考訳(メタデータ) (2023-07-04T21:18:39Z) - Reflected Diffusion Models [93.26107023470979]
本稿では,データのサポートに基づいて進化する反射微分方程式を逆転する反射拡散モデルを提案する。
提案手法は,一般化されたスコアマッチング損失を用いてスコア関数を学習し,標準拡散モデルの主要成分を拡張する。
論文 参考訳(メタデータ) (2023-04-10T17:54:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。