論文の概要: Generative Anchored Fields: Controlled Data Generation via Emergent Velocity Fields and Transport Algebra
- arxiv url: http://arxiv.org/abs/2511.22693v1
- Date: Thu, 27 Nov 2025 18:48:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.685143
- Title: Generative Anchored Fields: Controlled Data Generation via Emergent Velocity Fields and Transport Algebra
- Title(参考訳): 生成アンコレッド場:創発速度場と輸送代数による制御データ生成
- Authors: Deressa Wodajo Deressa, Hannes Mareen, Peter Lambert, Glenn Van Wallendael,
- Abstract要約: 本稿では,独立な終端予測器であるJ$(ノイズ)とK$(データ)を軌跡予測器ではなく学習する生成モデルを提案する。
我々は,アーキテクチャプリミティブとして構成生成を独自に提供しながら,強いサンプル品質(CelebA-HQ 64times 64$)を達成する。
- 参考スコア(独自算出の注目度): 3.324043571296475
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present Generative Anchored Fields (GAF), a generative model that learns independent endpoint predictors $J$ (noise) and $K$ (data) rather than a trajectory predictor. The velocity field $v=K-J$ emerges from their time-conditioned disagreement. This factorization enables \textit{Transport Algebra}: algebraic operation on learned $\{(J_n,K_n)\}_{n=1}^N$ heads for compositional control. With class-specific $K_n$ heads, GAF supports a rich family of directed transport maps between a shared base distribution and multiple modalities, enabling controllable interpolation, hybrid generation, and semantic morphing through vector arithmetic. We achieve strong sample quality (FID 7.5 on CelebA-HQ $64\times 64$) while uniquely providing compositional generation as an architectural primitive. We further demonstrate, GAF has lossless cyclic transport between its initial and final state with LPIPS=$0.0$. Code available at https://github.com/IDLabMedia/GAF
- Abstract(参考訳): 本稿では,GAF(Generative Anchored Fields)について述べる。GAFは独立な終端予測器である$J$(ノイズ)と$K$(データ)を軌跡予測器ではなく学習する生成モデルである。
速度場$v=K-J$は、時間条件の不一致から現れる。
この分解は、合成制御のための学習された$\{(J_n,K_n)\}_{n=1}^N$ヘッド上の代数演算を可能にする。
クラス固有の$K_n$ヘッドで、GAFは共有ベース分布と多重モードの間の有向トランスポートマップの豊富なファミリーをサポートし、制御可能な補間、ハイブリッド生成、ベクトル演算による意味的モーフィングを可能にする。
CelebA-HQ 64\times 64$の強いサンプル品質(FID 7.5)を実現すると同時に,アーキテクチャプリミティブとしてコンポジション生成を独自に提供する。
さらに、GAFはLPIPS=$0.0$で初期状態と最終状態の間に損失のない循環輸送を持つことを示した。
https://github.com/IDLabMedia/GAF
関連論文リスト
- Proving the Limited Scalability of Centralized Distributed Optimization via a New Lower Bound Construction [57.93371273485736]
我々は、すべての労働者が同一の分布にアクセスする均質な(すなわちd.d.)場合であっても、すべての労働者が非バイアス付き境界 LDeltaepsilon2,$$$$$ のポリ対数的により良いポリ対数を求める集中型分散学習環境を考える。
論文 参考訳(メタデータ) (2025-06-30T13:27:39Z) - Lightweight and Interpretable Transformer via Mixed Graph Algorithm Unrolling for Traffic Forecast [28.36772736512295]
我々は、混合グラフに基づく最適化アルゴリズムをアンロールすることで、軽量で解釈可能なトランスフォーマーのようなニューラルネットを構築する。
グラフ学習モジュールを$mathcalGu$と$mathcalGd$に挿入します。
実験により,我々の未登録ネットワークは,最先端の予測スキームとして,競争力のあるトラフィック予測性能を達成することが示された。
論文 参考訳(メタデータ) (2025-05-19T13:32:34Z) - IT$^3$: Idempotent Test-Time Training [95.78053599609044]
ディープラーニングモデルは、トレーニングデータとテストデータの間の分散シフトのために、現実世界の環境にデプロイする際に苦労することが多い。
Idempotent Test-Time Training (IT$3$) は、現在のテストインスタンスのみを使用して、分散シフトへのオンザフライ適応を可能にする新しいアプローチである。
この結果から,イデオポテンスはドメインやアーキテクチャをまたいで一般化するテスト時間適応の普遍的原理を提供すると考えられる。
論文 参考訳(メタデータ) (2024-10-05T15:39:51Z) - Multilayer Correlation Clustering [12.492037397168579]
相関クラスタリング(Bansal et al., FOCS '02)の新たな一般化である多層相関クラスタリングを確立する。
本稿では、共通集合である$V$に対して相関クラスタリング(層と呼ばれる)の一連の入力を与えられる。
目的は、不一致ベクトルの$ell_p$-norm(pgeq 1$)を最小化する$V$のクラスタリングを見つけることである。
論文 参考訳(メタデータ) (2024-04-25T15:25:30Z) - Do you know what q-means? [42.96240569413475]
古典的な$varepsilon$-$k$-meansアルゴリズムは、ロイドのアルゴリズムの1つの反復の近似バージョンを時間的複雑さで実行する。
また,時間的複雑さを考慮した$q$-means量子アルゴリズムも提案する。
論文 参考訳(メタデータ) (2023-08-18T17:52:12Z) - On the Unlikelihood of D-Separation [69.62839677485087]
解析的な証拠として、大きなグラフ上では、d-分離は存在が保証されたとしても珍しい現象である。
PCアルゴリズムでは、その最悪ケース保証がスパースグラフで失敗することが知られているが、平均ケースでも同じことが言える。
UniformSGSでは、既存のエッジに対してランニング時間が指数的であることが知られているが、平均的な場合、それは既存のほとんどのエッジにおいても期待されるランニング時間であることを示す。
論文 参考訳(メタデータ) (2023-03-10T00:11:18Z) - Beyond Invariance: Test-Time Label-Shift Adaptation for Distributions
with "Spurious" Correlations [44.99833362998488]
テスト時のデータ分散の変化は、予測モデルのパフォーマンスに有害な影響を及ぼす可能性がある。
本研究では,未ラベルサンプルに適用したEMを用いて,共同分布の$p(y, z)$の変化に適応するテストタイムラベルシフト補正を提案する。
論文 参考訳(メタデータ) (2022-11-28T18:52:33Z) - Robust Model Selection and Nearly-Proper Learning for GMMs [26.388358539260473]
学習理論では、データは有限混合モデルから生成されるという標準的な仮定がある。しかし、コンポーネントの数が事前に分かっていないときに何が起こるのか。
対数係数内の分布に適合するために必要な最小コンポーネント数を、およそ決定することができる。
論文 参考訳(メタデータ) (2021-06-05T01:58:40Z) - Convergence and Sample Complexity of SGD in GANs [15.25030172685628]
SGDによるGAN(Generative Adversarial Networks)のトレーニングにおける収束保証を提供する。
我々は,非線形アクティベーション機能を持つ1層ジェネレータネットワークによってモデル化されたターゲット分布の学習を検討する。
この結果は、ReLUを含む幅広い非線形アクティベーション関数 $phi$ に適用され、切り離された統計との接続によって実現される。
論文 参考訳(メタデータ) (2020-12-01T18:50:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。