論文の概要: Inverting Data Transformations via Diffusion Sampling
- arxiv url: http://arxiv.org/abs/2602.08267v1
- Date: Mon, 09 Feb 2026 04:58:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:25.067919
- Title: Inverting Data Transformations via Diffusion Sampling
- Title(参考訳): 拡散サンプリングによるデータ変換の反転
- Authors: Jinwoo Kim, Sékou-Oumar Kaba, Jiyun Park, Seunghoon Hong, Siamak Ravanbakhsh,
- Abstract要約: 一般リー群上の変換反転問題について検討する。
目標は、元のデータ分布にマップする逆変換を復元することだ。
確率論的視点をとり、ボルツマン分布として後方変換をモデル化する。
- 参考スコア(独自算出の注目度): 33.6473603169954
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study the problem of transformation inversion on general Lie groups: a datum is transformed by an unknown group element, and the goal is to recover an inverse transformation that maps it back to the original data distribution. Such unknown transformations arise widely in machine learning and scientific modeling, where they can significantly distort observations. We take a probabilistic view and model the posterior over transformations as a Boltzmann distribution defined by an energy function on data space. To sample from this posterior, we introduce a diffusion process on Lie groups that keeps all updates on-manifold and only requires computations in the associated Lie algebra. Our method, Transformation-Inverting Energy Diffusion (TIED), relies on a new trivialized target-score identity that enables efficient score-based sampling of the transformation posterior. As a key application, we focus on test-time equivariance, where the objective is to improve the robustness of pretrained neural networks to input transformations. Experiments on image homographies and PDE symmetries demonstrate that TIED can restore transformed inputs to the training distribution at test time, showing improved performance over strong canonicalization and sampling baselines. Code is available at https://github.com/jw9730/tied.
- Abstract(参考訳): 一般リー群上の変換逆変換の問題について検討し、ダタムを未知のグループ要素によって変換し、元のデータ分布にマッピングする逆変換を復元することを目的とする。
このような未知の変換は、機械学習や科学的モデリングにおいて広く発生し、観察を著しく歪めることができる。
データ空間上のエネルギー関数によって定義されるボルツマン分布として確率論的視点をモデル化する。
この後からサンプリングするために、リー群上の拡散過程を導入し、すべての更新を多様体上で保ち、関連するリー代数での計算のみを必要とする。
変換反転エネルギー拡散法 (TIED) は, 変換後続の効率的なスコアベースサンプリングを可能にする, 新たな自明な目標スコア同定法に依存している。
そこでは,入力変換に対する事前学習ニューラルネットワークのロバスト性を改善することを目的としている。
画像ホモグラフィーとPDE対称性の実験により、TIEDは変換された入力をテスト時にトレーニング分布に復元し、強い正準化とサンプリングベースラインよりも優れた性能を示すことを示した。
コードはhttps://github.com/jw9730/tied.comから入手できる。
関連論文リスト
- Unsupervised Representation Learning from Sparse Transformation Analysis [79.94858534887801]
本稿では,潜在変数のスパース成分への変換を分解し,シーケンスデータから表現を学習することを提案する。
入力データは、まず潜伏活性化の分布として符号化され、その後確率フローモデルを用いて変換される。
論文 参考訳(メタデータ) (2024-10-07T23:53:25Z) - Perturbative partial moment matching and gradient-flow adaptive importance sampling transformations for Bayesian leave one out cross-validation [0.9895793818721335]
我々は、$T(boldsymboltheta)=boldsymboltheta + h Q(boldsymboltheta)$ for $0hll 1,$という形の摂動変換の使用を動機付けている。
我々はロジスティック回帰と浅いReLU活性化ニューラルネットワークの場合のクローズドフォーム表現を導出する。
論文 参考訳(メタデータ) (2024-02-13T01:03:39Z) - Learning Collective Variables with Synthetic Data Augmentation through Physics-Inspired Geodesic Interpolation [1.4972659820929493]
分子動力学シミュレーションでは、タンパク質の折り畳みのようなまれな事象は、通常、強化されたサンプリング技術を用いて研究される。
本研究では,タンパク質の折り畳み遷移に類似した測地線を生成するために物理に着想を得た指標を用いたシミュレーションフリーなデータ拡張戦略を提案する。
論文 参考訳(メタデータ) (2024-02-02T16:35:02Z) - Equivariance Discovery by Learned Parameter-Sharing [153.41877129746223]
データから解釈可能な等価性を発見する方法について検討する。
具体的には、モデルのパラメータ共有方式に対する最適化問題として、この発見プロセスを定式化する。
また,ガウスデータの手法を理論的に解析し,研究された発見スキームとオラクルスキームの間の平均2乗ギャップを限定する。
論文 参考訳(メタデータ) (2022-04-07T17:59:19Z) - Improving the Sample-Complexity of Deep Classification Networks with
Invariant Integration [77.99182201815763]
変換によるクラス内分散に関する事前知識を活用することは、ディープニューラルネットワークのサンプル複雑性を改善するための強力な方法である。
そこで本研究では,アプリケーションの複雑な問題に対処するために,プルーニング法に基づく新しい単項選択アルゴリズムを提案する。
本稿では,Rotated-MNIST,SVHN,CIFAR-10データセットにおけるサンプルの複雑さの改善について述べる。
論文 参考訳(メタデータ) (2022-02-08T16:16:11Z) - Revisiting Transformation Invariant Geometric Deep Learning: An Initial Representation Perspective [38.314914702299056]
我々は幾何学的データのための単純で汎用的なプラグインであるTransform In Neural Networks (TinvNN)を提案する。
具体的には,多次元スケーリングを改良することにより,変換不変性と距離保存初期点表現を実現する。
我々は、TinvNNが変換不変性を厳密に保証し、既存のニューラルネットワークと組み合わせられるほど汎用的で柔軟なことを証明した。
論文 参考訳(メタデータ) (2021-12-23T03:52:33Z) - Topographic VAEs learn Equivariant Capsules [84.33745072274942]
本稿では, 地理的に整理された潜伏変数を用いた深部生成モデルを効率的に学習するための新しい手法であるTopographic VAEを紹介する。
このようなモデルでは,MNIST上での桁数クラス,幅,スタイルなどの健全な特徴に応じて,その活性化を組織化することが実際に学べることが示される。
我々は、既存の群同変ニューラルネットワークの能力を拡張して、複素変換に近似した同値性を示す。
論文 参考訳(メタデータ) (2021-09-03T09:25:57Z) - Generalizing Convolutional Neural Networks for Equivariance to Lie
Groups on Arbitrary Continuous Data [52.78581260260455]
任意の特定のリー群からの変換に同値な畳み込み層を構築するための一般的な方法を提案する。
同じモデルアーキテクチャを画像、ボール・アンド・スティック分子データ、ハミルトン力学系に適用する。
論文 参考訳(メタデータ) (2020-02-25T17:40:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。