論文の概要: Fast filtering of non-Gaussian models using Amortized Optimal Transport Maps
- arxiv url: http://arxiv.org/abs/2503.12633v1
- Date: Sun, 16 Mar 2025 20:05:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 12:28:01.537017
- Title: Fast filtering of non-Gaussian models using Amortized Optimal Transport Maps
- Title(参考訳): Amortized Optimal Transport Maps を用いた非ガウスモデルの高速フィルタリング
- Authors: Mohammad Al-Jarrah, Bamdad Hosseini, Amirhossein Taghvaei,
- Abstract要約: 本稿では、最適輸送フィルタ(OTF)のリアルタイムトレーニングに伴う計算負担を軽減するために設計された、償却最適輸送フィルタ(A-OTF)を提案する。
A-OTFは、オンライン計算における推論コストを低減するために、初期/オフラインのトレーニング段階におけるOTFマップ間の類似性を利用する。
- 参考スコア(独自算出の注目度): 4.745059103971596
- License:
- Abstract: In this paper, we present the amortized optimal transport filter (A-OTF) designed to mitigate the computational burden associated with the real-time training of optimal transport filters (OTFs). OTFs can perform accurate non-Gaussian Bayesian updates in the filtering procedure, but they require training at every time step, which makes them expensive. The proposed A-OTF framework exploits the similarity between OTF maps during an initial/offline training stage in order to reduce the cost of inference during online calculations. More precisely, we use clustering algorithms to select relevant subsets of pre-trained maps whose weighted average is used to compute the A-OTF model akin to a mixture of experts. A series of numerical experiments validate that A-OTF achieves substantial computational savings during online inference while preserving the inherent flexibility and accuracy of OTF.
- Abstract(参考訳): 本稿では,最適輸送フィルタ (OTF) のリアルタイムトレーニングに伴う計算負担を軽減するために設計された,償却最適輸送フィルタ (A-OTF) を提案する。
OTFは、フィルター手順で正確に非ガウスベイズ更新を行うことができるが、各ステップでトレーニングする必要があるため、コストがかかる。
提案したA-OTFフレームワークは、オンライン計算における推論コストを低減するために、初期/オフライントレーニング段階におけるOTFマップ間の類似性を利用する。
より正確には、クラスタリングアルゴリズムを用いて、A-OTFモデルを計算するために重み付き平均が使用される事前訓練マップの関連するサブセットを選択する。
一連の数値実験により、A-OTFはOTFの固有の柔軟性と精度を保ちながら、オンライン推論中にかなりの計算的節約を達成することが検証された。
関連論文リスト
- Data-Driven Filter Design in FBP: Transforming CT Reconstruction with Trainable Fourier Series [3.6508148866314163]
本稿では,FBPフレームワーク内にCT再構成のためのトレーニング可能なフィルタを導入する。
この方法は、フーリエ級数係数を最適化してフィルタを構成することにより、ノイズ低減の限界を克服する。
本フィルタは既存のCT再構成モデルに容易に組み込めるので,幅広い応用に適応できるツールである。
論文 参考訳(メタデータ) (2024-01-29T10:47:37Z) - Sparse is Enough in Fine-tuning Pre-trained Large Language Models [98.46493578509039]
我々はSparse Increment Fine-Tuning (SIFT) という勾配に基づくスパース微調整アルゴリズムを提案する。
GLUE Benchmark や Instruction-tuning などのタスクで有効性を検証する。
論文 参考訳(メタデータ) (2023-12-19T06:06:30Z) - Energizing Federated Learning via Filter-Aware Attention [39.17451229130728]
フェデレートラーニング(FL)は有望な分散パラダイムであり、データ共有の必要性を排除しつつ、データの異質性による課題に直面している。
パラメータ再構成にパーソナライズされたフィルタアテンションを利用するFedOFAを提案する。
コアとなるTFAモジュールは、パーソナライズされたフィルタ対応アテンションマップを正確に抽出するように設計されている。
AGPSは、冗長なニューロンを隠蔽しながら重要なニューロンを選択的に保持し、性能犠牲なしに通信コストを低減させる。
論文 参考訳(メタデータ) (2023-11-18T09:09:38Z) - Optimization-Free Test-Time Adaptation for Cross-Person Activity
Recognition [30.350005654271868]
Test-Time Adaptationは、テストストリームを使用して、リアルタイムの推論で予測を調整することを目的としている。
計算コストが高いため、リソース制約のあるエッジデバイス上での動作が困難になる。
センサベースHARのための最適化自由テスト時間適応フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-28T02:20:33Z) - Filter Pruning for Efficient CNNs via Knowledge-driven Differential
Filter Sampler [103.97487121678276]
フィルタプルーニングは同時に計算を加速し、CNNのメモリオーバーヘッドを低減する。
本稿では,MFM(Masked Filter Modeling)フレームワークを用いた知識駆動型微分フィルタサンプリング(KDFS)を提案する。
論文 参考訳(メタデータ) (2023-07-01T02:28:41Z) - Taming Hyperparameter Tuning in Continuous Normalizing Flows Using the
JKO Scheme [60.79981399724534]
正規化フロー (NF) は、選択された確率分布を正規分布に変換する写像である。
OTベースのCNFを$alpha$をチューニングすることなく解くアルゴリズムであるJKO-Flowを提案する。
論文 参考訳(メタデータ) (2022-11-30T05:53:21Z) - Low-Pass Filtering SGD for Recovering Flat Optima in the Deep Learning
Optimization Landscape [15.362190838843915]
LPF-SGD は SGD よりも小さい一般化誤差でより良い最適点に収束することを示す。
本稿では,一般的なDLトレーニング手法と比較して,アルゴリズムが優れた一般化性能を実現することを示す。
論文 参考訳(メタデータ) (2022-01-20T07:13:04Z) - Fast Variational AutoEncoder with Inverted Multi-Index for Collaborative
Filtering [59.349057602266]
変分オートエンコーダ (VAE) は, 協調フィルタリングの非線形手法として拡張されている。
内積に基づくソフトマックス確率を逆多重インデックスに基づいて分解する。
FastVAEはサンプリング品質と効率の両面で最先端のベースラインを上回っます。
論文 参考訳(メタデータ) (2021-09-13T08:31:59Z) - Multitarget Tracking with Transformers [21.81266872964314]
マルチターゲットトラッキング(MTT)は、ノイズの多い測定を使用して未知のオブジェクトの数の状態を追跡する問題です。
本稿では,Transformer アーキテクチャに基づく MTT の高性能深層学習手法を提案する。
論文 参考訳(メタデータ) (2021-04-01T19:14:55Z) - Self Normalizing Flows [65.73510214694987]
本稿では,各層における学習された近似逆数により,勾配の高価な項を置き換えることで,フローの正規化を訓練するための柔軟なフレームワークを提案する。
これにより、各レイヤの正確な更新の計算複雑性が$mathcalO(D3)$から$mathcalO(D2)$に削減される。
実験により,これらのモデルは非常に安定であり,正確な勾配値と類似したデータ可能性値に最適化可能であることが示された。
論文 参考訳(メタデータ) (2020-11-14T09:51:51Z) - Robust Optimal Transport with Applications in Generative Modeling and
Domain Adaptation [120.69747175899421]
ワッサーシュタインのような最適輸送(OT)距離は、GANやドメイン適応のようないくつかの領域で使用されている。
本稿では,現代のディープラーニングアプリケーションに適用可能な,ロバストなOT最適化の計算効率のよい2つの形式を提案する。
提案手法では, ノイズの多いデータセット上で, 外部分布で劣化したGANモデルをトレーニングすることができる。
論文 参考訳(メタデータ) (2020-10-12T17:13:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。