論文の概要: A Learned Born Series for Highly-Scattering Media
- arxiv url: http://arxiv.org/abs/2212.04948v1
- Date: Fri, 9 Dec 2022 16:00:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 16:23:11.485279
- Title: A Learned Born Series for Highly-Scattering Media
- Title(参考訳): 高速散乱メディアのための学習型ボーンシリーズ
- Authors: Antonio Stanziola, Simon Arridge, Ben T. Cox, Bradley E. Treeby
- Abstract要約: 学習されたボルン級数(LBS)は収束したボルン級数に由来するが、その成分は訓練によって見つかる。
LBS は同数の反復に対して収束ボルン級数よりもかなり正確であることが示されている。
- 参考スコア(独自算出の注目度): 0.570954641728726
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A new method for solving the wave equation is presented, called the learned
Born series (LBS), which is derived from a convergent Born Series but its
components are found through training. The LBS is shown to be significantly
more accurate than the convergent Born series for the same number of
iterations, in the presence of high contrast scatterers, while maintaining a
comparable computational complexity. The LBS is able to generate a reasonable
prediction of the global pressure field with a small number of iterations, and
the errors decrease with the number of learned iterations.
- Abstract(参考訳): 波動方程式の解法として、収束ボルン級数から導かれる学習ボルン級数(英語版)(lbs)と呼ばれる新しい方法が提示されるが、その成分は訓練によって見出される。
lbsは計算の複雑さを保ちつつ、高コントラスト散乱の存在下で同じ数の反復で収束するボルン級数よりもかなり正確であることが示されている。
LBSは、少数のイテレーションで大域的な圧力場の合理的な予測を生成でき、学習されたイテレーションの数によってエラーは減少する。
関連論文リスト
- Self-Refining Diffusion Samplers: Enabling Parallelization via Parareal Iterations [53.180374639531145]
自己精製拡散サンプリング(SRDS)は、サンプル品質を維持し、追加の並列計算コストでレイテンシを向上させることができる。
微分方程式の並列時間積分法であるPararealアルゴリズムから着想を得た。
論文 参考訳(メタデータ) (2024-12-11T11:08:09Z) - Quantized symbolic time series approximation [0.28675177318965045]
本稿では,新しい量子化に基づくABBA記号近似手法,QABBAを提案する。
QABBAは、元の速度とシンボル再構成の精度を維持しながら、ストレージ効率を向上させる。
時系列回帰のための大規模言語モデル(LLM)を用いたQABBAの応用についても述べる。
論文 参考訳(メタデータ) (2024-11-20T10:32:22Z) - Faster Quantum Algorithms with "Fractional"-Truncated Series [14.536572102408423]
我々は、トランケート誤差を2次的に改善し、有効トランケート順序の連続的な調整を可能にすることにより、回路深さを著しく低減するフレームワークであるランダム化トランケートシリーズ(RTS)を紹介する。
我々は,この補題を準ユニタリなインスタンスに一般化して誤差解析をサポートし,一元数,量子信号処理,量子微分方程式の線形結合によるRTSの汎用性を実証する。
論文 参考訳(メタデータ) (2024-02-08T11:49:24Z) - A Fast Algorithm for the Real-Valued Combinatorial Pure Exploration of Multi-Armed Bandit [55.2480439325792]
多武装バンディット(R-CPE-MAB)の真価純探査問題について検討する。
本稿では,差分に基づく探索法 (CombGapE) アルゴリズムを提案する。
我々は,CombGapEアルゴリズムが,合成データセットと実世界のデータセットの両方において,既存の手法を大幅に上回っていることを数値的に示す。
論文 参考訳(メタデータ) (2023-06-15T15:37:31Z) - Provably Convergent Subgraph-wise Sampling for Fast GNN Training [122.68566970275683]
収束保証,すなわちローカルメッセージ補償(LMC)を用いた新しいサブグラフワイズサンプリング手法を提案する。
LMCは、後方パスのメッセージパスの定式化に基づいて、後方パスで破棄されたメッセージを検索する。
大規模ベンチマーク実験により、LCCは最先端のサブグラフワイドサンプリング法よりもはるかに高速であることが示された。
論文 参考訳(メタデータ) (2023-03-17T05:16:49Z) - ReDi: Efficient Learning-Free Diffusion Inference via Trajectory
Retrieval [68.7008281316644]
ReDiは学習不要なRetrievalベースの拡散サンプリングフレームワークである。
ReDi はモデル推論効率を 2 倍高速化することを示した。
論文 参考訳(メタデータ) (2023-02-05T03:01:28Z) - Fast Bayesian Inference with Batch Bayesian Quadrature via Kernel
Recombination [23.6031259333814]
確率収束率を有する並列(バッチ)ベイズ二次法(BQ)を提案する。
提案手法は,各種実世界のデータセットにおける最先端BQ手法とNested Smplingの両方のサンプリング効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-06-09T19:14:52Z) - Minibatch vs Local SGD with Shuffling: Tight Convergence Bounds and
Beyond [63.59034509960994]
シャッフルに基づく変種(ミニバッチと局所ランダムリシャッフル)について検討する。
ポリアック・ロジャシエヴィチ条件を満たす滑らかな函数に対して、これらのシャッフル型不変量(英語版)(shuffling-based variants)がそれらの置換式よりも早く収束することを示す収束境界を得る。
我々は, 同期シャッフル法と呼ばれるアルゴリズムの修正を提案し, ほぼ均一な条件下では, 下界よりも収束速度が速くなった。
論文 参考訳(メタデータ) (2021-10-20T02:25:25Z) - Information-Theoretic Generalization Bounds for Iterative
Semi-Supervised Learning [81.1071978288003]
特に,情報理論の原理を用いて,反復型SSLアルゴリズムのエミュレータ一般化誤差の振る舞いを理解することを目的とする。
我々の理論的結果は、クラス条件分散があまり大きくない場合、一般化誤差の上限は反復数とともに単調に減少するが、すぐに飽和することを示している。
論文 参考訳(メタデータ) (2021-10-03T05:38:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。