論文の概要: A Learned Born Series for Highly-Scattering Media
- arxiv url: http://arxiv.org/abs/2212.04948v1
- Date: Fri, 9 Dec 2022 16:00:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 16:23:11.485279
- Title: A Learned Born Series for Highly-Scattering Media
- Title(参考訳): 高速散乱メディアのための学習型ボーンシリーズ
- Authors: Antonio Stanziola, Simon Arridge, Ben T. Cox, Bradley E. Treeby
- Abstract要約: 学習されたボルン級数(LBS)は収束したボルン級数に由来するが、その成分は訓練によって見つかる。
LBS は同数の反復に対して収束ボルン級数よりもかなり正確であることが示されている。
- 参考スコア(独自算出の注目度): 0.570954641728726
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A new method for solving the wave equation is presented, called the learned
Born series (LBS), which is derived from a convergent Born Series but its
components are found through training. The LBS is shown to be significantly
more accurate than the convergent Born series for the same number of
iterations, in the presence of high contrast scatterers, while maintaining a
comparable computational complexity. The LBS is able to generate a reasonable
prediction of the global pressure field with a small number of iterations, and
the errors decrease with the number of learned iterations.
- Abstract(参考訳): 波動方程式の解法として、収束ボルン級数から導かれる学習ボルン級数(英語版)(lbs)と呼ばれる新しい方法が提示されるが、その成分は訓練によって見出される。
lbsは計算の複雑さを保ちつつ、高コントラスト散乱の存在下で同じ数の反復で収束するボルン級数よりもかなり正確であることが示されている。
LBSは、少数のイテレーションで大域的な圧力場の合理的な予測を生成でき、学習されたイテレーションの数によってエラーは減少する。
関連論文リスト
- Quantized symbolic time series approximation [0.28675177318965045]
本稿では,新しい量子化に基づくABBA記号近似手法,QABBAを提案する。
QABBAは、元の速度とシンボル再構成の精度を維持しながら、ストレージ効率を向上させる。
時系列回帰のための大規模言語モデル(LLM)を用いたQABBAの応用についても述べる。
論文 参考訳(メタデータ) (2024-11-20T10:32:22Z) - Faster Quantum Algorithms with "Fractional"-Truncated Series [14.536572102408423]
我々は、トランケート誤差を2次的に改善し、有効トランケート順序の連続的な調整を可能にすることにより、回路深さを著しく低減するフレームワークであるランダム化トランケートシリーズ(RTS)を紹介する。
我々は,この補題を準ユニタリなインスタンスに一般化して誤差解析をサポートし,一元数,量子信号処理,量子微分方程式の線形結合によるRTSの汎用性を実証する。
論文 参考訳(メタデータ) (2024-02-08T11:49:24Z) - An Optimal Algorithm for the Real-Valued Combinatorial Pure Exploration
of Multi-Armed Bandit [65.268245109828]
多武装バンディット(R-CPE-MAB)の真価純探査問題について検討する。
既存のR-CPE-MABの手法は、いわゆるトランスダクティブ線形帯域の特殊な場合と見なすことができる。
本稿では,差分探索アルゴリズム (CombGapE) を提案する。
論文 参考訳(メタデータ) (2023-06-15T15:37:31Z) - Provably Convergent Subgraph-wise Sampling for Fast GNN Training [122.68566970275683]
収束保証,すなわちローカルメッセージ補償(LMC)を用いた新しいサブグラフワイズサンプリング手法を提案する。
LMCは、後方パスのメッセージパスの定式化に基づいて、後方パスで破棄されたメッセージを検索する。
大規模ベンチマーク実験により、LCCは最先端のサブグラフワイドサンプリング法よりもはるかに高速であることが示された。
論文 参考訳(メタデータ) (2023-03-17T05:16:49Z) - ReDi: Efficient Learning-Free Diffusion Inference via Trajectory
Retrieval [68.7008281316644]
ReDiは学習不要なRetrievalベースの拡散サンプリングフレームワークである。
ReDi はモデル推論効率を 2 倍高速化することを示した。
論文 参考訳(メタデータ) (2023-02-05T03:01:28Z) - Testing randomness of series generated in Bell's experiment [62.997667081978825]
おもちゃの光ファイバーをベースとしたセットアップを用いてバイナリシリーズを生成し、そのランダム度をVilleの原理に従って評価する。
標準統計指標の電池、ハースト、コルモゴロフ複雑性、最小エントロピー、埋め込みのTakensarity次元、および拡張ディッキー・フラーとクワイアトコフスキー・フィリップス・シュミット・シン(英語版)でテストされ、ステーション指数をチェックする。
Toeplitz 抽出器を不規則級数に適用することにより得られる系列のランダム性のレベルは、非還元原料のレベルと区別できない。
論文 参考訳(メタデータ) (2022-08-31T17:39:29Z) - Fast Bayesian Inference with Batch Bayesian Quadrature via Kernel
Recombination [23.6031259333814]
確率収束率を有する並列(バッチ)ベイズ二次法(BQ)を提案する。
提案手法は,各種実世界のデータセットにおける最先端BQ手法とNested Smplingの両方のサンプリング効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-06-09T19:14:52Z) - Minibatch vs Local SGD with Shuffling: Tight Convergence Bounds and
Beyond [63.59034509960994]
シャッフルに基づく変種(ミニバッチと局所ランダムリシャッフル)について検討する。
ポリアック・ロジャシエヴィチ条件を満たす滑らかな函数に対して、これらのシャッフル型不変量(英語版)(shuffling-based variants)がそれらの置換式よりも早く収束することを示す収束境界を得る。
我々は, 同期シャッフル法と呼ばれるアルゴリズムの修正を提案し, ほぼ均一な条件下では, 下界よりも収束速度が速くなった。
論文 参考訳(メタデータ) (2021-10-20T02:25:25Z) - Information-Theoretic Generalization Bounds for Iterative
Semi-Supervised Learning [81.1071978288003]
特に,情報理論の原理を用いて,反復型SSLアルゴリズムのエミュレータ一般化誤差の振る舞いを理解することを目的とする。
我々の理論的結果は、クラス条件分散があまり大きくない場合、一般化誤差の上限は反復数とともに単調に減少するが、すぐに飽和することを示している。
論文 参考訳(メタデータ) (2021-10-03T05:38:49Z) - Time Series Forecasting via Learning Convolutionally Low-Rank Models [18.61160269442917]
最近、citetliu:arxiv: 2019は圧縮センシングの観点から時系列予測のかなり難しい問題を研究した。
彼らは、Convolution Nuclear Norm Minimization(CNNM)と呼ばれる非学習方法を提案し、CNNMが観察された部分からシリーズの将来の部分を正確に回復できることを証明しました。
本稿では,学習可能な正規直交変換をcnnmに統合することでこの問題にアプローチする。
学習に基づくcnnm (lbcnnm) と呼ばれる結果モデルが, 系列の将来的な部分の同定に厳密に成功することを証明した。
論文 参考訳(メタデータ) (2021-04-23T09:53:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。