論文の概要: Beamline Steering Using Deep Learning Models
- arxiv url: http://arxiv.org/abs/2408.13657v1
- Date: Sat, 24 Aug 2024 19:16:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-27 18:29:37.138135
- Title: Beamline Steering Using Deep Learning Models
- Title(参考訳): ディープラーニングモデルを用いたビームラインステアリング
- Authors: Dexter Allen, Isaac Kante, Dorian Bohler,
- Abstract要約: Linac To Undulatorは、アクセルのそれぞれの使用の変化のために、操縦と目標を非常に困難にしている。
ヒューマンオペレータはそのタスクにかなりの時間とリソースを費やす。
トレーニング時間と計算能力の欠如により、モデルの成熟能力は制限されました。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Beam steering involves the calibration of the angle and position at which a particle accelerator's electron beam is incident upon the x-ray target with respect to the rotation axis of the collimator. Beam Steering is an essential task for light sources. The Linac To Undulator is very difficult to steer and aim due to the changes of each use of the accelerator there must be re-calibration of magnets. However with each use of the Beamline its current method of steering runs into issues when faced with calibrating angles and positions. Human operators spend a substantial amount of time and resources on the task. We developed multiple different feed-forward-neural networks with varying hyper-parameters, inputs, and outputs, seeking to compare their performance. Specifically, our smaller models with 33 inputs and 13 outputs outperformed the larger models with 73 inputs and 50 outputs. We propose the following explanations for this lack of performance in larger models. First, a lack of training time and computational power limited the ability of our models to mature. Given more time, our models would outperform SVD. Second, when the input size of the model increases the noise increases as well. In this case more inputs corresponded to a greater length upon the LINAC accelerator. Less specific and larger models that seek to make more predictions will inherently perform worse than SVD.
- Abstract(参考訳): ビームステアリングは、コリメータの回転軸に関して、粒子加速器の電子ビームがX線ターゲットに入射する角度と位置の校正を伴う。
ビームステアリングは光源にとって重要な課題である。
リナック・トゥ・アンデュレータは、加速器の各使用の変化のために、磁石の再校正が必要であるため、操縦し、目標を定めることが非常に困難である。
しかしビームラインの使用ごとに、現在のステアリング法は角度や位置の調整に直面すると問題が発生する。
ヒューマンオペレータはそのタスクにかなりの時間とリソースを費やす。
我々は,様々なハイパーパラメータ,入力,出力を持つ複数のフィードフォワードニューラルネットワークを開発し,その性能を比較した。
具体的には、33の入力と13の出力を持つ小さなモデルでは、73の入力と50の出力を持つ大きなモデルよりも優れていた。
より大規模なモデルでは、この性能の欠如について、以下の説明を行う。
まず、トレーニング時間と計算能力の欠如により、モデルの成熟能力は制限された。
より多くの時間があれば、私たちのモデルはSVDを上回っます。
第二に、モデルの入力サイズが大きくなるとノイズも増加する。
この場合、より多くの入力がLINAC加速器のより大きな長さに対応している。
より具体的なモデルやより大規模なモデルでは、SVDよりも本質的に悪いパフォーマンスが期待できる。
関連論文リスト
- SGD: Street View Synthesis with Gaussian Splatting and Diffusion Prior [53.52396082006044]
現在の手法では、トレーニングの観点から大きく逸脱する観点で、レンダリングの品質を維持するのに苦労しています。
この問題は、移動中の車両の固定カメラが捉えた、まばらなトレーニングビューに起因している。
そこで本研究では,拡散モデルを用いて3DGSのキャパシティを向上させる手法を提案する。
論文 参考訳(メタデータ) (2024-03-29T09:20:29Z) - ODTFormer: Efficient Obstacle Detection and Tracking with Stereo Cameras Based on Transformer [12.58804521609764]
ODTFormerはTransformerベースのモデルで、障害検出と追跡の両方の問題に対処する。
我々は,最先端の障害物追跡モデルに匹敵する精度を報告し,そのコストはごくわずかである。
論文 参考訳(メタデータ) (2024-03-21T17:59:55Z) - Tracking Meets LoRA: Faster Training, Larger Model, Stronger Performance [87.19164603145056]
実験室レベルの資源をトラッキングするための大規模ViTモデルのパワーを明らかにする手法であるLoRATを提案する。
私たちの作業の本質は、推論レイテンシを追加することなく、モデルパラメータの小さなサブセットを微調整するテクニックであるLoRAを適用することです。
我々はPETRの適応のみに基づくアンカーフリーヘッドを設計し、計算オーバーヘッドを少なくして性能を向上する。
論文 参考訳(メタデータ) (2024-03-08T11:41:48Z) - Machine Learning For Beamline Steering [0.0]
ビームラインのLINAC To Undulatorセクションを狙うのは難しい。
加速器の使用には、このセクションの磁石の再校正が必要である。
本稿では,この課題を支援するために,ディープニューラルネットワークの利用について検討する。
論文 参考訳(メタデータ) (2023-11-13T18:00:06Z) - TransNormerLLM: A Faster and Better Large Language Model with Improved
TransNormer [34.790081960470964]
最初の線形注意に基づくLarge Language Model(LLM)であるTransNormerLLMを提案する。
我々は, 位置埋め込み, 線形注意加速度, ゲーティング機構, テンソル正規化, 推論加速度, 安定化など, 高度な修正を行う。
自己収集コーパス上に385M, 1B, 7Bの大きさの列車モデルとアブリケーションを用いてモデル設計を検証する。
論文 参考訳(メタデータ) (2023-07-27T16:45:33Z) - Winner-Take-All Column Row Sampling for Memory Efficient Adaptation of Language Model [89.8764435351222]
分散を低減した行列生成のために, WTA-CRS と呼ばれる新しい非バイアス推定系を提案する。
我々の研究は、チューニング変換器の文脈において、提案した推定器が既存のものよりも低い分散を示すという理論的および実験的証拠を提供する。
論文 参考訳(メタデータ) (2023-05-24T15:52:08Z) - Characterizing the Efficiency vs. Accuracy Trade-off for Long-Context
NLP Models [12.062489591946457]
広範に使用されている2つのロングシーケンスモデルにおける精度と効率のトレードオフについて検討する。
その結果、LEDはビッグバードよりも低コストで常に精度が良いことが判明した。
質問への答えとして、より小さなモデルの方がより効率的で、より正確なモデルであることが分かる。
論文 参考訳(メタデータ) (2022-04-15T01:52:45Z) - STAR: Sparse Transformer-based Action Recognition [61.490243467748314]
本研究は,空間的次元と時間的次元に細かな注意を払っている新しいスケルトンに基づく人間行動認識モデルを提案する。
実験により、トレーニング可能なパラメータをはるかに少なくし、トレーニングや推論の高速化を図りながら、モデルが同等のパフォーマンスを達成できることが示されている。
論文 参考訳(メタデータ) (2021-07-15T02:53:11Z) - DA-Transformer: Distance-aware Transformer [87.20061062572391]
DA-Transformerは、実際の距離を利用することができる距離対応トランスである。
本稿では,実距離を利用した距離認識変換器であるDA-Transformerを提案する。
論文 参考訳(メタデータ) (2020-10-14T10:09:01Z) - AxFormer: Accuracy-driven Approximation of Transformers for Faster,
Smaller and more Accurate NLP Models [4.247712017691596]
AxFormerは、特定の下流タスクのために最適化されたトランスフォーマーモデルを作成するために、精度駆動の近似を適用するフレームワークである。
実験の結果,AxFormerモデルの方が最大4.5%精度が高く,2.5倍高速で3.2倍小型であることがわかった。
論文 参考訳(メタデータ) (2020-10-07T23:29:34Z) - Train Large, Then Compress: Rethinking Model Size for Efficient Training
and Inference of Transformers [94.43313684188819]
本研究では,計算によって制限されたNLPタスクのトランスフォーマーモデルに着目し,モデルサイズの影響について検討する。
まず最初に、より小さなTransformerモデルがイテレーション毎に高速に実行されているにもかかわらず、より広いモデルとより深いモデルがはるかに少ないステップで収束していることを示します。
これは、大きなTransformerモデルのトレーニング効率と小さなTransformerモデルの推論効率との間に明らかなトレードオフをもたらす。
論文 参考訳(メタデータ) (2020-02-26T21:17:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。