論文の概要: Prediction of progressive lens performance from neural network
simulations
- arxiv url: http://arxiv.org/abs/2103.10842v1
- Date: Fri, 19 Mar 2021 14:51:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-22 15:40:55.389139
- Title: Prediction of progressive lens performance from neural network
simulations
- Title(参考訳): ニューラルネットワークシミュレーションによる進行レンズ性能の予測
- Authors: Alexander Leube, Lukas Lang, Gerhard Kelch and Siegfried Wahl
- Abstract要約: 本研究の目的は,畳み込みニューラルネットワーク(CNN)に基づく視覚的視力(VA)予測の枠組みを提案することである。
提案する総合シミュレーションツールは主観的視覚性能の正確なモデルとして機能することが示されている。
- 参考スコア(独自算出の注目度): 62.997667081978825
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Purpose: The purpose of this study is to present a framework to predict
visual acuity (VA) based on a convolutional neural network (CNN) and to further
to compare PAL designs.
Method: A simple two hidden layer CNN was trained to classify the gap
orientations of Landolt Cs by combining the feature extraction abilities of a
CNN with psychophysical staircase methods. The simulation was validated
regarding its predictability of clinical VA from induced spherical defocus
(between +/-1.5 D, step size: 0.5 D) from 39 subjectively measured eyes.
Afterwards, a simulation for a presbyopic eye corrected by either a generic
hard or a soft PAL design (addition power: 2.5 D) was performed including lower
and higher order aberrations.
Result: The validation revealed consistent offset of +0.20 logMAR +/-0.035
logMAR from simulated VA. Bland-Altman analysis from offset-corrected results
showed limits of agreement (+/-1.96 SD) of -0.08 logMAR and +0.07 logMAR, which
is comparable to clinical repeatability of VA assessment. The application of
the simulation for PALs confirmed a bigger far zone for generic hard design but
did not reveal zone width differences for the intermediate or near zone.
Furthermore, a horizontal area of better VA at the mid of the PAL was found,
which confirms the importance for realistic performance simulations using
object-based aberration and physiological performance measures as VA.
Conclusion: The proposed holistic simulation tool was shown to act as an
accurate model for subjective visual performance. Further, the simulations
application for PALs indicated its potential as an effective method to compare
visual performance of different optical designs. Moreover, the simulation
provides the basis to incorporate neural aspects of visual perception and thus
simulate the VA including neural processing in future.
- Abstract(参考訳): 目的: 本研究の目的は,畳み込みニューラルネットワーク(cnn)に基づいて視覚視力(va)を予測する枠組みを示し,pal設計を比較することである。
方法: 簡単な2つの隠蔽層CNNを訓練し, CNNの特徴抽出能力と心理的階段法を組み合わせたランドルトCsのギャップ配向を分類した。
主観的に測定した39眼から誘導された球面脱焦点(+/-1.5d, ステップサイズ: 0.5d)から臨床用vaの予測可能性についてシミュレーションを行った。
その後,低次および高次収差を含む汎用ハードまたはソフトpal設計(付加力2.5d)により補正された眼前眼のシミュレーションを行った。
結果: 0.20 logmar +/-0.035 logmarのオフセットが一致し, オフセット補正結果からのva.bland-altman解析では-0.08 logmarと+0.07 logmarの一致限界(+/-1.96 sd)が確認された。
palsに対するシミュレーションの適用により、汎用ハード設計のためのより大きな遠方領域が確認されたが、中間層と近傍のゾーン幅の違いは明らかではなかった。
さらに,PALの中央でより優れたVAの水平領域が発見され,物体収差を用いた現実的な性能シミュレーションや生理的性能測定がVAとして重要であることが確認された。
結論: 提案する総合シミュレーションツールは, 主観的視覚性能の正確なモデルとして機能することが示された。
さらに、PALのシミュレーション応用は、異なる光学設計の視覚性能を比較する効果的な方法としての可能性を示した。
さらに、シミュレーションは視覚知覚の神経的側面を組み込んだ基礎を提供し、将来的な神経処理を含むvaをシミュレートする。
関連論文リスト
- CeCNN: Copula-enhanced convolutional neural networks in joint prediction
of refraction error and axial length based on ultra-widefield fundus images [6.787893694522311]
本稿では,ガウスコプラによる応答間の依存性を組み込んだ,コプラ強化畳み込みニューラルネットワーク(CeCNN)フレームワークを提案する。
バックボーンモデルに依存性情報を追加すると,CeCNNの精度が向上することを示す。
論文 参考訳(メタデータ) (2023-11-07T13:06:50Z) - Physics Inspired Hybrid Attention for SAR Target Recognition [61.01086031364307]
本稿では,物理にヒントを得たハイブリットアテンション(PIHA)機構と,この問題に対処するためのOFA評価プロトコルを提案する。
PIHAは、物理的情報の高レベルなセマンティクスを活用して、ターゲットの局所的なセマンティクスを認識した特徴群を活性化し、誘導する。
提案手法は,ASCパラメータが同じ12のテストシナリオにおいて,他の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2023-09-27T14:39:41Z) - Near-realtime Facial Animation by Deep 3D Simulation Super-Resolution [7.14576106770047]
本稿では,低コストでリアルタイムな物理シミュレーションによって生み出す顔のパフォーマンスを効率よく,現実的に向上させるニューラルネットワークに基づくシミュレーションフレームワークを提案する。
顔のアニメーションをこのようなシミュレーション領域の例に用いて,2つのシミュレータで同じ筋の運動制御と骨格のポーズを単純にダイヤルすることで,この意味の一致を創り出すことができる。
提案するニューラルネットワーク超解像フレームワークは,このトレーニングセットから未確認表現を一般化し,リアルタイム変種における解像度の制限やコスト削減近似による2つのシミュレーション間の不一致をモデル化するための補償を行うとともに,意味記述子やパラメータを必要としない。
論文 参考訳(メタデータ) (2023-05-05T00:09:24Z) - Convolutional Neural Generative Coding: Scaling Predictive Coding to
Natural Images [79.07468367923619]
畳み込み型神経生成符号化(Conv-NGC)を開発した。
我々は、潜伏状態マップを段階的に洗練する柔軟な神経生物学的動機付けアルゴリズムを実装した。
本研究は,脳にインスパイアされたニューラル・システムによる再建と画像復調の課題に対する効果について検討する。
論文 参考訳(メタデータ) (2022-11-22T06:42:41Z) - Neural Posterior Estimation with Differentiable Simulators [58.720142291102135]
微分可能シミュレータを用いてニューラル・ポストミラー推定(NPE)を行う新しい手法を提案する。
勾配情報が後部形状の制約にどのように役立ち、試料効率を向上させるかを示す。
論文 参考訳(メタデータ) (2022-07-12T16:08:04Z) - Flexible Amortized Variational Inference in qBOLD MRI [56.4324135502282]
データから酸素抽出率(OEF)と脱酸素血液量(DBV)をより明瞭に決定する。
既存の推論手法では、DBVを過大評価しながら非常にノイズの多い、過小評価されたEFマップが得られる傾向にある。
本研究は, OEFとDBVの可算分布を推定できる確率論的機械学習手法について述べる。
論文 参考訳(メタデータ) (2022-03-11T10:47:16Z) - Investigation of REFINED CNN ensemble learning for anti-cancer drug
sensitivity prediction [0.0]
個々の細胞株に対するディープラーニングモデルを用いた抗がん剤感受性予測は、パーソナライズされた医療において重要な課題である。
ReFINED CNN(Convolutional Neural Network)ベースのモデルでは、薬物感受性の予測に有望な結果が示されている。
我々は,このようなマッピングから構築されたアンサンブルに基づいて,最高の1つのREFINED CNNモデル予測を改善することができる予測について検討する。
論文 参考訳(メタデータ) (2020-09-09T02:27:29Z) - Appearance Learning for Image-based Motion Estimation in Tomography [60.980769164955454]
トモグラフィー画像では、取得した信号に擬似逆フォワードモデルを適用することにより、解剖学的構造を再構成する。
患者の動きは、復元過程における幾何学的アライメントを損なうため、運動アーティファクトが生じる。
本研究では,スキャン対象から独立して剛性運動の構造を認識する外観学習手法を提案する。
論文 参考訳(メタデータ) (2020-06-18T09:49:11Z) - Leveraging Vision and Kinematics Data to Improve Realism of Biomechanic
Soft-tissue Simulation for Robotic Surgery [13.657060682152409]
ロボット内視鏡手術で得られたライブデータは,不正確なFEMシミュレーション結果の修正にどのように用いられるかを検討する。
我々はオープンソースのda Vinciオペレーショナルシステムを用いて,ソフトチップのファントムを探索し,シミュレーションでインタラクションを再現する。
予測メッシュ位置と測定点雲との差を補正するために,ネットワークをトレーニングする。
論文 参考訳(メタデータ) (2020-03-14T00:16:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。