論文の概要: Influence of field of view in visual prostheses design: Analysis with a VR system
- arxiv url: http://arxiv.org/abs/2501.17322v1
- Date: Tue, 28 Jan 2025 22:25:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-30 15:53:26.462799
- Title: Influence of field of view in visual prostheses design: Analysis with a VR system
- Title(参考訳): 視覚装具設計における視野の影響:VRシステムを用いた解析
- Authors: Melani Sanchez-Garcia, Ruben Martinez-Cantin, Jesus Bermudez-Cameo, Jose J. Guerrero,
- Abstract要約: 視覚補綴における空間分解能に対する視野の影響を評価する。
通常視認される被験者は24名に、通常の物体の発見と認識を依頼された。
その結果、視野が大きくなると精度と応答時間が低下することがわかった。
- 参考スコア(独自算出の注目度): 3.9998518782208783
- License:
- Abstract: Visual prostheses are designed to restore partial functional vision in patients with total vision loss. Retinal visual prostheses provide limited capabilities as a result of low resolution, limited field of view and poor dynamic range. Understanding the influence of these parameters in the perception results can guide prostheses research and design. In this work, we evaluate the influence of field of view with respect to spatial resolution in visual prostheses, measuring the accuracy and response time in a search and recognition task. Twenty-four normally sighted participants were asked to find and recognize usual objects, such as furniture and home appliance in indoor room scenes. For the experiment, we use a new simulated prosthetic vision system that allows simple and effective experimentation. Our system uses a virtual-reality environment based on panoramic scenes. The simulator employs a head-mounted display which allows users to feel immersed in the scene by perceiving the entire scene all around. Our experiments use public image datasets and a commercial head-mounted display. We have also released the virtual-reality software for replicating and extending the experimentation. Results show that the accuracy and response time decrease when the field of view is increased. Furthermore, performance appears to be correlated with the angular resolution, but showing a diminishing return even with a resolution of less than 2.3 phosphenes per degree. Our results seem to indicate that, for the design of retinal prostheses, it is better to concentrate the phosphenes in a small area, to maximize the angular resolution, even if that implies sacrificing field of view.
- Abstract(参考訳): 視覚補綴は、全視喪失患者の部分的機能的視覚を回復するように設計されている。
網膜視覚補綴は、低解像度、視野の制限、ダイナミックレンジの低さの結果、限られた機能を提供する。
これらのパラメータが知覚結果に与える影響を理解することは、人工装具の研究と設計を導くことができる。
本研究では,視覚補綴における空間分解能に対する視野の影響を評価し,探索・認識作業における精度と応答時間を測定した。
室内の部屋のシーンで家具や家電など、通常の物を見つけ、認識するよう、通常24人の参加者に依頼された。
本実験では, 簡易かつ効果的に実験できる人工視覚システムを開発した。
本システムはパノラマシーンに基づく仮想現実環境を利用する。
シミュレーターはヘッドマウントディスプレイを採用しており、周囲のシーン全体を知覚することで、ユーザーはシーンに没入感を覚えることができる。
実験では,公開画像データセットと商用ヘッドマウントディスプレイを用いた。
実験の複製と拡張のための仮想現実ソフトウェアもリリースしました。
その結果、視野が大きくなると精度と応答時間が低下することがわかった。
さらに、性能は角分解能と相関しているように見えるが、1度あたり2.3フォスフェン未満の解像度でもリターンは低下している。
以上の結果から, 網膜補綴器の設計においては, 視界を犠牲にするような角度分解能を最大化するために, 微小領域にホスフェインを集中させる方がよいと考えられた。
関連論文リスト
- Towards Understanding Depth Perception in Foveated Rendering [8.442383621450247]
立体視の深度知覚にフェーベレートレンダリングが与える影響を調べた最初の評価を行った。
我々の分析では、立体視力は高レベルの周囲のぼかしの影響を受けていない(あるいは改善されている)ことが示されている。
以上の結果から, 卵胞形成は立体視の深度知覚に影響を与えず, 立体視は一般的に用いられるよりも2倍強い卵胞形成に影響を与えていないことが示唆された。
論文 参考訳(メタデータ) (2025-01-28T16:06:29Z) - When Does Perceptual Alignment Benefit Vision Representations? [76.32336818860965]
視覚モデル表現と人間の知覚的判断との整合がユーザビリティに与える影響について検討する。
モデルと知覚的判断を一致させることで、多くの下流タスクで元のバックボーンを改善する表現が得られることがわかった。
その結果,人間の知覚的知識に関する帰納バイアスを視覚モデルに注入することは,より良い表現に寄与することが示唆された。
論文 参考訳(メタデータ) (2024-10-14T17:59:58Z) - RLPeri: Accelerating Visual Perimetry Test with Reinforcement Learning
and Convolutional Feature Extraction [8.88154717905851]
RLPeriは、視覚的ペリメトリテストの最適化のための強化学習に基づくアプローチである。
我々は、正確な結果を提供しながら、視覚的腹腔鏡検査をより効率的かつ患者に優しいものにすることを目指している。
論文 参考訳(メタデータ) (2024-03-08T07:19:43Z) - Neural feels with neural fields: Visuo-tactile perception for in-hand
manipulation [57.60490773016364]
マルチフィンガーハンドの視覚と触覚を組み合わせることで,手動操作時の物体の姿勢と形状を推定する。
提案手法であるNeuralFeelsは,ニューラルネットワークをオンラインで学習することでオブジェクトの形状を符号化し,ポーズグラフ問題を最適化して共同で追跡する。
私たちの結果は、タッチが少なくとも、洗練され、そして最も最良のものは、手動操作中に視覚的推定を曖昧にすることを示しています。
論文 参考訳(メタデータ) (2023-12-20T22:36:37Z) - ColorSense: A Study on Color Vision in Machine Visual Recognition [57.916512479603064]
視覚認識ベンチマークから,前景や背景色ラベルの非自明なアノテーション110,000点を収集する。
色識別のレベルがマシン認識モデルの性能に与える影響を実証することにより、データセットの使用を検証した。
その結果,分類や局所化などの物体認識タスクは,色覚バイアスの影響を受けやすいことが示唆された。
論文 参考訳(メタデータ) (2022-12-16T18:51:41Z) - Plausible May Not Be Faithful: Probing Object Hallucination in
Vision-Language Pre-training [66.0036211069513]
大規模視覚言語事前学習モデルは、テキストを生成する際に、存在しない視覚オブジェクトを幻覚させる傾向がある。
標準メトリクスでより良いスコアを得るモデルは、オブジェクトをより頻繁に幻覚させる可能性があることを示す。
驚いたことに、パッチベースの機能が最も良く、より小さなパッチ解決は、オブジェクト幻覚の非自明な減少をもたらす。
論文 参考訳(メタデータ) (2022-10-14T10:27:22Z) - Peripheral Vision Transformer [52.55309200601883]
我々は生物学的にインスパイアされたアプローチを採用し、視覚認識のためのディープニューラルネットワークの周辺視覚をモデル化する。
本稿では,マルチヘッド自己アテンション層に周辺位置エンコーディングを組み込むことにより,トレーニングデータから視覚領域を様々な周辺領域に分割することをネットワークが学べるようにすることを提案する。
大規模画像Netデータセット上でPerViTと呼ばれる提案したネットワークを評価し,マシン知覚モデルの内部動作を体系的に検討した。
論文 参考訳(メタデータ) (2022-06-14T12:47:47Z) - Assessing visual acuity in visual prostheses through a virtual-reality
system [7.529227133770206]
現在の視覚インプラントは、非常に低解像度で視野が限られており、インプラント患者では視力に制限がある。
我々は,仮想現実感ソフトウェアと携帯型ヘッドマウントディスプレイを組み合わせて,模擬義肢視覚下での通常視認者の性能を評価する。
その結果, 視力は1.3logMAR, 20deg, 1000 phosphene で, 視力は1.3 logMARであった。
論文 参考訳(メタデータ) (2022-05-20T18:24:15Z) - Deep Learning--Based Scene Simplification for Bionic Vision [0.0]
対象のセグメンテーションは,視覚的サリエンシと単眼深度推定に基づくモデルよりも,シーン理解を支援する可能性が示唆された。
この研究は、網膜変性疾患を患っている人に対する人工視覚の有用性を大幅に改善する可能性がある。
論文 参考訳(メタデータ) (2021-01-30T19:35:33Z) - VisualEchoes: Spatial Image Representation Learning through Echolocation [97.23789910400387]
いくつかの動物種(コウモリ、イルカ、クジラなど)や視覚障害者さえもエコーロケーションを行う能力を持っている。
エコーロケーションを用いて有用な視覚特徴を学習する対話型表現学習フレームワークを提案する。
我々の研究は、物理的世界との相互作用によって監督される、エンボディエージェントのための表現学習の新しい道を開く。
論文 参考訳(メタデータ) (2020-05-04T16:16:58Z) - Semantic and structural image segmentation for prosthetic vision [2.048226951354646]
実環境における物体認識とシーン理解の能力は,義肢使用者に対して厳しく制限されている。
フォスフェン画像のための屋内環境のスキーマ表現を構築するための新しい手法を提案する。
提案手法は,関連情報を抽出,伝達するための様々な畳み込みニューラルネットワークを組み合わせる。
論文 参考訳(メタデータ) (2018-09-25T17:38:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。