論文の概要: Audio-Visual-Olfactory Resource Allocation for Tri-modal Virtual
Environments
- arxiv url: http://arxiv.org/abs/2002.02671v1
- Date: Fri, 7 Feb 2020 08:59:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 04:55:26.300382
- Title: Audio-Visual-Olfactory Resource Allocation for Tri-modal Virtual
Environments
- Title(参考訳): トライモーダル仮想環境における音響・視覚・嗅覚リソース割り当て
- Authors: Efstratios Doukakis, Kurt Debattista, Thomas Bashford-Rogers, Amar
Dhokia, Ali Asadipour, Alan Chalmers and Carlo Harvey
- Abstract要約: 本稿では,聴覚刺激,視覚刺激,嗅覚刺激からなるマルチモーダルシナリオの資源バランスについて検討する。
その結果,他の感覚刺激と比較して視覚的品質が優先される傾向が示唆された。
品質予測モデルを提案し、その精度を未使用の予算に対して検証する。
- 参考スコア(独自算出の注目度): 9.427979328713338
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Virtual Environments (VEs) provide the opportunity to simulate a wide range
of applications, from training to entertainment, in a safe and controlled
manner. For applications which require realistic representations of real world
environments, the VEs need to provide multiple, physically accurate sensory
stimuli. However, simulating all the senses that comprise the human sensory
system (HSS) is a task that requires significant computational resources. Since
it is intractable to deliver all senses at the highest quality, we propose a
resource distribution scheme in order to achieve an optimal perceptual
experience within the given computational budgets. This paper investigates
resource balancing for multi-modal scenarios composed of aural, visual and
olfactory stimuli. Three experimental studies were conducted. The first
experiment identified perceptual boundaries for olfactory computation. In the
second experiment, participants (N=25) were asked, across a fixed number of
budgets (M=5), to identify what they perceived to be the best visual, acoustic
and olfactory stimulus quality for a given computational budget. Results
demonstrate that participants tend to prioritise visual quality compared to
other sensory stimuli. However, as the budget size is increased, users prefer a
balanced distribution of resources with an increased preference for having
smell impulses in the VE. Based on the collected data, a quality prediction
model is proposed and its accuracy is validated against previously unused
budgets and an untested scenario in a third and final experiment.
- Abstract(参考訳): 仮想環境(ves)は、トレーニングからエンターテイメントまで、安全かつ制御された方法で、幅広いアプリケーションをシミュレートする機会を提供する。
現実の環境の現実的な表現を必要とするアプリケーションには、VEは複数の物理的に正確な感覚刺激を提供する必要がある。
しかし、人間の感覚システム(hss)を構成する全ての感覚をシミュレートすることは、重要な計算資源を必要とするタスクである。
高い品質で全ての感覚を届けることが困難であるため、与えられた計算予算内で最適な知覚経験を達成するため、資源分配方式を提案する。
本稿では,聴覚刺激,視覚刺激,嗅覚刺激からなるマルチモーダルシナリオの資源バランスについて検討する。
実験は3回行われた。
最初の実験で嗅覚計算の知覚境界が特定された。
第2の実験では,一定数の予算 (m=5) において,与えられた計算予算に対して,視覚,音響,嗅覚の刺激品質が最も良いと感じているものを識別するために参加者 (n=25) に求めた。
その結果、参加者は他の感覚刺激と比較して視覚品質を優先する傾向が見られた。
しかし,予算規模が大きくなるにつれ,利用者はVEの匂い刺激を好んで資源のバランスの取れた分布を好んだ。
収集したデータに基づいて品質予測モデルを提案し、その精度を3回目の実験で未使用の予算と未検証のシナリオに対して検証する。
関連論文リスト
- OPUS: Occupancy Prediction Using a Sparse Set [64.60854562502523]
学習可能なクエリの集合を用いて、占有された場所とクラスを同時に予測するフレームワークを提案する。
OPUSには、モデルパフォーマンスを高めるための非自明な戦略が組み込まれている。
最も軽量なモデルではOcc3D-nuScenesデータセットの2倍 FPS に優れたRayIoUが得られる一方、最も重いモデルは6.1 RayIoUを上回ります。
論文 参考訳(メタデータ) (2024-09-14T07:44:22Z) - mmID: High-Resolution mmWave Imaging for Human Identification [16.01613518230451]
本稿では,条件付き生成逆数ネットワーク(cGAN)を用いて人体全体を推定することで画像分解能を向上させることを提案する。
本システムは,人間の識別に有用な特徴を抽出できる,環境に依存しない高解像度画像を生成する。
その結果,Kinectデバイスに5%のシルエット差が認められた。
論文 参考訳(メタデータ) (2024-02-01T20:19:38Z) - Feature Selection and Hyperparameter Fine-tuning in Artificial Neural
Networks for Wood Quality Classification [0.0]
製材業における木板の品質分類は重要な課題である。
機械学習アルゴリズムは問題の調査に成功しており、他のソリューションよりも安価な代替手段を提供する。
本稿では,ANN(Artificial Neural Network)のハイパーパラメータを同時に調整することの問題点と,木質基板の品質をよりよく記述する特徴のサブセットを選択することについて検討する。
論文 参考訳(メタデータ) (2023-10-20T13:32:45Z) - Joint Sensing, Communication, and AI: A Trifecta for Resilient THz User
Experiences [118.91584633024907]
テラヘルツ(THz)無線システムに対する拡張現実(XR)体験を最適化するために、新しい共同センシング、通信、人工知能(AI)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-29T00:39:50Z) - Revisiting the Evaluation of Image Synthesis with GANs [55.72247435112475]
本研究では, 合成性能の評価に関する実証的研究を行い, 生成モデルの代表としてGAN(Generative Adversarial Network)を用いた。
特に、表現空間におけるデータポイントの表現方法、選択したサンプルを用いた公平距離の計算方法、各集合から使用可能なインスタンス数など、さまざまな要素の詳細な分析を行う。
論文 参考訳(メタデータ) (2023-04-04T17:54:32Z) - A Comprehensive Study of Image Classification Model Sensitivity to
Foregrounds, Backgrounds, and Visual Attributes [58.633364000258645]
このデータセットをRIVAL10と呼びます。
本研究では,前景,背景,属性の騒音劣化に対する幅広いモデルの感度を評価する。
本稿では,多種多様な最先端アーキテクチャ (ResNets, Transformers) とトレーニング手順 (CLIP, SimCLR, DeiT, Adversarial Training) について考察する。
論文 参考訳(メタデータ) (2022-01-26T06:31:28Z) - Output Space Entropy Search Framework for Multi-Objective Bayesian
Optimization [32.856318660282255]
高価な関数評価(実験とも呼ばれる)を用いたブラックボックス多目的最適化(MOO)
出力空間エントロピー(OSE)探索の原理に基づいてMOO問題を解決するための一般的なフレームワークを提案する。
我々のOSE検索に基づくアルゴリズムは、MOOソリューションの計算効率と精度の両方の観点から最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2021-10-13T18:43:39Z) - BEHAVIOR: Benchmark for Everyday Household Activities in Virtual,
Interactive, and Ecological Environments [70.18430114842094]
本稿では,シミュレーションにおける100のアクティビティを持つAIのベンチマークであるBEHAVIORを紹介する。
これらの活動は現実的で多様性があり、複雑であるように設計されています。
われわれは、バーチャルリアリティー(VR)における500件の人間デモを含む。
論文 参考訳(メタデータ) (2021-08-06T23:36:23Z) - A Systematic Evaluation of Domain Adaptation in Facial Expression
Recognition [0.0]
本稿では,表情認識における領域適応の体系的評価について述べる。
我々は、最先端のトランスファー学習技術と、6つの一般的な顔表情データセットを使用する。
その結果,移動学習の精度は高くなく,目的のデータセットと慣用的に異なることがわかった。
論文 参考訳(メタデータ) (2021-06-29T14:41:19Z) - Prediction of progressive lens performance from neural network
simulations [62.997667081978825]
本研究の目的は,畳み込みニューラルネットワーク(CNN)に基づく視覚的視力(VA)予測の枠組みを提案することである。
提案する総合シミュレーションツールは主観的視覚性能の正確なモデルとして機能することが示されている。
論文 参考訳(メタデータ) (2021-03-19T14:51:02Z) - Automated Human Activity Recognition by Colliding Bodies
Optimization-based Optimal Feature Selection with Recurrent Neural Network [0.0]
HAR(Human Activity Recognition)は、センサの読み取りから広範に計算を行う上で、効率的なモデルであると考えられている。
本稿では,UC Irvine Machine Learning Repository(UCI)で公開されているスマートセンサから収集したデータを用いて,ディープラーニングを用いたHARシステムの実装を誘致する。
論文 参考訳(メタデータ) (2020-10-07T10:58:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。