論文の概要: V-SHiNE: A Virtual Smart Home Framework for Explainability Evaluation
- arxiv url: http://arxiv.org/abs/2602.11775v1
- Date: Thu, 12 Feb 2026 09:53:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.756243
- Title: V-SHiNE: A Virtual Smart Home Framework for Explainability Evaluation
- Title(参考訳): V-SHiNE: 説明可能性評価のための仮想スマートホームフレームワーク
- Authors: Mersedeh Sadeghi, Simon Scholz, Max Unterbusch, Andreas Vogelsang,
- Abstract要約: V-SHiNEはブラウザベースのスマートホームシミュレーションフレームワークである。
研究者は環境を設定し、振る舞いをシミュレートし、カスタムな説明エンジンをプラグインできる。
159人の参加者による研究は、その実現可能性を示している。
- 参考スコア(独自算出の注目度): 1.18094111609063
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explanations are essential for helping users interpret and trust autonomous smart-home decisions, yet evaluating their quality and impact remains methodologically difficult in this domain. V-SHiNE addresses this gap: a browser-based smarthome simulation framework for scalable and realistic assessment of explanations. It allows researchers to configure environments, simulate behaviors, and plug in custom explanation engines, with flexible delivery modes and rich interaction logging. A study with 159 participants demonstrates its feasibility. V-SHiNE provides a lightweight, reproducible platform for advancing user-centered evaluation of explainable intelligent systems
- Abstract(参考訳): 説明は、ユーザーが自律的なスマートホーム決定を解釈し、信頼するのを助けるのに不可欠であるが、その品質と影響は、この領域では方法論的に難しいままである。
V-SHiNEは、説明のスケーラブルで現実的な評価のためのブラウザベースのスマートホームシミュレーションフレームワークである。
研究者は環境を設定し、振る舞いをシミュレートし、フレキシブルなデリバリモードとリッチなインタラクションログで独自の説明エンジンをプラグインできる。
159人の参加者による研究は、その実現可能性を示している。
V-SHiNEは、説明可能なインテリジェントシステムのユーザ中心評価を促進する軽量で再現可能なプラットフォームを提供する
関連論文リスト
- MetAdv: A Unified and Interactive Adversarial Testing Platform for Autonomous Driving [85.04826012938642]
MetAdvは、現実的でダイナミックでインタラクティブな評価を可能にする、新しい対向テストプラットフォームである。
フレキシブルな3D車両モデリングと、シミュレートされた環境と物理的環境のシームレスな遷移をサポートする。
生理的信号のリアルタイムキャプチャとドライバからの行動フィードバックを可能にする。
論文 参考訳(メタデータ) (2025-08-04T03:07:54Z) - Exploring Context-aware and LLM-driven Locomotion for Immersive Virtual Reality [8.469329222500726]
大規模言語モデル(LLM)を利用した新しい移動法を提案する。
制御器を用いたテレポーテーション,音声によるステアリング,言語モデルによるアプローチの3つの方法を評価する。
以上の結果から, LLM駆動の移動は, 確立された方法と比較して, ユーザビリティ, 存在, サイバーシックネスのスコアが同等であることが示唆された。
論文 参考訳(メタデータ) (2025-04-24T07:48:09Z) - V-MAGE: A Game Evaluation Framework for Assessing Vision-Centric Capabilities in Multimodal Large Language Models [84.27290155010533]
本稿では,視覚中心型多機能ゲーム評価(V-MAGE)について紹介する。
V-MAGEは、30以上の慎重に構築された評価シナリオからなる5つの異なるビデオゲームを特徴としている。
V-MAGEは、動的かつインタラクティブな設定において、MLLMの視覚的および推論能力を改善するために実行可能な洞察を提供する。
論文 参考訳(メタデータ) (2025-04-08T15:43:01Z) - Embodied Scene Understanding for Vision Language Models via MetaVQA [42.70816811661304]
視覚言語モデル(VLM)は、様々なモビリティアプリケーションにAIエージェントを組み込む可能性を示している。
本稿では,VLMの空間的関係とシーンダイナミクスに対する理解度を評価するための総合的なベンチマークであるMetaVQAを提案する。
実験の結果,MetaVQAデータセットを用いた微調整VLMは,安全クリティカルシミュレーションにおける空間的推論と環境理解を著しく改善することがわかった。
論文 参考訳(メタデータ) (2025-01-15T21:36:19Z) - Self-Supervised Interpretable End-to-End Learning via Latent Functional Modularity [2.163881720692685]
MoNetは、自己教師付き、解釈可能なエンドツーエンド学習のための、機能的にモジュール化されたネットワークである。
現実世界の屋内環境では、MoNetは効果的な視覚自律ナビゲーションを示し、ベースラインモデルを7%から28%上回っている。
論文 参考訳(メタデータ) (2024-02-21T15:17:20Z) - SmartEx: A Framework for Generating User-Centric Explanations in Smart
Environments [2.2217676348694213]
本稿では,ユーザ中心の説明をスマート環境に組み込むアプローチを提案する。
私たちの仕事は、スマートな環境でコンテキスト認識と詳細な説明を生成するための、最初の技術的ソリューションです。
論文 参考訳(メタデータ) (2024-02-20T14:07:18Z) - Towards Ubiquitous Semantic Metaverse: Challenges, Approaches, and
Opportunities [68.03971716740823]
近年,拡張現実(AR)および仮想現実(VR)ユーザーのための没入型サイバーバーチャル体験に革命をもたらすために,ユビキタスセマンティック・メタバースが研究されている。
この調査は、ユビキタスメタバースにおける4つの基本システムコンポーネントの表現とインテリジェンスに焦点を当てる。
論文 参考訳(メタデータ) (2023-07-13T11:14:46Z) - DeFINE: Delayed Feedback based Immersive Navigation Environment for
Studying Goal-Directed Human Navigation [10.7197371210731]
DeFINE(Delayed Feedback Based Immersive Navigation Environment)は、ナビゲーションタスクの作成と管理を容易にするフレームワークである。
DeFINEは、実験中に参加者にパフォーマンスフィードバックを提供するビルトイン機能を備えている。
論文 参考訳(メタデータ) (2020-03-06T11:00:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。