論文の概要: Evaluating Node-tree Interfaces for AI Explainability
- arxiv url: http://arxiv.org/abs/2510.06457v1
- Date: Tue, 07 Oct 2025 20:48:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.196537
- Title: Evaluating Node-tree Interfaces for AI Explainability
- Title(参考訳): AI説明可能性のためのノードツリーインタフェースの評価
- Authors: Lifei Wang, Natalie Friedman, Chengchao Zhu, Zeshu Zhu, S. Joy Mountford,
- Abstract要約: 本研究では,ノードツリーインタフェースとチャットボットという,2つの異なるAIインターフェースを用いたユーザエクスペリエンスを評価する。
我々のノードツリーインタフェースは、AI生成した応答を階層的に整理された対話的なノードに視覚的に構造化する。
この結果から,構造化された可視化と会話形式を切り替えることのできるAIインターフェースが,AIシステムにおける透明性とユーザ信頼性を著しく向上させる可能性が示唆された。
- 参考スコア(独自算出の注目度): 0.5437050212139087
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As large language models (LLMs) become ubiquitous in workplace tools and decision-making processes, ensuring explainability and fostering user trust are critical. Although advancements in LLM engineering continue, human-centered design is still catching up, particularly when it comes to embedding transparency and trust into AI interfaces. This study evaluates user experiences with two distinct AI interfaces - node-tree interfaces and chatbot interfaces - to assess their performance in exploratory, follow-up inquiry, decision-making, and problem-solving tasks. Our design-driven approach introduces a node-tree interface that visually structures AI-generated responses into hierarchically organized, interactive nodes, allowing users to navigate, refine, and follow up on complex information. In a comparative study with n=20 business users, we observed that while the chatbot interface effectively supports linear, step-by-step queries, it is the node-tree interface that enhances brainstorming. Quantitative and qualitative findings indicate that node-tree interfaces not only improve task performance and decision-making support but also promote higher levels of user trust by preserving context. Our findings suggest that adaptive AI interfaces capable of switching between structured visualizations and conversational formats based on task requirements can significantly enhance transparency and user confidence in AI-powered systems. This work contributes actionable insights to the fields of human-robot interaction and AI design, particularly for enterprise applications where trust-building is critical for teams.
- Abstract(参考訳): 大規模言語モデル(LLM)が職場ツールや意思決定プロセスで普及するにつれて、説明可能性の確保とユーザ信頼の育成が重要となる。
LLMエンジニアリングの進歩は続いているが、特に透明性と信頼をAIインターフェースに組み込むという点では、人間中心の設計が追いついている。
本研究では,ノードツリーインタフェースとチャットボットインターフェースという2つの異なるAIインターフェースを用いたユーザエクスペリエンスを評価し,探索,フォローアップ調査,意思決定,問題解決タスクにおけるパフォーマンスを評価する。
設計駆動のアプローチでは、AI生成された応答を階層的に構成された対話的なノードに視覚的に構造化するノードツリーインターフェースを導入しています。
n=20のビジネスユーザとの比較では、チャットボットインターフェースが線形でステップバイステップのクエリを効果的にサポートしているのに対して、ブレインストーミングを強化するのはノードツリーインターフェースであることがわかった。
定量的および定性的な結果から,ノードツリーインタフェースはタスク性能と意思決定サポートを改善するだけでなく,コンテキストを保存することでユーザ信頼度を高めることが示唆された。
この結果から,タスク要求に基づいて,構造化視覚化と会話形式を切り替えることのできる適応型AIインタフェースは,AIシステムにおける透明性とユーザ信頼性を著しく向上させる可能性が示唆された。
この研究は、人間とロボットのインタラクションとAI設計の分野、特にチームにとって信頼構築が重要なエンタープライズアプリケーションに、実用的な洞察をもたらします。
関連論文リスト
- Generative Interfaces for Language Models [70.25765232527762]
ユーザインタフェース(UI)を積極的に生成することにより,大規模言語モデル(LLM)がユーザクエリに応答するパラダイムを提案する。
本フレームワークは,ユーザクエリをタスク固有のUIに変換するために,構造化インターフェース固有の表現と反復的洗練を活用している。
その結果、生成的インタフェースは人間の嗜好を最大72%改善し、会話的インタフェースよりも一貫して優れていた。
論文 参考訳(メタデータ) (2025-08-26T17:43:20Z) - Voice CMS: updating the knowledge base of a digital assistant through conversation [0.0]
本稿では,デジタルアシスタントの知識ベースを更新するためのマルチエージェントLLMアーキテクチャと音声ユーザインタフェース(VUI)に基づくソリューションを提案する。
そのユーザビリティは、従来のグラフィカルコンテンツ管理システム(CMS)と比較して評価される。
この結果から,VUI全体のユーザビリティはグラフィカルインターフェースよりも低く評価されているものの,より複雑なタスクに対しては,すでにユーザが好んでいることが示唆された。
論文 参考訳(メタデータ) (2025-05-28T12:40:37Z) - Interactive Agents to Overcome Ambiguity in Software Engineering [61.40183840499932]
AIエージェントは、あいまいで不明確なユーザー指示に基づいて、タスクを自動化するためにますますデプロイされている。
不安定な仮定をし、明確な質問をしないことは、最適以下の結果につながる可能性がある。
対話型コード生成設定において,LLMエージェントが不明瞭な命令を処理する能力について,プロプライエタリモデルとオープンウェイトモデルを評価して検討する。
論文 参考訳(メタデータ) (2025-02-18T17:12:26Z) - Dynamic User Interface Generation for Enhanced Human-Computer Interaction Using Variational Autoencoders [4.1676654279172265]
本研究では,変分オートエンコーダ(VAE)モデルに基づく,インテリジェントなユーザインタラクションインタフェース生成と最適化のための新しいアプローチを提案する。
VAEベースのアプローチは、オートエンコーダ(AE)、生成敵ネットワーク(GAN)、条件付きGAN(cGAN)、ディープ信頼ネットワーク(DBN)、VAE-GAN(VAE-GAN)などの他の手法と比較して、インタフェース生成の品質と精度を著しく向上させる。
論文 参考訳(メタデータ) (2024-12-19T04:37:47Z) - Collaborative Instance Object Navigation: Leveraging Uncertainty-Awareness to Minimize Human-Agent Dialogues [54.81155589931697]
協調インスタンスオブジェクトナビゲーション(CoIN)は、エージェントがターゲットインスタンスに関する不確実性を積極的に解決する新しいタスク設定である。
未認識者に対するエージェント・ユーザインタラクション(AIUTA)の新たな学習自由化手法を提案する。
まず、オブジェクト検出時に、セルフクエチオナーモデルがエージェント内で自己対話を開始し、完全かつ正確な観察記述を得る。
インタラクショントリガーモジュールは、人間に質問するか、継続するか、ナビゲーションを停止するかを決定する。
論文 参考訳(メタデータ) (2024-12-02T08:16:38Z) - Survey of User Interface Design and Interaction Techniques in Generative AI Applications [79.55963742878684]
我々は,デザイナやディベロッパの参照として使用できる,さまざまなユーザインタラクションパターンのコンペレーションを作ることを目指している。
また、生成AIアプリケーションの設計についてもっと学ぼうとする人たちの参入障壁を低くしようと努力しています。
論文 参考訳(メタデータ) (2024-10-28T23:10:06Z) - Rules Of Engagement: Levelling Up To Combat Unethical CUI Design [23.01296770233131]
いわゆる暗黒パターンの先行研究から得られた5次元のインタフェースを簡易に評価する手法を提案する。
提案手法はユーザに対して,評価されたインタフェースの操作性を表す数値スコアを提供する。
論文 参考訳(メタデータ) (2022-07-19T14:02:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。