論文の概要: Comparing verbal, visual and combined explanations for Bayesian Network inferences
- arxiv url: http://arxiv.org/abs/2511.16961v1
- Date: Fri, 21 Nov 2025 05:25:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-24 18:08:18.894353
- Title: Comparing verbal, visual and combined explanations for Bayesian Network inferences
- Title(参考訳): ベイジアンネットワーク推論における言語的・視覚的・複合的説明の比較
- Authors: Erik P. Nyberg, Steven Mascaro, Ingrid Zukerman, Michael Wybrow, Duc-Minh Vo, Ann Nicholson,
- Abstract要約: 我々は、一般的な推論パターンを通してユーザを誘導するために、標準BN UIの言語的および視覚的な拡張を設計した。
言語的,視覚的,複合的なUI拡張と,ベースラインUIを比較するために,ユーザスタディを実施しました。
本研究の主目的は,(1) 利用者は,観察の影響,この影響を可能にする経路,観察が他の観察の影響にどう影響するか,といった質問に対して,ベースラインUIよりも3種類の拡張に優れていた。
- 参考スコア(独自算出の注目度): 9.168534391430098
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Bayesian Networks (BNs) are an important tool for assisting probabilistic reasoning, but despite being considered transparent models, people have trouble understanding them. Further, current User Interfaces (UIs) still do not clarify the reasoning of BNs. To address this problem, we have designed verbal and visual extensions to the standard BN UI, which can guide users through common inference patterns. We conducted a user study to compare our verbal, visual and combined UI extensions, and a baseline UI. Our main findings are: (1) users did better with all three types of extensions than with the baseline UI for questions about the impact of an observation, the paths that enable this impact, and the way in which an observation influences the impact of other observations; and (2) using verbal and visual modalities together is better than using either modality alone for some of these question types.
- Abstract(参考訳): Bayesian Networks (BNs) は確率論的推論を支援する重要なツールであるが、透明なモデルと見なされているにもかかわらず、人々はそれらを理解するのに苦労している。
さらに、現在のユーザーインターフェイス(UI)はBNの理由を明らかにしていない。
この問題に対処するため、我々は標準BN UIの言語的および視覚的拡張を設計し、共通の推論パターンを通してユーザを誘導する。
言語的,視覚的,複合的なUI拡張と,ベースラインUIを比較するために,ユーザスタディを実施しました。
本研究の主目的は,(1)観察による影響,この影響を許容する経路,および観察が他の観察の影響に影響を及ぼす方法に関する質問に対して,ベースラインUIよりも3種類の拡張を併用した方がよいこと,(2) 言語的・視覚的モダリティを併用することの方が,これらの質問に対して単独でモダリティを使用するよりも優れていること,である。
関連論文リスト
- BLINK-Twice: You see, but do you observe? A Reasoning Benchmark on Visual Perception [67.89135437537179]
我々は視覚中心の推論ベンチマークであるBLINK-Twiceを紹介した。
外部の知識に頼るのではなく、私たちのタスクは視覚的コンテンツのみから推論するモデルを必要とします。
事前の知覚ベンチマークと比較すると、浅い知覚を超越し、きめ細かい観察と分析的推論を必要とする。
論文 参考訳(メタデータ) (2025-10-10T13:14:13Z) - DeepVIS: Bridging Natural Language and Data Visualization Through Step-wise Reasoning [13.565750967870569]
本稿では,CoT推論を自然言語から可視化(NL2VIS)パイプラインに統合することを提案する。
まず,NL2VISのための包括的CoT推論プロセスを設計し,構造化された推論ステップで既存のデータセットを装備する自動パイプラインを開発する。
第二にnvBench-CoTは、曖昧な自然言語記述から最終的な視覚化まで、ステップバイステップの詳細な推論をキャプチャする特殊なデータセットである。
第3に,CoT推論プロセスと密に統合された対話型ビジュアルインタフェースであるDeepVISを開発する。
論文 参考訳(メタデータ) (2025-08-03T10:04:17Z) - User Feedback in Human-LLM Dialogues: A Lens to Understand Users But Noisy as a Learning Signal [59.120335322495436]
ユーザ-LLM会話ログのユーザフィードバックを分析し、そのようなフィードバックの発生時期と理由について考察する。
第2に、このような暗黙のユーザフィードバックから学習信号を抽出することについて研究する。
論文 参考訳(メタデータ) (2025-07-30T23:33:29Z) - Do MLLMs Capture How Interfaces Guide User Behavior? A Benchmark for Multimodal UI/UX Design Understanding [45.81445929920235]
WeserUI-Benchは、モデルによるUI/UX設計のマルチモーダル理解を評価するための新しいベンチマークである。
現実世界のUIイメージペアは300種類あり、それぞれが実際の企業によって大規模にテストされた2つの設計版A/Bで構成されている。
このベンチマークでは,(1)A/Bテストで検証された勝者を予測することで,より効果的なUI/UX設計を選択すること,(2)モデルの勝者が,専門家の推論に従って,その有効性を説明することができること,の2つのコアタスクをサポートする。
論文 参考訳(メタデータ) (2025-05-08T08:00:32Z) - GUME: Graphs and User Modalities Enhancement for Long-Tail Multimodal Recommendation [13.1192216083304]
本稿では,長期マルチモーダルレコメンデーションのための新しいグラフとユーザモダリティエンハンスメント(GUME)を提案する。
具体的には、アイテム間のマルチモーダルな類似性を用いて、まずユーザ-テムグラフを拡張します。
次に、明示的なインタラクション機能と拡張された関心機能という2つのタイプのユーザモダリティを構築します。
論文 参考訳(メタデータ) (2024-07-17T06:29:00Z) - Understanding Before Recommendation: Semantic Aspect-Aware Review Exploitation via Large Language Models [53.337728969143086]
レコメンデーションシステムは、クリックやレビューのようなユーザとイテムのインタラクションを利用して表現を学習する。
従来の研究では、様々な側面や意図にまたがるユーザの嗜好をモデル化することで、推奨精度と解釈可能性を改善する。
そこで本研究では,意味的側面と認識的相互作用を明らかにするためのチェーンベースのプロンプト手法を提案する。
論文 参考訳(メタデータ) (2023-12-26T15:44:09Z) - Enhancing HOI Detection with Contextual Cues from Large Vision-Language Models [56.257840490146]
ConCueは、HOI検出における視覚的特徴抽出を改善するための新しいアプローチである。
コンテクストキューをインスタンスと相互作用検出器の両方に統合するマルチトウワーアーキテクチャを用いたトランスフォーマーベースの特徴抽出モジュールを開発した。
論文 参考訳(メタデータ) (2023-11-26T09:11:32Z) - Visual Commonsense based Heterogeneous Graph Contrastive Learning [79.22206720896664]
視覚的推論タスクをより良く仕上げるための異種グラフコントラスト学習法を提案する。
本手法はプラグイン・アンド・プレイ方式として設計されており,多種多様な代表手法と迅速かつ容易に組み合わせることができる。
論文 参考訳(メタデータ) (2023-11-11T12:01:18Z) - Understanding Visual Saliency in Mobile User Interfaces [31.278845008743698]
30の参加者と193のモバイルUIによる制御研究の結果を紹介します。
結果は、ユーザが見る方向を導く上で、期待する役割を物語っている。
モバイルUIの視覚的サリエンシを調査するための最初の注釈付きデータセットをリリースする。
論文 参考訳(メタデータ) (2021-01-22T15:45:13Z) - Quantifying Learnability and Describability of Visual Concepts Emerging
in Representation Learning [91.58529629419135]
我々は、ディープニューラルネットワークによって自動的に発見された視覚的なグルーピングを特徴付ける方法を検討する。
本稿では、任意の画像グループ化の解釈可能性の定量化に使用できる視覚的学習可能性と記述可能性という2つの概念を紹介する。
論文 参考訳(メタデータ) (2020-10-27T18:41:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。