論文の概要: An Information-Theoretic Framework for Comparing Voice and Text Explainability
- arxiv url: http://arxiv.org/abs/2602.07179v1
- Date: Fri, 06 Feb 2026 20:28:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.487035
- Title: An Information-Theoretic Framework for Comparing Voice and Text Explainability
- Title(参考訳): 音声とテキストの説明可能性を比較する情報理論フレームワーク
- Authors: Mona Rajhans, Vishal Khawarey,
- Abstract要約: 本稿では,AIシステムにおける説明モダリティがユーザの理解と信頼の校正にどのように影響するかを分析するための情報理論フレームワークを提案する。
提案モデルは,情報保持,理解効率(CE),信頼校正誤差(TCE)の指標を特徴とする,モデルとユーザ間のコミュニケーションチャネルとして説明配信を扱う。
その結果,テキスト説明は理解効率が向上し,音声説明は信頼度を向上し,アナログベースの配信は全体的なトレードオフを最大限に達成していることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainable Artificial Intelligence (XAI) aims to make machine learning models transparent and trustworthy, yet most current approaches communicate explanations visually or through text. This paper introduces an information theoretic framework for analyzing how explanation modality specifically, voice versus text affects user comprehension and trust calibration in AI systems. The proposed model treats explanation delivery as a communication channel between model and user, characterized by metrics for information retention, comprehension efficiency (CE), and trust calibration error (T CE). A simulation framework implemented in Python was developed to evaluate these metrics using synthetic SHAP based feature attributions across multiple modality style configurations (brief, detailed, and analogy based). Results demonstrate that text explanations achieve higher comprehension efficiency, while voice explanations yield improved trust calibration, with analogy based delivery achieving the best overall trade off. This framework provides a reproducible foundation for designing and benchmarking multimodal explainability systems and can be extended to empirical studies using real SHAP or LIME outputs on open datasets such as the UCI Credit Approval or Kaggle Financial Transactions datasets.
- Abstract(参考訳): 説明可能な人工知能(XAI)は、機械学習モデルを透明で信頼性の高いものにすることを目的としている。
本稿では、AIシステムにおける説明モダリティ、音声対テキストがユーザの理解と信頼度にどのように影響するかを分析するための情報理論フレームワークを提案する。
提案モデルは,情報保持,理解効率(CE),信頼校正誤差(TCE)の指標を特徴とする,モデルとユーザ間のコミュニケーションチャネルとして説明配信を扱う。
Pythonで実装されたシミュレーションフレームワークは、複数のモーダルスタイル構成(ブリーフ、詳細、アナロジーベース)にまたがる合成SHAPベースの特徴属性を用いて、これらの指標を評価するために開発された。
その結果,テキスト説明は理解効率が向上し,音声説明は信頼度を向上し,アナログベースの配信は全体的なトレードオフを最大限に達成していることがわかった。
このフレームワークは、マルチモーダルな説明可能性システムの設計とベンチマークのための再現可能な基盤を提供し、UCICredit ApprovalやKaggle Financial Transactionsデータセットのようなオープンデータセット上で、実際のSHAPまたはLIME出力を使用して経験的な研究に拡張することができる。
関連論文リスト
- eX-NIDS: A Framework for Explainable Network Intrusion Detection Leveraging Large Language Models [3.8436076642278745]
本稿では,フローベースネットワーク侵入検知システム(NIDS)における解釈可能性を高めるためのフレームワークであるeX-NIDSを紹介する。
提案フレームワークでは、NIDSによって悪意のあるものとしてラベル付けされたフローは、最初にPrompt Augmenterと呼ばれるモジュールによって処理される。
このモジュールは、これらのフローからコンテキスト情報とサイバー脅威インテリジェンス(CTI)関連の知識を抽出する。
このリッチでコンテキスト固有のデータは、LLMの入力プロンプトと統合され、NIDSによってフローが悪質であると認識された理由の詳細な説明と解釈を生成できる。
論文 参考訳(メタデータ) (2025-07-22T05:26:21Z) - Hierarchical Interaction Summarization and Contrastive Prompting for Explainable Recommendations [9.082885521130617]
本稿では、階層的相互作用要約(PGHIS)によるプロファイル生成と、説明生成(CPEG)のための対照的なプロンプトを組み合わせた新しいアプローチを提案する。
提案手法は既存の最先端手法よりも優れており,説明可能性(GPTScoreの5%など)とテキスト品質に関する指標の大幅な改善を実現している。
論文 参考訳(メタデータ) (2025-07-08T14:45:47Z) - ExplainBench: A Benchmark Framework for Local Model Explanations in Fairness-Critical Applications [0.0]
ローカルモデル説明の体系的な評価を行うためのオープンソースのベンチマークスイートであるExplainBenchを紹介する。
フレームワークにはインタラクティブな探索のためのStreamlitベースのグラフィカルインターフェースが含まれており、Pythonモジュールとしてパッケージ化されている。
ExplainBenchはCompAS, UCI Adult Income, LendingClubなどのフェアネス研究でよく使われるデータセット上で実証する。
論文 参考訳(メタデータ) (2025-05-31T01:12:23Z) - CELA: Cost-Efficient Language Model Alignment for CTR Prediction [70.65910069412944]
CTR(Click-Through Rate)予測は、レコメンダシステムにおいて最重要位置を占める。
最近の取り組みは、プレトレーニング言語モデル(PLM)を統合することでこれらの課題を緩和しようとしている。
CTR予測のためのtextbfCost-textbfEfficient textbfLanguage Model textbfAlignment (textbfCELA)を提案する。
論文 参考訳(メタデータ) (2024-05-17T07:43:25Z) - Explaining Text Similarity in Transformer Models [52.571158418102584]
説明可能なAIの最近の進歩により、トランスフォーマーの説明の改善を活用することで、制限を緩和できるようになった。
両線形類似性モデルにおける2次説明の計算のために開発された拡張であるBiLRPを用いて、NLPモデルにおいてどの特徴相互作用が類似性を促進するかを調べる。
我々の発見は、異なる意味的類似性タスクやモデルに対するより深い理解に寄与し、新しい説明可能なAIメソッドが、どのようにして深い分析とコーパスレベルの洞察を可能にするかを強調した。
論文 参考訳(メタデータ) (2024-05-10T17:11:31Z) - Unifying Structure and Language Semantic for Efficient Contrastive
Knowledge Graph Completion with Structured Entity Anchors [0.3913403111891026]
知識グラフ補完(KGC)の目標は、すでに知られている訓練された事実を用いて、KGの欠落したリンクを予測することである。
本稿では,帰納的推論の力を失うことなく,構造情報と言語意味を効果的に統一する手法を提案する。
論文 参考訳(メタデータ) (2023-11-07T11:17:55Z) - Scalable Learning of Latent Language Structure With Logical Offline
Cycle Consistency [71.42261918225773]
概念的には、LOCCOは、トレーニング対象のセマンティクスを使用してラベルなしテキストのアノテーションを生成する、自己学習の一形態と見なすことができる。
追加ボーナスとして、LOCCOによって生成されたアノテーションは、神経テキスト生成モデルをトレーニングするために自明に再利用することができる。
論文 参考訳(メタデータ) (2023-05-31T16:47:20Z) - Interpretable Sentence Representation with Variational Autoencoders and
Attention [0.685316573653194]
自然言語処理(NLP)における近年の表現学習技術の解釈可能性を高める手法を開発した。
変動オートエンコーダ (VAEs) は, 遅延生成因子の観測に有効である。
帰納的バイアスを持つ2つのモデルを構築し、潜在表現の情報を注釈付きデータなしで理解可能な概念に分離する。
論文 参考訳(メタデータ) (2023-05-04T13:16:15Z) - Interpretable Mixture of Experts [71.55701784196253]
Interpretable Mixture of Experts (IME)は本質的に解釈可能なモデリングフレームワークである。
IMEは単一の解釈可能なモデルよりも正確であることが示され、既存の最先端のDeep Neural Networks(DNN)と正確に比較できる。
IMEの説明は、ユーザスタディを通じて一般的に使われているポストホックな説明法と比較される。
論文 参考訳(メタデータ) (2022-06-05T06:40:15Z) - Interpretable Multi-dataset Evaluation for Named Entity Recognition [110.64368106131062]
本稿では,名前付きエンティティ認識(NER)タスクに対する一般的な評価手法を提案する。
提案手法は,モデルとデータセットの違いと,それらの間の相互作用を解釈することを可能にする。
分析ツールを利用可能にすることで、将来の研究者が同様の分析を実行し、この分野の進歩を促進することができる。
論文 参考訳(メタデータ) (2020-11-13T10:53:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。