論文の概要: Context-Aware Visualization for Explainable AI Recommendations in Social Media: A Vision for User-Aligned Explanations
- arxiv url: http://arxiv.org/abs/2508.00674v1
- Date: Fri, 01 Aug 2025 14:47:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-04 18:08:53.91743
- Title: Context-Aware Visualization for Explainable AI Recommendations in Social Media: A Vision for User-Aligned Explanations
- Title(参考訳): ソーシャルメディアにおける説明可能なAIレコメンデーションのためのコンテキスト認識可視化 : ユーザ指向の説明のためのビジョン
- Authors: Banan Alkhateeb, Ellis Solaiman,
- Abstract要約: 本稿では,多様な説明手法を用いた視覚的説明システムを提案する。
私たちのフレームワークは、説明スタイル(ビジュアル vs. 数値)と粒度(エキスパート vs. レイ)を1つのパイプラインで共同で適用する最初のフレームワークです。
30人のXユーザーがいる公共パイロットは、意思決定と信頼への影響を検証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Social media platforms today strive to improve user experience through AI recommendations, yet the value of such recommendations vanishes as users do not understand the reasons behind them. This issue arises because explainability in social media is general and lacks alignment with user-specific needs. In this vision paper, we outline a user-segmented and context-aware explanation layer by proposing a visual explanation system with diverse explanation methods. The proposed system is framed by the variety of user needs and contexts, showing explanations in different visualized forms, including a technically detailed version for AI experts and a simplified one for lay users. Our framework is the first to jointly adapt explanation style (visual vs. numeric) and granularity (expert vs. lay) inside a single pipeline. A public pilot with 30 X users will validate its impact on decision-making and trust.
- Abstract(参考訳): ソーシャルメディアプラットフォームは現在、AIレコメンデーションを通じてユーザーエクスペリエンスを改善しようとしているが、そのようなレコメンデーションの価値は、ユーザがその背景にある理由を理解していないため消滅している。
この問題は、ソーシャルメディアにおける説明可能性が一般的であり、ユーザ固有のニーズと一致していないためである。
本稿では,多様な説明手法を用いた視覚的説明システムを提案することで,ユーザ分離型・コンテキスト認識型説明層を概説する。
提案システムには,さまざまなユーザニーズやコンテキストが組み込まれており,AI専門家のための技術的詳細バージョンや,素人ユーザのための簡略化版など,さまざまな視覚化形式の説明が提供されている。
私たちのフレームワークは、説明スタイル(ビジュアル vs. 数値)と粒度(エキスパート vs. レイ)を1つのパイプラインで共同で適用する最初のフレームワークです。
30人のXユーザーがいる公共パイロットは、意思決定と信頼への影響を検証する。
関連論文リスト
- Interactive Visualization Recommendation with Hier-SUCB [52.11209329270573]
本稿では,従来のインタラクションからユーザフィードバックを学習する対話型パーソナライズドビジュアライゼーションレコメンデーション(PVisRec)システムを提案する。
よりインタラクティブで正確なレコメンデーションのために、PVisRec設定における文脈的半帯域であるHier-SUCBを提案する。
論文 参考訳(メタデータ) (2025-02-05T17:14:45Z) - Fool Me Once? Contrasting Textual and Visual Explanations in a Clinical Decision-Support Setting [43.110187812734864]
視覚的説明(可用性マップ)、自然言語の説明、両方のモダリティの組み合わせの3種類の説明を評価した。
テキストに基づく説明は、高い信頼度をもたらすことが分かっており、従順マップと組み合わせることで軽減される。
また、説明の質、すなわち、それがどれだけ事実的に正しい情報であり、それがAIの正しさとどの程度一致しているかが、異なる説明タイプの有用性に大きく影響していることも観察します。
論文 参考訳(メタデータ) (2024-10-16T06:43:02Z) - Tell me more: Intent Fulfilment Framework for Enhancing User Experiences in Conversational XAI [0.6333053895057925]
本稿では,ユーザのXAIニーズに対して,異なるタイプの説明が協調的にどのように適合するかを考察する。
Intent Fulfilment Framework (IFF)を導入した。
Explanation Experience Dialogue Model は IFF と "Explanation Followups" を統合し,対話型インターフェースを提供する。
論文 参考訳(メタデータ) (2024-05-16T21:13:43Z) - Behaviour Trees for Conversational Explanation Experiences [1.5257668132713955]
本稿では、ユーザがXAIシステムと対話して、説明戦略によって満たされた複数の説明要求を満たす方法に焦点を当てる。
対話型説明体験を対話モデルとしてモデル化する。
実世界のユースケースを用いた評価では、BTには、モデリングや説明経験の取得に自然に寄与する多くの特性がある。
論文 参考訳(メタデータ) (2022-11-11T18:39:38Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z) - Human Evaluation of Spoken vs. Visual Explanations for Open-Domain QA [22.76153284711981]
本研究は,ODQAシステムの回答をいつ受理するか,拒否するかをユーザが正確に判断するのに役立つかを検討する。
その結果,得られたエビデンスパスから得られた説明は,モダリティ間で強いベースライン(校正信頼度)を上回る可能性が示唆された。
我々は,現在の説明に共通する障害事例を示し,説明のエンドツーエンド評価を強調し,デプロイと異なるプロキシモダリティで評価することを警告する。
論文 参考訳(メタデータ) (2020-12-30T08:19:02Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - Explainable Recommender Systems via Resolving Learning Representations [57.24565012731325]
説明はユーザー体験を改善し、システムの欠陥を発見するのに役立つ。
本稿では,表現学習プロセスの透明性を向上させることによって,説明可能な新しい推薦モデルを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:30:48Z) - Interacting with Explanations through Critiquing [40.69540222716043]
本稿では,レビューテキストからレコメンデーションのパーソナライズされた説明を生成する手法を提案する。
我々は,最先端技術による説明よりも,人間の方がこれらの説明をはるかに好んでいることを示す。
私たちの仕事の最も重要なイノベーションは、ユーザーがテキストの説明を批判することでレコメンデーションに反応できることです。
論文 参考訳(メタデータ) (2020-05-22T09:03:06Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - Hybrid Deep Embedding for Recommendations with Dynamic Aspect-Level
Explanations [60.78696727039764]
アスペクトベースの説明可能なレコメンデーションのためのHybrid Deep Embeddingと呼ばれる新しいモデルを提案する。
HDEの主な考え方は、評価予測のためにユーザとアイテムの動的埋め込みを学ぶことである。
ユーザ/イテムのアスペクトの好みや品質が自動的に学習されるため、HDEは、ユーザや項目のレビューで言及されていないアスペクトの影響を捉えることができる。
論文 参考訳(メタデータ) (2020-01-18T13:16:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。