論文の概要: Human-Centered Explainability in AI-Enhanced UI Security Interfaces: Designing Trustworthy Copilots for Cybersecurity Analysts
- arxiv url: http://arxiv.org/abs/2601.22653v1
- Date: Fri, 30 Jan 2026 07:18:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.293109
- Title: Human-Centered Explainability in AI-Enhanced UI Security Interfaces: Designing Trustworthy Copilots for Cybersecurity Analysts
- Title(参考訳): AIによるUIセキュリティインターフェースにおける人間中心の説明可能性:サイバーセキュリティアナリストのための信頼できるコパイロットの設計
- Authors: Mona Rajhans,
- Abstract要約: 本稿では、AI駆動型セキュリティダッシュボードにおける説明設計戦略の混合手法について述べる。
その結果,説明スタイルがユーザの信頼度,判断精度,認知負荷に大きく影響していることが判明した。
この研究は、サイバーセキュリティにおける人間中心のAIツールの設計を前進させ、他の高度なドメインにおける説明可能性に広範な意味を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial intelligence (AI) copilots are increasingly integrated into enterprise cybersecurity platforms to assist analysts in threat detection, triage, and remediation. However, the effectiveness of these systems depends not only on the accuracy of underlying models but also on the degree to which users can understand and trust their outputs. Existing research on algorithmic explainability has largely focused on model internals, while little attention has been given to how explanations should be surfaced in user interfaces for high-stakes decision-making contexts [8], [5], [6]. We present a mixed-methods study of explanation design strategies in AI-driven security dashboards. Through a taxonomy of explanation styles and a controlled user study with security practitioners, we compare natural language rationales, confidence visualizations, counterfactual explanations, and hybrid approaches. Our findings show that explanation style significantly affects user trust calibration, decision accuracy, and cognitive load. We contribute (1) empirical evidence on the usability of explanation interfaces for security copilots, (2) design guidelines for integrating explainability into enterprise UIs, and (3) a framework for aligning explanation strategies with analyst needs in security operations centers (SOCs). This work advances the design of human-centered AI tools in cybersecurity and provides broader implications for explainability in other high-stakes domains.
- Abstract(参考訳): 人工知能(AI)のコパイロットは、脅威検出、トリアージ、修復のアナリストを支援するために、企業のサイバーセキュリティプラットフォームにますます統合されている。
しかし、これらのシステムの有効性は、基礎となるモデルの精度だけでなく、ユーザがアウトプットを理解し信頼できる程度にも依存する。
アルゴリズムの説明可能性に関する既存の研究は、主にモデル内部に焦点が当てられてきたが、高精細な意思決定コンテキスト [8], [5], [6] に対して、ユーザインターフェースで説明がどのように表面化されるべきかについてはほとんど注目されていない。
本稿では、AI駆動型セキュリティダッシュボードにおける説明設計戦略の混合手法について述べる。
説明スタイルの分類と、セキュリティ実践者との制御されたユーザスタディを通じて、自然言語の合理性、信頼性の可視化、対実的説明、ハイブリッドアプローチを比較した。
その結果,説明スタイルがユーザの信頼度,判断精度,認知負荷に大きく影響していることが判明した。
本研究は,(1)セキュリティ協力のための説明インターフェースのユーザビリティに関する実証的証拠,(2)エンタープライズUIに説明可能性を統合するための設計ガイドライン,(3)セキュリティ運用センター(SOCs)におけるアナリストニーズと説明戦略を整合させる枠組みを提示する。
この研究は、サイバーセキュリティにおける人間中心のAIツールの設計を前進させ、他の高度なドメインにおける説明可能性に広範な意味を提供する。
関連論文リスト
- L-XAIDS: A LIME-based eXplainable AI framework for Intrusion Detection Systems [4.711103317066182]
人工知能(AI)の最近の発展と重要な産業における応用は、AIにおける説明可能性の研究の急増につながっている。
本稿では,侵入検知システム決定の枠組みを提案する。
我々のフレームワークはUNSW-NB15データセット上での攻撃行動の分類における精度のパーセントを達成することができる。
論文 参考訳(メタデータ) (2025-08-24T07:47:39Z) - Towards Trustworthy GUI Agents: A Survey [64.6445117343499]
本調査では,GUIエージェントの信頼性を5つの重要な次元で検証する。
敵攻撃に対する脆弱性、シーケンシャルな意思決定における障害モードのカスケードなど、大きな課題を特定します。
GUIエージェントが普及するにつれて、堅牢な安全基準と責任ある開発プラクティスを確立することが不可欠である。
論文 参考訳(メタデータ) (2025-03-30T13:26:00Z) - Too Much to Trust? Measuring the Security and Cognitive Impacts of Explainability in AI-Driven SOCs [0.6990493129893112]
説明可能なAI(XAI)は、AIによる脅威検出の透明性と信頼性を高めるための大きな約束を持っている。
本研究は、セキュリティコンテキストにおける現在の説明手法を再評価し、SOCに適合したロールアウェアでコンテキストに富んだXAI設計が実用性を大幅に向上できることを実証する。
論文 参考訳(メタデータ) (2025-03-03T21:39:15Z) - Interactive Agents to Overcome Ambiguity in Software Engineering [61.40183840499932]
AIエージェントは、あいまいで不明確なユーザー指示に基づいて、タスクを自動化するためにますますデプロイされている。
不安定な仮定をし、明確な質問をしないことは、最適以下の結果につながる可能性がある。
対話型コード生成設定において,LLMエージェントが不明瞭な命令を処理する能力について,プロプライエタリモデルとオープンウェイトモデルを評価して検討する。
論文 参考訳(メタデータ) (2025-02-18T17:12:26Z) - Computational Safety for Generative AI: A Signal Processing Perspective [65.268245109828]
計算安全性は、GenAIにおける安全性の定量的評価、定式化、研究を可能にする数学的枠組みである。
ジェイルブレイクによる悪意のあるプロンプトを検出するために, 感度解析と損失景観解析がいかに有効かを示す。
我々は、AIの安全性における信号処理の鍵となる研究課題、機会、そして重要な役割について論じる。
論文 参考訳(メタデータ) (2025-02-18T02:26:50Z) - Safetywashing: Do AI Safety Benchmarks Actually Measure Safety Progress? [59.96471873997733]
我々は、より有意義な安全指標を開発するための実証的な基盤を提案し、機械学習研究の文脈でAIの安全性を定義する。
我々は、AI安全研究のためのより厳格なフレームワークを提供し、安全性評価の科学を前進させ、測定可能な進歩への道筋を明らかにすることを目指している。
論文 参考訳(メタデータ) (2024-07-31T17:59:24Z) - Enhancing Trust in Autonomous Agents: An Architecture for Accountability and Explainability through Blockchain and Large Language Models [0.3495246564946556]
この研究は、ROSベースの移動ロボットに実装された説明可能性と説明可能性のアーキテクチャを示す。
提案されたソリューションは2つの主要コンポーネントで構成されている。まず、説明責任を提供するブラックボックスのような要素で、ブロックチェーン技術によって達成されるアンチタンパ特性を特徴とする。
第二に、前述のブラックボックスに含まれるデータに対して、Large Language Models(LLM)の機能を利用することで、自然言語の説明を生成するコンポーネントである。
論文 参考訳(メタデータ) (2024-03-14T16:57:18Z) - Explainable Intrusion Detection Systems (X-IDS): A Survey of Current
Methods, Challenges, and Opportunities [0.0]
侵入検知システム(IDS)は、大量のデータを高い予測精度で処理できるため、広く採用されている。
深層学習(DL)技術を用いて設計されたIDSは、ブラックボックスモデルとして扱われることが多く、予測の正当化は提供されない。
この調査では、IDSの最先端AI(XAI)とその現在の課題についてレビューし、これらの課題がX-IDSの設計にどのように当てはまるかを論じる。
論文 参考訳(メタデータ) (2022-07-13T14:31:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。