論文の概要: Visual Analytics for Explainable and Trustworthy Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2507.10240v1
- Date: Mon, 14 Jul 2025 13:03:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:24.961345
- Title: Visual Analytics for Explainable and Trustworthy Artificial Intelligence
- Title(参考訳): 説明可能な信頼できる人工知能のためのビジュアルアナリティクス
- Authors: Angelos Chatzimparmpas,
- Abstract要約: AI採用の大きな障害は、透明性の欠如にある。
多くの自動化システムはブラックボックスとして機能し、基盤となるプロセスを明らかにすることなく予測を提供する。
ビジュアル分析(VA)は、AIモデルとインタラクティブな視覚化を組み合わせることで、魅力的なソリューションを提供する。
- 参考スコア(独自算出の注目度): 2.1212179660694104
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Our society increasingly depends on intelligent systems to solve complex problems, ranging from recommender systems suggesting the next movie to watch to AI models assisting in medical diagnoses for hospitalized patients. With the iterative improvement of diagnostic accuracy and efficiency, AI holds significant potential to mitigate medical misdiagnoses by preventing numerous deaths and reducing an economic burden of approximately 450 EUR billion annually. However, a key obstacle to AI adoption lies in the lack of transparency: many automated systems function as "black boxes," providing predictions without revealing the underlying processes. This opacity can hinder experts' ability to trust and rely on AI systems. Visual analytics (VA) provides a compelling solution by combining AI models with interactive visualizations. These specialized charts and graphs empower users to incorporate their domain expertise to refine and improve the models, bridging the gap between AI and human understanding. In this work, we define, categorize, and explore how VA solutions can foster trust across the stages of a typical AI pipeline. We propose a design space for innovative visualizations and present an overview of our previously developed VA dashboards, which support critical tasks within the various pipeline stages, including data processing, feature engineering, hyperparameter tuning, understanding, debugging, refining, and comparing models.
- Abstract(参考訳): 我々の社会はますます、複雑な問題を解決するためのインテリジェントなシステムに依存している。次の映画を見るための推薦システムから、入院した患者の診断を支援するAIモデルまで。
診断精度と効率の反復的な改善により、AIは、多数の死を予防し、年間約450億の経済的負担を減らすことで、医療的誤診を緩和する大きな可能性を秘めている。
しかし、AIの採用の大きな障害は透明性の欠如にある。多くの自動化システムは“ブラックボックス”として機能し、基盤となるプロセスを明らかにすることなく予測を提供する。
この不透明さは、専門家のAIシステムへの信頼と依存を妨げる可能性がある。
ビジュアル分析(VA)は、AIモデルとインタラクティブな視覚化を組み合わせることで、魅力的なソリューションを提供する。
これらの専門的なチャートとグラフは、AIと人間の理解のギャップを埋めることで、モデルの洗練と改善にドメインの専門知識を取り入れることを可能にする。
本研究では、VAソリューションが一般的なAIパイプラインのステージで信頼を育む方法を定義し、分類し、検討する。
本稿では,データ処理,機能工学,ハイパーパラメータチューニング,理解,デバッグ,精細化,モデルの比較など,さまざまなパイプラインステージにおける重要なタスクをサポートする,これまで開発したVAダッシュボードの概要を紹介する。
関連論文リスト
- Explainable AI for Collaborative Assessment of 2D/3D Registration Quality [50.65650507103078]
本稿では,2D/3D登録品質検証に特化して訓練された最初の人工知能フレームワークを提案する。
我々の説明可能なAI(XAI)アプローチは、人間のオペレーターに対する情報意思決定を強化することを目的としている。
論文 参考訳(メタデータ) (2025-07-23T15:28:57Z) - AIGI-Holmes: Towards Explainable and Generalizable AI-Generated Image Detection via Multimodal Large Language Models [78.08374249341514]
AI生成コンテンツ(AIGC)の急速な発展は、誤情報を拡散するAIGIの誤用につながった。
大規模で包括的なデータセットであるHolmes-Setを導入し、画像がAI生成されているかどうかを解説したインストラクションチューニングデータセットを含む。
本研究は,MLLMの構造化説明と品質管理によるデータ生成を効率化する,Multi-Expert Juryと呼ばれる効率的なデータアノテーション手法を提案する。
さらに,視覚専門家による事前学習,教師付き微調整,直接選好最適化を含む3段階学習フレームワークであるHolmes Pipelineを提案する。
論文 参考訳(メタデータ) (2025-07-03T14:26:31Z) - Beyond Black-Box AI: Interpretable Hybrid Systems for Dementia Care [2.4339626079536925]
近年の大規模言語モデル(LLM)のブームは、人工知能(AI)システムが医療診断に役立つという期待を再燃させた。
ベンチマークスコアはめちゃくちゃですが、LCMアシスタントはまだベッドサイドで測定可能な改善を提供していません。
このスクーピングレビューは、臨床現場で実践的な貢献をするためにAIが制限されている領域を強調することを目的としている。
論文 参考訳(メタデータ) (2025-07-02T01:43:06Z) - AI Automatons: AI Systems Intended to Imitate Humans [54.19152688545896]
人々の行動、仕事、能力、類似性、または人間性を模倣するように設計されたAIシステムが増加している。
このようなAIシステムの研究、設計、展開、可用性は、幅広い法的、倫理的、その他の社会的影響に対する懸念を喚起している。
論文 参考訳(メタデータ) (2025-03-04T03:55:38Z) - AI-in-the-loop: The future of biomedical visual analytics applications in the era of AI [3.0942901747200975]
データ分析におけるAIの大規模開発は、将来のデータ視覚化とビジュアル分析をどう形成するか?
ますます強力なAIの文脈における機会、オープンな課題、脅威とは何か?
我々は、バイオメディカルビジュアライゼーションを研究分野として変革するAIの可能性を強調した。
論文 参考訳(メタデータ) (2024-12-20T13:27:24Z) - Data Analysis in the Era of Generative AI [56.44807642944589]
本稿では,AIを活用したデータ分析ツールの可能性について考察する。
我々は、大規模言語とマルチモーダルモデルの出現が、データ分析ワークフローの様々な段階を強化する新しい機会を提供する方法について検討する。
次に、直感的なインタラクションを促進し、ユーザ信頼を構築し、AI支援分析ワークフローを複数のアプリにわたって合理化するための、人間中心の設計原則を調べます。
論文 参考訳(メタデータ) (2024-09-27T06:31:03Z) - The Limits of Perception: Analyzing Inconsistencies in Saliency Maps in XAI [0.0]
説明可能な人工知能(XAI)は、AIの意思決定プロセスの解明に不可欠である。
ブラックボックス」として機能し、その理由が曖昧でアクセスできないため、誤診のリスクが高まる。
この透明性へのシフトは、単に有益であるだけでなく、医療におけるAI統合の責任を負うための重要なステップでもある。
論文 参考訳(メタデータ) (2024-03-23T02:15:23Z) - Applying Bayesian Ridge Regression AI Modeling in Virus Severity
Prediction [0.0]
医療専門家に最先端ウイルス分析をもたらすAIモデルであるBayesian Ridge Regressionの長所と短所をレビューする。
モデルの精度評価は有望な結果を示し、改善の余地があった。
さらに、重症度指数は、患者のケアニーズを概観するための貴重なツールとして機能する。
論文 参考訳(メタデータ) (2023-10-14T04:17:00Z) - Representation Engineering: A Top-Down Approach to AI Transparency [130.33981757928166]
表現工学の新たな領域(RepE)を特定し,特徴付ける
RepEは、神経細胞や回路ではなく、人口レベルの表現を解析の中心に置く。
これらの手法が、広範囲の安全関連問題に対してどのようにトラクションを提供するかを紹介する。
論文 参考訳(メタデータ) (2023-10-02T17:59:07Z) - A Conceptual Algorithm for Applying Ethical Principles of AI to Medical Practice [5.005928809654619]
AIを利用するツールは、複数のドメインにまたがる専門家レベルのパフォーマンスに、ますます一致するか、超えている。
これらのシステムは、人口、人種、社会経済の境界を越えたケア提供の格差を減らすことを約束している。
このようなAIツールの民主化は、ケアコストを削減し、リソース割り当てを最適化し、ケアの質を向上させる。
論文 参考訳(メタデータ) (2023-04-23T04:14:18Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。