論文の概要: A Mobile Application Front-End for Presenting Explainable AI Results in Diabetes Risk Estimation
- arxiv url: http://arxiv.org/abs/2601.15292v1
- Date: Tue, 09 Dec 2025 04:42:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-25 16:54:51.831685
- Title: A Mobile Application Front-End for Presenting Explainable AI Results in Diabetes Risk Estimation
- Title(参考訳): 糖尿病リスク推定における説明可能なAI結果提示のためのモバイルアプリケーションフロントエンド
- Authors: Bernardus Willson, Henry Anand Septian Radityo, Reynard Tanadi, Latifa Dwiyanti, Saiful Akbar,
- Abstract要約: 本研究の目的は,XAIによる糖尿病リスク分析を直感的で理解可能な形式で提示するモバイルアプリケーションフロントエンドを開発することである。
このアプリケーションはKotlinとJetpack Composeを使ってAndroid向けに開発された。
その結果得られたプロトタイプは、重要なXAIアプローチであるSHAPを、アクセス可能なグラフィカルな視覚化と物語に解釈する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diabetes is a significant and continuously rising health challenge in Indonesia. Although many artificial intelligence (AI)-based health applications have been developed for early detection, most function as "black boxes," lacking transparency in their predictions. Explainable AI (XAI) methods offer a solution, yet their technical outputs are often incomprehensible to non-expert users. This research aims to develop a mobile application front-end that presents XAI-driven diabetes risk analysis in an intuitive, understandable format. Development followed the waterfall methodology, comprising requirements analysis, interface design, implementation, and evaluation. Based on user preference surveys, the application adopts two primary visualization types - bar charts and pie charts - to convey the contribution of each risk factor. These are complemented by personalized textual narratives generated via integration with GPT-4o. The application was developed natively for Android using Kotlin and Jetpack Compose. The resulting prototype interprets SHAP (SHapley Additive exPlanations), a key XAI approach, into accessible graphical visualizations and narratives. Evaluation through user comprehension testing (Likert scale and interviews) and technical functionality testing confirmed the research objectives were met. The combination of visualization and textual narrative effectively enhanced user understanding (average score 4.31/5) and empowered preventive action, supported by a 100% technical testing success rate.
- Abstract(参考訳): 糖尿病はインドネシアで重要かつ継続的な健康問題である。
多くの人工知能(AI)ベースの健康アプリケーションは早期発見のために開発されたが、ほとんどの場合「ブラックボックス」として機能し、予測の透明性に欠ける。
説明可能なAI(XAI)メソッドはソリューションを提供するが、その技術的アウトプットは、専門家でないユーザには理解できないことが多い。
本研究の目的は,XAIによる糖尿病リスク分析を直感的で理解可能な形式で提示するモバイルアプリケーションフロントエンドを開発することである。
開発は要件分析、インターフェース設計、実装、評価を含むウォーターフォール手法に従った。
ユーザの嗜好調査に基づいて、アプリケーションには、リスクファクタのコントリビューションを伝えるために、バーチャートとパイチャートの2つの主要な視覚化タイプが採用されている。
これらは、GPT-4oとの統合によって生成されたパーソナライズされたテキスト物語によって補完される。
アプリケーションはKotlinとJetpack Composeを使ってAndroid用にネイティブに開発された。
その結果得られたプロトタイプは、重要なXAIアプローチであるSHAP(SHapley Additive exPlanations)を、アクセス可能なグラフィカルな視覚化と物語に解釈する。
ユーザ理解テスト(スケールやインタビューなど)と技術機能テストにより,研究目標が達成されたことを確認した。
ビジュアライゼーションとテキスト物語の組み合わせにより、ユーザ理解(平均スコア4.31/5)が効果的に向上し、100%の技術テストの成功率で支援された予防行動が強化された。
関連論文リスト
- Who Benefits from AI Explanations? Towards Accessible and Interpretable Systems [0.0]
本稿では,eXplainable AI(XAI)のアクセシビリティギャップについて検討する。
包括的XAI設計を運用する4部構成の方法論的概念実証について述べる。
予備的な知見は、説明の簡略化は、詳細な説明よりも視覚的でないユーザにとって理解しやすいことを示唆している。
論文 参考訳(メタデータ) (2025-08-14T16:26:09Z) - AIGI-Holmes: Towards Explainable and Generalizable AI-Generated Image Detection via Multimodal Large Language Models [78.08374249341514]
AI生成コンテンツ(AIGC)の急速な発展は、誤情報を拡散するAIGIの誤用につながった。
大規模で包括的なデータセットであるHolmes-Setを導入し、画像がAI生成されているかどうかを解説したインストラクションチューニングデータセットを含む。
本研究は,MLLMの構造化説明と品質管理によるデータ生成を効率化する,Multi-Expert Juryと呼ばれる効率的なデータアノテーション手法を提案する。
さらに,視覚専門家による事前学習,教師付き微調整,直接選好最適化を含む3段階学習フレームワークであるHolmes Pipelineを提案する。
論文 参考訳(メタデータ) (2025-07-03T14:26:31Z) - Self-eXplainable AI for Medical Image Analysis: A Survey and New Outlooks [9.93411316886105]
Self-eXplainable AI (S-XAI)は、ディープラーニングモデルのトレーニングプロセスに説明可能性を直接組み込む。
本研究は,様々な画像モダリティと臨床応用を包括的に検討する。
論文 参考訳(メタデータ) (2024-10-03T09:29:28Z) - How Human-Centered Explainable AI Interface Are Designed and Evaluated: A Systematic Survey [48.97104365617498]
Em Explainable Interfaces (EIs) の登場する領域は,XAI のユーザインターフェースとユーザエクスペリエンス設計に重点を置いている。
本稿では,人間とXAIの相互作用の現在の動向と,EI設計・開発に向けた将来的な方向性を明らかにするために,53の出版物を体系的に調査する。
論文 参考訳(メタデータ) (2024-03-21T15:44:56Z) - Explainable artificial intelligence for Healthcare applications using
Random Forest Classifier with LIME and SHAP [0.0]
ブラックボックスAI技術に隠された計算の詳細を理解する必要がある。
説明可能なAI(xAI)の起源は、これらの課題から生まれる。
この本は、いくつかのxAIフレームワークとメソッドの詳細な分析を提供する。
論文 参考訳(メタデータ) (2023-11-09T11:43:10Z) - A Brief Review of Explainable Artificial Intelligence in Healthcare [7.844015105790313]
XAIは、AIアプリケーションを構築するための技術と方法を指す。
モデル説明可能性と解釈可能性は、医療実践におけるAIモデルのデプロイを成功させる上で不可欠である。
論文 参考訳(メタデータ) (2023-04-04T05:41:57Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。