論文の概要: Process Knowledge-Infused AI: Towards User-level Explainability,
Interpretability, and Safety
- arxiv url: http://arxiv.org/abs/2206.13349v1
- Date: Thu, 9 Jun 2022 14:09:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-04 04:33:24.395987
- Title: Process Knowledge-Infused AI: Towards User-level Explainability,
Interpretability, and Safety
- Title(参考訳): プロセス知識を融合したAI: ユーザレベルの説明可能性、解釈可能性、安全性を目指して
- Authors: Amit Sheth, Manas Gaur, Kaushik Roy, Revathy Venkataraman, Vedant
Khandelwal
- Abstract要約: パーソナライズされた健康や食品レコメンデーションのための自己管理のような、高価値でセンシティブな、あるいは安全に重要なアプリケーションでは、その採用はありそうにない。
AIシステムは専門家が設定したガイドラインや明確なプロセスに従う必要がある。
AIシステムのユーザは、ユーザが理解可能な説明をする必要がある。
- 参考スコア(独自算出の注目度): 25.027558410886407
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI systems have been widely adopted across various domains in the real world.
However, in high-value, sensitive, or safety-critical applications such as
self-management for personalized health or food recommendation with a specific
purpose (e.g., allergy-aware recipe recommendations), their adoption is
unlikely. Firstly, the AI system needs to follow guidelines or well-defined
processes set by experts; the data alone will not be adequate. For example, to
diagnose the severity of depression, mental healthcare providers use Patient
Health Questionnaire (PHQ-9). So if an AI system were to be used for diagnosis,
the medical guideline implied by the PHQ-9 needs to be used. Likewise, a
nutritionist's knowledge and steps would need to be used for an AI system that
guides a diabetic patient in developing a food plan. Second, the BlackBox
nature typical of many current AI systems will not work; the user of an AI
system will need to be able to give user-understandable explanations,
explanations constructed using concepts that humans can understand and are
familiar with. This is the key to eliciting confidence and trust in the AI
system. For such applications, in addition to data and domain knowledge, the AI
systems need to have access to and use the Process Knowledge, an ordered set of
steps that the AI system needs to use or adhere to.
- Abstract(参考訳): aiシステムは現実世界のさまざまな領域で広く採用されている。
しかし、パーソナライズされた健康や食品レコメンデーションのための自己管理など、高い価値、敏感、あるいは安全に重要なアプリケーション(例えばアレルギー対応のレシピレコメンデーションなど)では、その採用はありそうにない。
まず第一に、aiシステムは専門家が設定したガイドラインや明確なプロセスに従う必要がある。
例えば、うつ病の重症度を診断するために、精神医療提供者は患者健康アンケート(phq-9)を用いる。
なので、もし診断にAIシステムを使うなら、PHQ-9が示唆する医療ガイドラインを使う必要がある。
同様に、栄養学者の知識とステップは、糖尿病患者を食品計画の開発に導くAIシステムに使用される必要がある。
第二に、現在のAIシステムで典型的なBlackBoxの性質は機能しない。AIシステムのユーザは、人間が理解し、慣れ親しんだ概念を使って構築された、ユーザ理解可能な説明を与える必要がある。
これは、AIシステムに対する信頼と信頼を引き出すための鍵です。
このようなアプリケーションには、データやドメイン知識に加えて、AIシステムはプロセス知識へのアクセスと使用が必要です。
関連論文リスト
- Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - AI Usage Cards: Responsibly Reporting AI-generated Content [25.848910414962337]
ChatGPTのようなAIシステムが、人間による作業と区別できないコンテンツを生成できることを考えると、この技術の責任を負うことが懸念される。
我々は、AIの責任ある使用を定義するために、透明性、完全性、説明責任からなる3次元モデルを提案する。
第2に、科学研究におけるAIの使用を報告するための標準化された方法である「AI Usage Cards」を紹介する。
論文 参考訳(メタデータ) (2023-02-16T08:41:31Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z) - A Human-Centric Assessment Framework for AI [11.065260433086024]
説明可能なAIシステムをどのように評価すべきかに関して合意された基準はない。
チューリングテストに触発されて,人間中心のアセスメントフレームワークを導入する。
このセットアップは、広範囲の人間中心のAIシステムアセスメントのためのフレームワークとして機能する。
論文 参考訳(メタデータ) (2022-05-25T12:59:13Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Knowledge-intensive Language Understanding for Explainable AI [9.541228711585886]
AIが主導する意思決定の仕方と、どの決定要因が含まれているかを理解することが不可欠である。
意思決定に直接関係する人間中心の説明を持つことは重要である。
人間が理解し、使用する明示的なドメイン知識を巻き込む必要がある。
論文 参考訳(メタデータ) (2021-08-02T21:12:30Z) - Explainable AI meets Healthcare: A Study on Heart Disease Dataset [0.0]
目的は、様々な技術を用いて説明可能なAIシステムの理解性と解釈可能性について実践者に啓蒙することである。
本論文は、心臓病データセットに基づく例を収録し、信頼性を高めるために説明可能性技術をどのように好むべきかを解明する。
論文 参考訳(メタデータ) (2020-11-06T05:18:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。