論文の概要: Explanation Ontology in Action: A Clinical Use-Case
- arxiv url: http://arxiv.org/abs/2010.01478v1
- Date: Sun, 4 Oct 2020 03:52:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 03:22:47.322423
- Title: Explanation Ontology in Action: A Clinical Use-Case
- Title(参考訳): 行動における説明オントロジー:臨床応用事例
- Authors: Shruthi Chari, Oshani Seneviratne, Daniel M. Gruen, Morgan A. Foreman,
Amar K. Das, Deborah L. McGuinness
- Abstract要約: システム設計者が説明オントロジーを利用するためのステップバイステップのガイダンスを提供する。
本稿では,このガイダンスを臨床現場で活用した詳細な例を示す。
- 参考スコア(独自算出の注目度): 3.1783442097247345
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We addressed the problem of a lack of semantic representation for
user-centric explanations and different explanation types in our Explanation
Ontology (https://purl.org/heals/eo). Such a representation is increasingly
necessary as explainability has become an important problem in Artificial
Intelligence with the emergence of complex methods and an uptake in
high-precision and user-facing settings. In this submission, we provide
step-by-step guidance for system designers to utilize our ontology, introduced
in our resource track paper, to plan and model for explanations during the
design of their Artificial Intelligence systems. We also provide a detailed
example with our utilization of this guidance in a clinical setting.
- Abstract(参考訳): 説明オントロジー(https://purl.org/heals/eo)において、ユーザ中心の説明と異なる説明型に対する意味表現の欠如の問題に対処した。
このような表現は、複雑なメソッドの出現と高精度でユーザ対応的な設定の獲得によって、人工知能において重要な問題となっているため、ますます必要となる。
本論文では,システム設計者のオントロジーを利用するためのステップバイステップのガイダンスと,人工知能システムの設計における説明の計画とモデル化について述べる。
また,本ガイドラインを臨床現場で活用するための具体例も紹介する。
関連論文リスト
- An Ontology-Enabled Approach For User-Centered and Knowledge-Enabled Explanations of AI Systems [0.3480973072524161]
説明可能性に関する最近の研究は、AIモデルやモデル説明可能性の動作を説明することに重点を置いている。
この論文は、モデルとユーザ中心の説明可能性の間のギャップを埋めようとしている。
論文 参考訳(メタデータ) (2024-10-23T02:03:49Z) - IID Relaxation by Logical Expressivity: A Research Agenda for Fitting Logics to Neurosymbolic Requirements [50.57072342894621]
本稿では、ニューロシンボリック・ユースケースにおける既知のデータ依存と分布制約を利用する利点について論じる。
これは、ニューロシンボリックな背景知識と、その論理に必要とされる表現性に関する一般的な疑問を伴う新しい研究課題を開く。
論文 参考訳(メタデータ) (2024-04-30T12:09:53Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Exemplars and Counterexemplars Explanations for Image Classifiers,
Targeting Skin Lesion Labeling [26.17582232842832]
説明可能なAIは、意思決定システムと人間とのインタラクションを可能にするメカニズムの開発で構成されている。
これは医学領域のようなセンシティブな文脈において特に重要である。
本報告では,皮膚病変の診断における実践者への説明の仕方について考察する。
論文 参考訳(メタデータ) (2023-01-18T11:14:42Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - Explanation Ontology: A Model of Explanations for User-Centered AI [3.1783442097247345]
説明はしばしば、原則的でないポストホックな方法でAIシステムに追加されている。
これらのシステムの採用が拡大し、ユーザ中心の説明可能性に重点を置いているため、説明可能性について第一の考慮事項として扱う構造的表現が必要である。
我々は,説明の役割,システムとユーザ属性の双方をモデル化するための説明オントロジーを設計し,異なる文献に基づく説明型の範囲を設計する。
論文 参考訳(メタデータ) (2020-10-04T03:53:35Z) - Directions for Explainable Knowledge-Enabled Systems [3.7250420821969827]
我々は、人工知能と密接に関連する分野における説明文献の調査を活用して、一連の説明型を生成する。
それぞれの型を定義し、このスタイルの説明の必要性を動機付けるサンプル質問を提供します。
この一連の説明型は、将来のシステム設計者が要求の生成と優先順位付けに役立ちます。
論文 参考訳(メタデータ) (2020-03-17T04:34:29Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。