論文の概要: Explainable Artificial Intelligence Recommendation System by Leveraging
the Semantics of Adverse Childhood Experiences: Proof-of-Concept Prototype
Development
- arxiv url: http://arxiv.org/abs/2011.08090v1
- Date: Fri, 6 Nov 2020 17:45:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 05:17:32.819244
- Title: Explainable Artificial Intelligence Recommendation System by Leveraging
the Semantics of Adverse Childhood Experiences: Proof-of-Concept Prototype
Development
- Title(参考訳): 悪質な小児体験のセマンティクスを活用した説明可能な人工知能推薦システム:概念実証プロトタイプ開発
- Authors: Nariman Ammar, Arash Shaban-Nejad
- Abstract要約: 本研究は, 子どもの障害体験の監視を改善するための, 知識駆動型エビデンスに基づくレコメンデーションシステムのための概念実証プロトタイプを提案する。
私たちは、Google DialogFlowエンジンを使用して質問応答エージェントを構築し、訓練するために開発したオントロジーの概念を使用しました。
このプロトタイプは、医療従事者に対して、意思決定に関する説明を提供する能力を高めることができる。
- 参考スコア(独自算出の注目度): 1.14219428942199
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The study of adverse childhood experiences and their consequences has emerged
over the past 20 years. In this study, we aimed to leverage explainable
artificial intelligence, and propose a proof-of-concept prototype for a
knowledge-driven evidence-based recommendation system to improve surveillance
of adverse childhood experiences. We used concepts from an ontology that we
have developed to build and train a question-answering agent using the Google
DialogFlow engine. In addition to the question-answering agent, the initial
prototype includes knowledge graph generation and recommendation components
that leverage third-party graph technology. To showcase the framework
functionalities, we here present a prototype design and demonstrate the main
features through four use case scenarios motivated by an initiative currently
implemented at a children hospital in Memphis, Tennessee. Ongoing development
of the prototype requires implementing an optimization algorithm of the
recommendations, incorporating a privacy layer through a personal health
library, and conducting a clinical trial to assess both usability and
usefulness of the implementation. This semantic-driven explainable artificial
intelligence prototype can enhance health care practitioners ability to provide
explanations for the decisions they make.
- Abstract(参考訳): 過去20年間で, 子どもの有害な体験とその影響についての研究が始まっている。
本研究では,説明可能な人工知能を活用することを目的とした,知識駆動型エビデンスに基づくレコメンデーションシステムのための概念実証プロトタイプを提案する。
我々は,Google DialogFlowエンジンを用いて質問応答エージェントを構築し,訓練するために開発したオントロジーの概念を用いた。
質問回答エージェントに加えて、最初のプロトタイプには、サードパーティのグラフ技術を活用した知識グラフ生成とレコメンデーションコンポーネントが含まれている。
フレームワークの機能を紹介するために,我々は,テネシー州メンフィスにある小児病院で現在実施されているイニシアチブによって動機付けられた4つのユースケースシナリオを通じて,プロトタイプの設計と主な機能を紹介する。
プロトタイプの開発には、レコメンデーションの最適化アルゴリズムの実装、パーソナルヘルスライブラリによるプライバシ層の導入、実装の有用性と有用性を評価するための臨床試験の実施が必要となる。
このセマンティック駆動の人工知能のプロトタイプは、医療従事者に彼らの意思決定の説明を提供する能力を高めることができる。
関連論文リスト
- Implementation and Application of an Intelligibility Protocol for Interaction with an LLM [0.9187505256430948]
我々の関心は、機械学習エンジンと対話する人間-専門家を含む対話型システムの構築である。
これは、科学、環境、医学などにおける複雑な問題に対処する場合に関係している。
本稿では,汎用実装のアルゴリズム記述と,その利用に関する予備実験を2つの異なる領域で実施する。
論文 参考訳(メタデータ) (2024-10-27T21:20:18Z) - A Survey of Models for Cognitive Diagnosis: New Developments and Future Directions [66.40362209055023]
本研究の目的は,認知診断の現在のモデルについて,機械学習を用いた新たな展開に注目した調査を行うことである。
モデル構造,パラメータ推定アルゴリズム,モデル評価方法,適用例を比較して,認知診断モデルの最近の傾向を概観する。
論文 参考訳(メタデータ) (2024-07-07T18:02:00Z) - Explainable Transformer Prototypes for Medical Diagnoses [7.680878119988482]
変圧器の自己注意機能は、分類過程において重要な領域を特定することに寄与する。
我々の研究は、「ピクセル」ではなく「領域」間の相関を裏付けるユニークな注意ブロックを革新する試みである。
大規模なNIH胸部X線データセットにおいて, 定量的, 定性的手法を併用し, 提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-03-11T17:46:21Z) - Interpretable Medical Image Classification using Prototype Learning and
Privileged Information [0.0]
解釈可能性はしばしば医療画像に必須の要件である。
本研究では,学習プロセスで利用可能な追加情報を用いて,理解しやすく強力なモデルを構築することができるかを検討する。
本稿では,カプセルネットワーク,プロトタイプ学習,特権情報の利用といったメリットを活用する,Proto-Capsと呼ばれる革新的なソリューションを提案する。
論文 参考訳(メタデータ) (2023-10-24T11:28:59Z) - NeuroExplainer: Fine-Grained Attention Decoding to Uncover Cortical
Development Patterns of Preterm Infants [73.85768093666582]
我々はNeuroExplainerと呼ばれる説明可能な幾何学的深層ネットワークを提案する。
NeuroExplainerは、早産に伴う幼児の皮質発達パターンの解明に使用される。
論文 参考訳(メタデータ) (2023-01-01T12:48:12Z) - Towards Human-Interpretable Prototypes for Visual Assessment of Image
Classification Models [9.577509224534323]
人間に似た推論プロセスに基づいて、解釈可能な設計のモデルが必要です。
ProtoPNetは、教師なしの方法で視覚的に意味のあるプロトタイプを発見すると主張している。
これらのプロトタイプはまだ明確な説明に向けて長い道のりがある。
論文 参考訳(メタデータ) (2022-11-22T11:01:22Z) - VBridge: Connecting the Dots Between Features, Explanations, and Data
for Healthcare Models [85.4333256782337]
VBridgeは、臨床医の意思決定ワークフローに機械学習の説明をシームレスに組み込むビジュアル分析ツールである。
我々は,臨床医がMLの特徴に慣れていないこと,文脈情報の欠如,コホートレベルの証拠の必要性など,3つの重要な課題を特定した。
症例スタディと専門医4名のインタビューを通じて, VBridgeの有効性を実証した。
論文 参考訳(メタデータ) (2021-08-04T17:34:13Z) - Backprop-Free Reinforcement Learning with Active Neural Generative
Coding [84.11376568625353]
動的環境におけるエラー(バックプロップ)のバックプロパゲーションを伴わない行動駆動型生成モデルの学習のための計算フレームワークを提案する。
我々は、まばらな報酬でも機能するインテリジェントエージェントを開発し、推論として計画の認知理論からインスピレーションを得ている。
我々のエージェントの堅牢な性能は、神経推論と学習のためのバックプロップフリーアプローチがゴール指向の行動を促進するという有望な証拠を提供する。
論文 参考訳(メタデータ) (2021-07-10T19:02:27Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z) - Explanation Ontology in Action: A Clinical Use-Case [3.1783442097247345]
システム設計者が説明オントロジーを利用するためのステップバイステップのガイダンスを提供する。
本稿では,このガイダンスを臨床現場で活用した詳細な例を示す。
論文 参考訳(メタデータ) (2020-10-04T03:52:39Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。