論文の概要: Enhancing Human-Machine Teaming for Medical Prognosis Through Neural
Ordinary Differential Equations (NODEs)
- arxiv url: http://arxiv.org/abs/2102.04121v1
- Date: Mon, 8 Feb 2021 10:52:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-10 06:41:29.816802
- Title: Enhancing Human-Machine Teaming for Medical Prognosis Through Neural
Ordinary Differential Equations (NODEs)
- Title(参考訳): ニューラル・ディファレンシャル方程式(NODE)によるヒト・マシーンの医療予後向上
- Authors: D. Fompeyrine, E. S. Vorm, N. Ricka, F. Rose, G. Pellegrin
- Abstract要約: 医学的診断における機械学習の可能性を完全に実現するための重要な障壁は、テクノロジーの受容である。
説明可能なAI(XAI)を作成するための最近の取り組みは、いくつかのMLモデルの解釈可能性を改善するために進歩している。
本稿では,人間の理解を高め,受容性を促進する新しいMLアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine Learning (ML) has recently been demonstrated to rival expert-level
human accuracy in prediction and detection tasks in a variety of domains,
including medicine. Despite these impressive findings, however, a key barrier
to the full realization of ML's potential in medical prognoses is technology
acceptance. Recent efforts to produce explainable AI (XAI) have made progress
in improving the interpretability of some ML models, but these efforts suffer
from limitations intrinsic to their design: they work best at identifying why a
system fails, but do poorly at explaining when and why a model's prediction is
correct. We posit that the acceptability of ML predictions in expert domains is
limited by two key factors: the machine's horizon of prediction that extends
beyond human capability, and the inability for machine predictions to
incorporate human intuition into their models. We propose the use of a novel ML
architecture, Neural Ordinary Differential Equations (NODEs) to enhance human
understanding and encourage acceptability. Our approach prioritizes human
cognitive intuition at the center of the algorithm design, and offers a
distribution of predictions rather than single outputs. We explain how this
approach may significantly improve human-machine collaboration in prediction
tasks in expert domains such as medical prognoses. We propose a model and
demonstrate, by expanding a concrete example from the literature, how our model
advances the vision of future hybrid Human-AI systems.
- Abstract(参考訳): 機械学習(ML)は最近、医学を含むさまざまな領域の予測および検出タスクにおける専門家レベルの人間の精度に匹敵する実証されています。
しかし、これらの印象的な発見にもかかわらず、医学的予後におけるMLの可能性を完全に実現するための重要な障壁は、技術受け入れです。
最近、説明可能なAI(XAI)の作成は、いくつかのMLモデルの解釈可能性を改善するために進歩しましたが、これらの取り組みは、設計に本質的な制限に苦しんでいます:彼らはシステムが失敗した理由を特定するのに最善を尽くしますが、モデル予測が正しい理由と理由を説明するのに不十分です。
専門家領域におけるML予測の受け入れ可能性は、人間の能力を超えた機械の予測の展望と、機械予測が人間の直感をモデルに組み込むことができないという2つの重要な要因によって制限される。
本稿では,新しいmlアーキテクチャであるneural ordinary differential equation (nodes) を用いて,人間の理解を深め,受容性を促進することを提案する。
提案手法は,アルゴリズム設計の中心における人間の認知的直感を優先し,単一出力ではなく予測の分布を提供する。
医療診断などの専門分野における予測タスクにおいて,このアプローチが人間と機械の協調性を大幅に向上させる可能性について解説する。
論文から具体例を拡大することにより,我々のモデルが将来のハイブリッドAIシステムのビジョンをどう進めるかを実証するモデルを提案する。
関連論文リスト
- CogDPM: Diffusion Probabilistic Models via Cognitive Predictive Coding [62.075029712357]
本研究は認知拡散確率モデル(CogDPM)を紹介する。
CogDPMは拡散モデルの階層的サンプリング能力に基づく精度推定法と拡散モデル固有の性質から推定される精度重み付きガイダンスを備える。
我々は,Universal Kindomの降水量と表面風速データセットを用いた実世界の予測タスクにCogDPMを適用した。
論文 参考訳(メタデータ) (2024-05-03T15:54:50Z) - Brain-Inspired Computational Intelligence via Predictive Coding [89.6335791546526]
予測符号化(PC)は、マシンインテリジェンスタスクにおいて有望なパフォーマンスを示している。
PCは様々な脳領域で情報処理をモデル化することができ、認知制御やロボティクスで使用することができる。
論文 参考訳(メタデータ) (2023-08-15T16:37:16Z) - Human Trajectory Forecasting with Explainable Behavioral Uncertainty [63.62824628085961]
人間の軌道予測は人間の行動を理解し予測し、社会ロボットから自動運転車への応用を可能にする。
モデルフリー手法は予測精度が優れているが説明可能性に欠ける一方、モデルベース手法は説明可能性を提供するが、よく予測できない。
BNSP-SFMは,11種類の最先端手法と比較して,予測精度を最大50%向上することを示す。
論文 参考訳(メタデータ) (2023-07-04T16:45:21Z) - The future of human-centric eXplainable Artificial Intelligence (XAI) is not post-hoc explanations [3.7673721058583123]
本稿では、ポストホックな説明可能性から解釈可能なニューラルネットワークアーキテクチャの設計へのシフトを提案する。
我々は、人間中心型XAIの5つのニーズを特定し、ニューラルネットワークの解釈と設計のための2つのスキームを提案する。
論文 参考訳(メタデータ) (2023-07-01T15:24:47Z) - Learning Theory of Mind via Dynamic Traits Attribution [59.9781556714202]
本稿では,過去のトラジェクトリからアクターの潜在特性ベクトルを生成するニューラルToMアーキテクチャを提案する。
この特性ベクトルは、予測ニューラルネットワークの高速重み付けスキームを介して予測機構を乗法的に変調する。
実験により,高速重量はエージェントの特性をモデル化し,マインドリーディング能力を向上させるために優れた誘導バイアスを与えることが示された。
論文 参考訳(メタデータ) (2022-04-17T11:21:18Z) - Human-Algorithm Collaboration: Achieving Complementarity and Avoiding
Unfairness [92.26039686430204]
慎重に設計されたシステムであっても、補完的な性能はあり得ないことを示す。
まず,簡単な人間アルゴリズムをモデル化するための理論的枠組みを提案する。
次に、このモデルを用いて相補性が不可能な条件を証明する。
論文 参考訳(メタデータ) (2022-02-17T18:44:41Z) - Probabilistic Human Motion Prediction via A Bayesian Neural Network [71.16277790708529]
本稿では,人間の動作予測のための確率モデルを提案する。
我々のモデルは、観測された動きシーケンスが与えられたときに、いくつかの将来の動きを生成することができる。
我々は、大規模ベンチマークデータセットHuman3.6mに対して、我々のアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2021-07-14T09:05:33Z) - A Turing Test for Transparency [0.0]
説明可能な人工知能(XAI)の中心的な目標は、人間とAIのインタラクションにおける信頼関係を改善することである。
最近の実証的な証拠は、説明が反対の効果を持つことを示している。
この効果はXAIの目的に挑戦し、透明なAI手法の責任ある使用には、人間が人間の説明から生成された機械を区別する能力を考慮する必要があることを示唆している。
論文 参考訳(メタデータ) (2021-06-21T20:09:40Z) - Deep Interpretable Models of Theory of Mind For Human-Agent Teaming [0.7734726150561086]
我々は、他の観測対象の意図をモデル化するための解釈可能なモジュラー・ニューラル・フレームワークを開発する。
Minecraftの検索および救助タスクで、人間の参加者のデータに関する実験を行い、アプローチの有効性を実証します。
論文 参考訳(メタデータ) (2021-04-07T06:18:58Z) - A Comparative Approach to Explainable Artificial Intelligence Methods in
Application to High-Dimensional Electronic Health Records: Examining the
Usability of XAI [0.0]
XAIは、コミュニケーション手段によって人間に達成される信頼の実証的要因を生み出すことを目的としている。
機械を信頼して人間の生き方に向くというイデオロギーは倫理的な混乱を引き起こします。
XAIメソッドは、ローカルレベルとグローバルレベルの両方で出力される特定のモデルに対する機能貢献を視覚化します。
論文 参考訳(メタデータ) (2021-03-08T18:15:52Z) - Harnessing Explanations to Bridge AI and Humans [14.354362614416285]
機械学習モデルは、リシビズム予測や医療診断といった社会的に重要な応用にますます統合されている。
本稿では,説明の有効性と人的パフォーマンス向上のギャップを埋めるための今後の方向性を提案する。
論文 参考訳(メタデータ) (2020-03-16T18:00:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。