論文の概要、ライセンス

# (参考訳) ニューラル・ディファレンシャル方程式(NODE)によるヒト・マシーンの医療予後向上 [全文訳有]

Enhancing Human-Machine Teaming for Medical Prognosis Through Neural Ordinary Differential Equations (NODEs) ( http://arxiv.org/abs/2102.04121v1 )

ライセンス: CC BY 4.0
D. Fompeyrine, E. S. Vorm, N. Ricka, F. Rose, G. Pellegrin(参考訳) 機械学習(ML)は最近、医学を含むさまざまな領域の予測および検出タスクにおける専門家レベルの人間の精度に匹敵する実証されています。 しかし、これらの印象的な発見にもかかわらず、医学的予後におけるMLの可能性を完全に実現するための重要な障壁は、技術受け入れです。 最近、説明可能なAI(XAI)の作成は、いくつかのMLモデルの解釈可能性を改善するために進歩しましたが、これらの取り組みは、設計に本質的な制限に苦しんでいます:彼らはシステムが失敗した理由を特定するのに最善を尽くしますが、モデル予測が正しい理由と理由を説明するのに不十分です。 専門家領域におけるML予測の受け入れ可能性は、人間の能力を超えた機械の予測の展望と、機械予測が人間の直感をモデルに組み込むことができないという2つの重要な要因によって制限される。 本稿では,新しいmlアーキテクチャであるneural ordinary differential equation (nodes) を用いて,人間の理解を深め,受容性を促進することを提案する。 提案手法は,アルゴリズム設計の中心における人間の認知的直感を優先し,単一出力ではなく予測の分布を提供する。 医療診断などの専門分野における予測タスクにおいて,このアプローチが人間と機械の協調性を大幅に向上させる可能性について解説する。 論文から具体例を拡大することにより,我々のモデルが将来のハイブリッドAIシステムのビジョンをどう進めるかを実証するモデルを提案する。

Machine Learning (ML) has recently been demonstrated to rival expert-level human accuracy in prediction and detection tasks in a variety of domains, including medicine. Despite these impressive findings, however, a key barrier to the full realization of ML's potential in medical prognoses is technology acceptance. Recent efforts to produce explainable AI (XAI) have made progress in improving the interpretability of some ML models, but these efforts suffer from limitations intrinsic to their design: they work best at identifying why a system fails, but do poorly at explaining when and why a model's prediction is correct. We posit that the acceptability of ML predictions in expert domains is limited by two key factors: the machine's horizon of prediction that extends beyond human capability, and the inability for machine predictions to incorporate human intuition into their models. We propose the use of a novel ML architecture, Neural Ordinary Differential Equations (NODEs) to enhance human understanding and encourage acceptability. Our approach prioritizes human cognitive intuition at the center of the algorithm design, and offers a distribution of predictions rather than single outputs. We explain how this approach may significantly improve human-machine collaboration in prediction tasks in expert domains such as medical prognoses. We propose a model and demonstrate, by expanding a concrete example from the literature, how our model advances the vision of future hybrid Human-AI systems.
公開日: Mon, 8 Feb 2021 10:52:23 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
1 2 0 2 b e F 8 1 2 0 2 b e F 8 0.85
] I A . s c [ 【私】 A! sc [ 0.59
1 v 1 2 1 4 0 1 v 1 2 1 4 0 0.85
. 2 0 1 2 : v i X r a . 2 0 1 2 : v i X r a 0.85
Enhancing Human-Machine Teaming for Medical Prognosis Through Neural Ordinary Differential Equations (NODEs) ニューラル・ディファレンシャル方程式(NODE)によるヒト・マシーンの医療予後向上 0.72
D. Fompeyrine 1, E. S. Vorm 2, N. Ricka3, F. Rose4, and G. Pellegrin 5 D. Fompeyrine 1, E. S. Vorm 2, N. Ricka3, F. Rose4, G. Pellegrin 5 0.87
February 2021 Abstract 2021年2月 概要 0.53
Machine Learning (ML) has recently been demonstrated to rival expert-level human accuracy in prediction and detection tasks in a variety of domains, including medicine. 機械学習(ML)は最近、医学を含むさまざまな領域の予測および検出タスクにおける専門家レベルの人間の精度に匹敵する実証されています。 0.72
Despite these impressive findings, however, a key barrier to the full realization of ML’s potential in medical prognoses is technology acceptance. しかし、これらの印象的な発見にもかかわらず、医学的予後におけるMLの可能性を完全に実現するための重要な障壁は、技術受け入れです。 0.59
Recent efforts to produce explainable AI (XAI) have made progress in improving the interpretability of some ML models, but these efforts suffer from limitations intrinsic to their design: they work best at identifying why a system fails, but do poorly at explaining when and why a model’s prediction is correct. 説明可能なAI(XAI)を作成するための最近の取り組みは、いくつかのMLモデルの解釈可能性を改善するために進歩してきたが、これらの取り組みは、設計に固有の制限に悩まされている。 0.58
We posit that the acceptability of ML predictions in expert domains is limited by two key factors: the machine’s horizon of prediction that extends beyond human capability, and the inability for machine predictions to incorporate human intuition into their models. 専門家ドメインにおけるML予測の受容性は、人間の能力を超えた予測のマシンの地平線と、人間の直感をモデルに組み込むマシンの予測能力の2つの主要な要因によって制限されていると仮定する。 0.77
We propose the use of a novel ML architecture, Neural Ordinary Differential Equations (NODEs) to enhance human understanding and encourage acceptability. 本稿では,新しいmlアーキテクチャであるneural ordinary differential equation (nodes) を用いて,人間の理解を深め,受容性を促進することを提案する。 0.63
Our approach prioritizes human cognitive intuition at the center of the algorithm design, and offers a 私たちのアプローチは、アルゴリズム設計の中心にある人間の認知的直観を優先し、提供します。
訳抜け防止モード: 我々のアプローチは、アルゴリズム設計の中心において、人間の認知的直観を優先する。 そして
0.76
1Founder and CEO, PhD in Clinical Psychology, 創立者兼CEO、臨床心理学博士。 0.65
Myndblue 2PhD in Human-Computer Interaction, Lead Evalua- マイドブルー 2PhDによる人-コンピュータインタラクション, リード評価- 0.57
tor, DARPA Explainable AI Program DARPAによる説明可能なAIプログラム 0.80
3Lead Data Scientist, PhD in Mathematics, Myndblue 4Biomedical Data Scientist, PhD in Computational Bi- 3Lead Data Scientist, PhD in Mathematics, Myndblue 4Biomedical Data Scientist, PhD in Computational Bi- 0.99
ology, Myndblue ロジスティクス、マイドブルー 0.57
5Machine Learning and Project Engineer, MSc in Ap- 5Machine Learning and Project Engineer, MSc in Ap- 0.98
plied Physics, Myndblue plied physics (複数形 plied physicss) 0.43
distribution of predictions rather than single outputs. 単一の出力ではなく予測の分布です 0.80
We explain how this approach may significantly improve human-machine collaboration in prediction tasks in expert domains such as medical prognoses. 医療診断などの専門分野における予測タスクにおいて,このアプローチが人間と機械の協調性を大幅に向上させる可能性について解説する。 0.52
We propose a model and demonstrate, by expanding a concrete example from the literature, how our model advances the vision of future hybrid Human-AI systems. 論文から具体例を拡大することにより,我々のモデルが将来のハイブリッドAIシステムのビジョンをどう進めるかを実証するモデルを提案する。 0.81
Keywords— Expert System, Forecast, Ordinary Differential Equations, Neural Network, Variational Approach, Explainability, Acceptability, Intuition, Usability, Human-Machine Teaming キーワード — エキスパートシステム, 予測, 通常の微分方程式, ニューラルネットワーク, 変動アプローチ, 説明可能性, 受容性, 直感, ユーザビリティ, 人間-機械チーム 0.74
Corresponding address: publishing@myndblue. ai 対応アドレス: publishing@myndblue. ai 0.79
Introduction Businesses and governments around the world are racing at breakneck speeds to build systems that can leverage machine learning (ML) to gain strategic advantages. はじめに 世界中の企業や政府は、機械学習(ML)を活用して戦略的アドバンテージを獲得できるシステムを構築するために、ブレークネックスピードで競争しています。 0.58
While ML is quickly being introduced in new fields such as logistics [1] and agriculture [2], one domain is already an old familiar friend: healthcare. mlはロジスティクス [1] や agriculture [2] といった新しい分野で急速に導入されているが、あるドメインはすでになじみのある旧友である。 0.79
The vision of being able to accurately predict a patient’s medical trajectory by integrating vast amounts of disparate data has inspired generations of computer scientists and has resulted in a variety of early applications of artificial intelligence in the form of decision aids and decision support systems. 膨大な量の異なるデータを統合することで患者の医療経過を正確に予測できるというビジョンは、コンピュータ科学者の世代に影響を与え、意思決定支援と意思決定支援システムの形で人工知能の様々な初期の適用をもたらしました。 0.81
At the heart of this vision is a collaboration between human and machine; a synergistic hybrid system that affords humans with near superhuman abilities to compute massive amounts of data and with it project far into the future with brilliant accuracy. このビジョンの中心となるのは、人間と機械のコラボレーションです。超人的に近い能力を持つ人間が大量のデータを計算できる相乗的ハイブリッドシステムであり、素晴らしい精度で遠く離れた未来にプロジェクトします。 0.75
This vision of humanmachine teaming through the application of humanAI agents is fast becoming a reality today, thanks 人間AIエージェントの応用による人間機械のチーム化というビジョンは、今や急速に現実化しつつある。 0.64
1 1 0.85
英語(論文から抽出)日本語訳スコア
largely to ML. Indeed, ML algorithms have proven to be as accurate or better than expert-level predictions in various medical domains, from image classification to time-series analysis, and many others [3, 4]. 主にML。 実際、MLアルゴリズムは画像分類から時系列分析まで、さまざまな医学領域のエキスパートレベルの予測よりも正確か優れていることが証明されている[3, 4]。 0.59
But while these advances promise much, the realization of true human-machine teaming in medical prognoses may be hindered by a familiar and stubborn barrier— the lack of human trust. しかし、これらの進歩は大いに約束しますが、医療予知における真の人間-機械の協力の実現は、慣れ親しんだ頑固な障壁、人間の信頼の欠如によって妨げられる可能性があります。 0.57
As early as the 1980s, thorough comparisons between computergenerated recommendations and experts had already demonstrated the critical usefulness of artificial decision aids [5], but the lack of algorithmic transparency caused significant conflicts and inevitable delays that ultimately prevented the widespread adoption of expert systems into mainstream use. 1980年代まで、コンピュータ生成の勧告と専門家の徹底的な比較は、すでに人工的な意思決定支援の重要な有用性を示していた [5] が、アルゴリズムの透明性の欠如は、重大な対立と避けられない遅延を引き起こし、最終的に専門家システムが主流に普及するのを妨げた。 0.56
A close reading of the literature from this era reveals that these failures were caused by flaws in usability, not by algorithmic accuracy or efficiency. この時代の文献をよく読めば、これらの失敗はアルゴリズムの正確さや効率性ではなく、ユーザビリティの欠陥によって引き起こされたことが分かる。 0.65
Modern day ML algorithms are direct descendants of these expert systems of the past, and they carry many of the same challenges. 現在のMLアルゴリズムは、過去のこれらのエキスパートシステムの直接的な子孫であり、同じ課題の多くを担っている。 0.68
Concerns over low algorithmic transparency and the blackbox nature of algorithms such as deep learning have given rise to new interdisciplinary fields of research aimed at improving interpretability and transparency of ML algorithms, so-called explainable artificial intelligence (XAI) [6]. 低アルゴリズムの透明性とディープラーニングのようなアルゴリズムのブラックボックスの性質に関する懸念は、MLアルゴリズムの解釈可能性と透明性向上を目的とした新たな学際的な研究分野、いわゆる説明可能な人工知能(XAI) [6] を生み出している。 0.74
Perhaps driven by lessons learned from earlier generations of clinical decision support failures, XAI has quickly been offered up as the solution, even when the problem is seldom articulated or perhaps not even fully understood. おそらく、初期の臨床決定支援の失敗から学んだ教訓によって駆動されるXAIは、問題がほとんど説明されていない、またはおそらく完全に理解されていない場合でも、解決策としてすぐに提供されています。 0.52
In order to better understand why explainability and transparency play a central role in the potential widespread adoption of ML, the following section we illustrate two general scenarios that motivate their importance. 説明可能性と透明性がMLの普及に重要な役割を果たしている理由をより深く理解するために、次のセクションでは、その重要性を動機づける2つの一般的なシナリオについて説明します。 0.58
Following this, we discuss why XAI alone is insufficient in achieving the goal of human-AI cooperation for medical prognoses. その後、XAIだけでは、医療診断のための人間とAIの連携の目標達成に不十分な理由について論じる。 0.56
We then introduce Neural Ordinary Differential Equations (NODEs) as a proposed machine learning architecture for use in medical predictions and prognoses, and we illustrate how their use is intrinsically designed for maximum usability, and is superior in supporting human intuition and decision making in medical prognoses. 次に、医学的予測や診断に使用する機械学習アーキテクチャとしてニューラル正規微分方程式(NODE)を導入し、その使用法が本質的に最大限のユーザビリティのために設計されており、医療的診断における人間の直感や意思決定を支援するのに優れていることを示す。 0.65
The Utility of Explainability Research has uncovered two predominant situations in which users of machine learning encounter usability conflicts and hence hesitate to trust their outputs [7]. 説明可能性の効用 研究は、機械学習のユーザーがユーザビリティの衝突に遭遇し、その結果、アウトプットを信頼することをためらう2つの主要な状況を明らかにした[7]。 0.65
The first are conflicts that arise when an ML algorithm or the overarching intelligent systems that embody them suddenly behave unpredictably or erratically. 第一に、MLアルゴリズムやそれらを具現化した包括的なインテリジェントなシステムが突然予測不能または不規則に振る舞うと発生する衝突である。 0.61
These off-nominal behaviors can have widespread consequences on user confidence and trust. これらの名目外行動は、ユーザーの信頼と信頼に広範な影響を及ぼす可能性があります。 0.50
When systems that are ordinarily predictable and reliable suddenly behave unpredictably 通常予測可能で信頼性の高いシステムが突然予測不能に振る舞うとき 0.71
or give an unexpected output, questions and concerns naturally follow. 予期せぬアウトプットや疑問や懸念が自然に続きます 0.62
Machine learning models that perform very well under one condition often display wildly different behaviors when even small changes are made. 1つの条件下で非常によく機能する機械学習モデルは、小さな変更でさえも大きく異なる振る舞いを示すことが多い。 0.72
Sometimes these errors can be traced to a root cause and behaviors can be easily explained. これらの誤りは根本原因に辿り着くことができ、振る舞いは簡単に説明できる。 0.68
In other cases, tracing the error is much more difficult, and oftentimes impossible. 他のケースでは、エラーの追跡はずっと難しく、多くの場合不可能です。 0.65
This is of immediate concern for makers of industrial-scale autonomous systems such as self-driving cars [8], but also of great concern in applications that feature machine learning in the role of decision support, as is the case in clinical decision support systems. これは、自動運転[8]などの産業規模の自律システムのメーカーにとってすぐに懸念されるだけでなく、臨床意思決定支援システムの場合と同様に、意思決定支援の役割で機械学習を特徴とするアプリケーションでも大きな懸念です。 0.77
Physicians, hospital administrators and even government regulators, upon seeing the apparently brittleness of ML are likely to ask themselves ”if this system has such low reliability and unpredictability, how can I ethically justify using it for my patients?” Without some measure of assurance of its reliability, low trust and in some cases abandonment of the technology as viable remains the most likely outcome. 医師、病院の管理者、さらには政府の規制当局は、MLの脆さを見て、「このシステムがそのような低い信頼性と予測不可能性を持っている場合、私の患者のためにそれを使用することを倫理的に正当化することができますか?
訳抜け防止モード: 医師や病院の管理者、さらには政府の規制当局さえも、MLの脆弱さは、このシステムが信頼性が低く予測不能であるかどうかを自問する可能性が高い。 患者さんにどう使うのか倫理的に正当化できるのか?」 信頼度が低く 場合によっては 技術を捨てる 可能性は最も高い
0.71
The argument for XAI is therefore driven by the understanding that no trust = no use. したがって、XAIの議論は、信頼が無用であるという理解によって引き起こされる。 0.72
Hence much work has recently focused on improving the transparency of ML algorithms to understand why they fail. したがって、最近はMLアルゴリズムの透明性を改善し、なぜ失敗するのかを理解することに多くの作業が注がれている。
訳抜け防止モード: それゆえ最近多くの仕事が mlアルゴリズムの透明性を改善して、なぜ失敗するのかを理解する。
0.69
While XAI research has resulted in a number of small breakthroughs in terms of ML development techniques, the true benefits from these efforts are limited mostly to programmers and debuggers whose goal is to build more robust and reliable systems. XAIリサーチはML開発技術に関していくつかの小さなブレークスルーをもたらしたが、これらの取り組みの真のメリットは主に、より堅牢で信頼性の高いシステムを構築することを目的としたプログラマやデバッガに限られている。 0.66
While important, XAI’s current focus on explaining what went wrong does little to help users determine when and why an algorithmic prediction may be correct, and so does little to help users determine whether or not to use, trust, engage with, or adopt AI moving forward. XAIの現在の焦点は、何がうまくいかなかったかを説明することだが、ユーザーがアルゴリズムの予測が正しいのか、なぜ正しいのかを判断するのにはほとんど役に立たず、ユーザーがAIの使用、信頼、関与、または採用するかどうかを判断するのにはほとんど役に立たない。 0.64
To have a measurable effect in these areas, we need a prospective focus. これらの領域で測定可能な効果を得るためには、将来的な焦点が必要である。 0.57
The second motivating scenario for XAI, therefore, is one that arises in situations where the user must make a prospective decision based on the output of the system. XAIにおける第2のモチベーションシナリオは、システムの出力に基づいてユーザが予測的な決定をしなければならない場合に発生するものである。 0.86
For instance, this might come in the form of whether or not a radiologist decides to accept or validate a diagnostic flag created by ML on a medical image, or whether or not to act on ML-based predictions that indicate an aggressive treatment regimen may be warranted in a given patient. 例えば、放射線科医が医療画像でMLによって作成された診断フラグを受け入れるか、または検証するか、または積極的な治療体制が特定の患者に保証されることを示すMLベースの予測に作用するかどうかの形で来るかもしれません。 0.74
In these situations, users are not afforded the luxury of ground truth, i.e., there is no direct way of knowing whether or not the ML algorithm is accurate because it is projecting a future state that has yet to occur. このような状況下では、ユーザは根拠の真理を誇張する余裕がない。すなわち、mlアルゴリズムが正確かどうかを知る直接的な方法は、まだ発生していない将来の状態を投影しているからである。 0.69
Instead, users must wrestle with whether or not a projection of future events (e.g., prognosis) seems likely and plausible. 代わりに、ユーザーは将来の出来事(予後など)の予測が可能性が高く、妥当と思われるかどうかに対処しなければならない。 0.63
As with any decision scenario of any importance, humans naturally seek additional information with which to inform and support their decision. あらゆる重要な決定シナリオと同様に、人間は自然に自分の決定を知らせ、支援するための追加情報を求める。 0.71
This informationseeking behavior typically comes in the form of questioning [9], such as what specific data points predict this person will make a good recovery? この情報探索行動は、通常、質問の形で来る [9]、例えば、特定のデータポイントは、この人が良い回復を予測していますか? 0.69
or perhaps 2 あるいは 2 0.65
英語(論文から抽出)日本語訳スコア
what is the reasoning behind this suggestion to treat with an experimental drug? 実験薬で治療する提案の背後にある理由は何ですか? 0.74
The argument for XAI to address this prospective scenario, therefore, is that the more answers to user questions a system can provide, the greater the degree of trustworthiness the system has, and the greater the likelihood that the system will be used to the extent and in the manner in which it was designed. したがって、この将来のシナリオに対処するためのXAIの議論は、システムが提供できるユーザー質問に対する回答が多ければ多いほど、システムの信頼性が高まり、システムが設計された程度と方法で使用される可能性が高くなるということです。 0.70
Limits to Prospective XAI Unfortunately, while the majority of XAI has focused on post-hoc explanation strategies, even the few efforts that are prospective in nature are severely limited in their ability to improve usability and technology acceptance for ML for at least three reasons. XAIの限界 残念なことに、XAIの大部分はポストホックな説明戦略に焦点を当てていますが、本質的には、少なくとも3つの理由でMLのユーザビリティと技術受け入れを改善する能力に非常に制限されています。 0.60
Firstly, there are practical limits to how many questions a system can answer, or how much information can be meaningfully provided to human users. 第一に、システムが答えられる質問数や、人間のユーザにとって意味のある情報の提供量に、現実的な制限がある。 0.70
Designing systems that seek to provide mappings to every component and sub-component would be cumbersome to the point of being unusable. すべてのコンポーネントとサブコンポーネントにマッピングを提供するシステムを設計するのは、使用できない点まで面倒です。 0.78
While rules governing a natural phenomenon’s evolution lie in a constrained space that can hypothetically be modelled completely, a fully transparent XAI prediction would need to be able to master all possible future states even in regions that do not seem plausible at first. 自然現象の進化を規定する規則は、仮説的に完全にモデル化できる制約付き空間にあるが、完全に透明なXAI予測は、当初不可能に思える領域でも、すべての将来の状態をマスターできる必要がある。 0.80
This seems wildly unrealistic, as it would require a dataset of unattainable size to explore and understand all the possible configurations. これは非常に非現実的であり、すべての可能な構成を探索し理解するには、到達不可能なサイズのデータセットが必要である。 0.62
Labyrinthine causal diagrams of high dimensional datasets are simply impractical as they are too difficult (or impossible) for a human to interpret. 高次元データセットのラビリンチン因果図は、人間が解釈するには難しすぎる(あるいは不可能)ため、単に実用的ではない。 0.72
Secondly, another limitation to XAI approaches stems from how humans reason about causality. 第二に、XAIアプローチのもう一つの制限は、人間が因果関係についてどのように推論するかにある。 0.46
Cognitive scientists have long demonstrated that humans do not typically engage in the kind of deliberate, methodical decision making (i.e., “slow thinking,” or “system two thinking”) that would make use of such a robust and complete XAI system. 認知科学者は、人間が通常、そのような堅牢で完全なXAIシステムを利用するような故意で方法論的な意思決定(つまり「スロー思考」または「システム2思考」)に関わらないことを長い間証明してきた。 0.73
Rather, most decision-making strategies are predominantly those that make efficient use of heuristics, or mental shortcuts (i.e., “fast thinking” or “system one thinking” [10]). むしろ、ほとんどの意思決定戦略は、主にヒューリスティックス、または精神的なショートカット(「高速思考」または「システム1思考」[10])を効率的に利用するものです。 0.82
Human cognition strategies have evolved largely to prioritize rapid decision making. 人間の認知戦略は、迅速な意思決定を優先するために進化してきた。 0.54
Most decision making scenarios are those where humans make quick assessments of the information and act, rather than cautiously and systematically pour over all available data. ほとんどの意思決定シナリオは、人間がすべての利用可能なデータを慎重に体系的に注ぎ込むのではなく、情報と行動を素早く評価するものです。 0.69
In other words, more data is seldom likely to result in better decisions. 言い換えれば、より多くのデータがより良い判断をもたらすことはめったにない。 0.70
Lastly, a limitation of XAI 最後に、XAIの制限。 0.81
in improving the prospective prediction problem is that developers maximize predictive accuracy of ML models, but do little to address the myriad of other human factors that play a role in how humans prognose and make decisions. 予測予測問題の改善において、開発者はMLモデルの予測精度を最大化するが、人間の予測と意思決定に果たす役割を担う他の人間の要因の無数の問題にはほとんど対処しない。 0.78
The role of intuition in expert decision making has received much focus in the cognitive and 専門家の意思決定における直観的役割は認知と認知に多大な焦点をあてている 0.67
neurosciences for many decades, especially in tasks such as discovery and exploration [11, 12, 13, 14, 15]. 長年の神経科学、特に発見や探索のような仕事[11, 12, 13, 14 15]において。 0.73
Earlier generations of artificial decision aids that attempted to mimic human decision making ran into trouble because they could not account for information originating from outside of their knowledge base. 人間の意思決定を模倣しようとする初期の人工意思決定支援は、知識基盤の外部からの情報を説明できなかったため、問題に陥りました。 0.75
Developing expert knowledge seems an illusive target for an artificial system because, as human expertise grows, it also evolves towards more and more intuition [16] and subjectivity, and draws conclusions from information that is broader than merely the data in a patient’s medical record. 専門家の知識を開発することは、人間の専門知識が成長するにつれて、直感的[16]と主観性へと進化し、患者の医療記録にあるデータよりも幅広い情報から結論を引き出すため、人工的なシステムにとって幻想的な目標に思える。 0.73
How patients look, how they speak, and how family members interact with them are all examples of factors that could potentially inform an expert clinician and contribute to their decision strategy. 患者の見え方、話し方、家族との関わり方はすべて、専門家の臨床医に知らせ、彼らの決定戦略に寄与する可能性のある要因の例である。 0.73
This extra-cognitive information is both difficult to characterize and difficult to model in ML. この認識外情報の特徴付けは困難であり、MLではモデル化が困難である。 0.66
Current ML strategies do not prioritize or make use of human intuition in their predictions, and so explanation strategies are not likely to improve the likelihood of experts using them. 現在のML戦略は、予測において人間の直観を優先または活用しないため、説明戦略は専門家が使用する可能性を改善することはない。 0.77
Any cooperative vision where ML is a trusted component in a cooperative decision making system, such as a fully-integrated clinical decision support system, should feature the strengths of both components (human and machine), rather than limiting the strengths of one over the other. 完全に統合された臨床意思決定支援システムなど、協力的な意思決定システムにおいてMLが信頼できるコンポーネントである協力的なビジョンは、一方の強みを制限するのではなく、両方のコンポーネント(人間と機械)の強みを特徴付けるべきです。 0.78
Although explainability is a vital factor in affecting human trust in ML algorithms [17], it is not entirely sufficient to achieve the true vision of how ML can help humanity by improving our ability to predict the future. MLアルゴリズム [17] における人間の信頼に影響を与える重要な要因は説明責任であるが, 将来を予測する能力を向上させることで, MLが人類にどのように役立つかという真のビジョンを達成するには十分ではない。 0.74
To achieve true human-machine collaboration, especially in expert domains where high levels of risks are inherent, ML systems will need to do more than merely explain themselves. 真の人間と機械のコラボレーションを実現するには、特に高いレベルのリスクが固有のエキスパートドメインでは、MLシステムは単に自己説明する以上のことを行う必要があります。 0.56
They will also need to adapt to and in some cases overcome the natural limitations of our human cognitive evolution. また、人間の認知進化の自然な限界に適応し、場合によっては克服する必要があります。 0.62
Horizons of Predictability: Limits of human cognition in prediction 予測可能性のホライズンズ:予測における人間の認知の限界 0.67
In the field of physics, the horizon of predictability (HOP) refers to the limit after which forecast becomes impossible due to the exponential accumulation of errors [18, 19]. 物理学の分野では、予測可能性の地平線(HOP)は、エラーの指数的蓄積によって予測が不可能になる限界を指します[18, 19]。 0.79
Machine learning has a similar limit to its predictive horizon for the same reason [20, 21, 22, 19]. 機械学習は、[20, 21, 22, 19]と同じ理由で、予測的地平線に類似した制限がある。 0.76
This limit is unbreakable, in the sense that even with perfect knowledge of the underlying dynamics of the system, it is impossible to make predictions beyond a certain point because the latent errors compound to such an extent that no certainty can be achieved. この限界は、システムの根底にあるダイナミクスを完全に理解しても、確実性が得られない程度に潜入誤差が混ざり合うため、特定の点を超えて予測を行うことは不可能であるという意味では、破滅不可能である。 0.70
Although there are limits to how far out ML can accurately make predictions, that horizon of predictability extends far beyond the horizon of predictability of human beings (e.g., Figure 1). MLが正確に予測できる範囲には限界があるが、予測可能性の地平線は人間の予測可能性の地平線をはるかに超えている(図1)。 0.79
The limits of human prediction stem mainly from our own cognitive capacity and tendencies, rather than from latent errors in the data. 人間の予測の限界は主に、データの潜在エラーではなく、私たちの認知能力と傾向に起因しています。 0.80
Limits to hu- 3 hu の制限 3 0.75
英語(論文から抽出)日本語訳スコア
Table 1: Structure of mental process for diagnosis and prediction of a human expert. 表1:人間の専門家の診断と予測のための精神的プロセスの構造。 0.84
explore new emerging patterns. 新しいパターンを探求する。 0.80
Our instinct to focus on single dominant patterns is quite useful in identifying and classifying known entities (e.g., diagnosing). 単一の支配的なパターンにフォーカスする本能は、既知のエンティティ(例えば診断)を識別し分類するのに非常に有用である。 0.66
But this instinct also means that our ability to predict future events is ultimately fragile because our focus on identifying dominant patters often means that we exclude emerging sub-patterns (what is necessary to accurately make a prognosis). しかし、この本能は、将来の出来事を予測する能力が最終的に脆弱であることを意味しています。なぜなら、支配的なパターを特定することに焦点を合わせることは、新興のサブパターン(正確に予後を作るために必要なもの)を排除することを意味するからです。
訳抜け防止モード: しかしこの本能は、未来の出来事を予測する能力が最終的に脆弱であることを意味している。 出現するサブパターン(正確に予後を作るために必要なもの)を除外します。
0.67
The process of Diagnosing [25] requires a mechanistic model, which necessitates multiple knowledge fundamentals at different levels of maturation. 診断のプロセス [25] は、成熟の異なるレベルで複数の知識基盤を必要とするメカニスティックモデルを必要とする。 0.82
This information is used to guide our exploration until we find an eventual matching pattern, and hence a diagnosis is confirmed. この情報は、最終的に一致したパターンが見つかるまで探索をガイドするために使われ、診断が確定する。 0.67
The primary mechanism through which diagnoses are made, however, is through a ”ruling out” process, which consists largely of seeking evidence to support a main hypothesis, and systematically dismissing other hypotheses that are not supported by the data. しかし、診断を行う第一のメカニズムは、主な仮説を支持する証拠を探すことと、データによって支持されない他の仮説を体系的に否定する、いわゆる“ルーリングアウト(ruling out)”プロセスである。 0.71
Prognosis, on the other hand, requires us to admit the projection of ideas not yet formalized on a representational support, i.e. 一方、予後は、表現的支援においてまだ形式化されていないアイデアの射影を認めることを要求する。 0.61
a mental map that has not matured to a full mechanistic model. 完全に機械的なモデルに成熟していないメンタルマップ。 0.69
In an attempt to separate informational uncertainty from intrinsic medical uncertainty, experts naturally attempt to anticipate future changes. 内在的な医学的不確実性から情報的不確実性を切り離すために、専門家は自然に将来の変化を予測しようと試みる。
訳抜け防止モード: 内因性医療の不確実性から情報不確実性を切り離す試み 専門家は自然に 未来の変化を予測しようとします
0.66
Unfortunately, this projection suffers from the same confirmatory bias as mentioned before [26]. 残念ながら、この予測は前述した[26]と同じ確証バイアスに悩まされます。 0.67
When attempting to make predictions, research demonstrates that the projection of a series of consecutive states of a phenomenon is usually ruled by a dominant master pattern, to the exclusion of other potentially informative and influential patterns [16]. 予測をしようとすると、ある現象の連続した状態の投影は、通常支配的なマスターパターンによって支配され、他の潜在的に有意で影響力のあるパターンが排除される[16]。 0.72
This dominant pattern is heavily informed by a feeling of coherence, which is affectingly charged before been conscientiously represented [27]. この支配的なパターンは、良心的に表される前に影響を及ぼすコヒーレンスの感覚によって強く通知されます[27]。 0.68
In other words, to make sense of the chaos, human beings tend to arrange available information into a form of a narrative [28]. 言い換えれば、混乱を理解するために、人間は利用可能な情報を物語の形式に配置する傾向がある [28]。 0.72
Studies consistently show Figure 1: Human and machine horizons of predictability (HOP). 研究は一貫して 図1:予測可能性(HOP)の人間と機械の地平線。 0.66
Machine learning is able to make an accurate prediction at a longer timescale than human beings, but humans often struggle to trust ML outputs because they are difficult to comprehend, and do not incorporate all available information, including human intution. 機械学習は人間よりも長い時間スケールで正確な予測を行うことができるが、人間は理解が困難で、人間の直感を含むすべての情報を組み込むことができないため、ML出力の信頼に苦慮することが多い。 0.81
Our proposed architecture extends human predictive performances up to a time nearer to the theoretical machine HOP, thus enhancing human-machine teaming in medical prognoses. 提案アーキテクチャは,ヒトの予測性能を理論機械HOPに近い時間まで拡張し,医療診断におけるヒトと機械の連携性を向上させる。 0.75
man cognitive capacity are well known. 人間の認知能力はよく知られている。 0.65
For example, Miller’s Law, or the so-called ‘magic number 7 plus or minus 2’ illustrates the limits of working memory functions of human beings [23]. 例えば、ミラーの法則(いわゆる「マジックナンバー7プラス」または「マイナス2」)は、人間の動作記憶機能の限界を示している [23]。 0.73
Humans have other well-known computational challenges as well. 人間には他にもよく知られた計算の課題がある。 0.48
For example, they often struggle to comprehend abstract concepts such as single-event probabilities and nonlinear distributions of data [24]. 例えば、単発確率やデータの非線形分布といった抽象概念を理解するのに苦労することが多い[24]。 0.78
These cognitive limitations severely limit human ability to make accurate predictions, creating in essence a very near horizon of predictability. これらの認知的限界は人間の正確な予測能力を大幅に制限し、本質的には予測可能性の非常に近い地平線を生み出します。 0.60
Aside from these computational limitations, humans also suffer from cognitive flaws that limit our ability to accurately project future states. これらの計算の制限とは別に、人間は将来の状態を正確に予測する能力を制限する認知的欠陥に悩まされる。 0.65
As mentioned earlier, our understanding of human evolution points to the prioritization of rapid pattern recognition, but not necessarily the ability to uncover and 先述したように、人間の進化に対する我々の理解は、迅速なパターン認識の優先順位付けを示しているが、必ずしも解明する能力ではない。 0.60
4 DiagnosisPrediction PhenomenonExpert limitationsDiagnosis anddecision-makingre assemblematureknowle dgeelementsinaprojec tedsupport,i.e.astab lementalmaptocompute observeddataofthephe nomenon.Predictionre assemblesnon-maturek nowledgeelements(ide as)inaprojectedsuppo rt,i.e.amentalmap,co nsistinginamixofstru cturesandrepresentat ions,thatisabletogat herdynamicallyobserv eddataofthephenomeno n.Thementalmapcouldb econsideredasorganiz edfollowingamechanis ticmodelinpatternsan dsubpatternsthat,dom inates,hides,expands ,reduces,securesinte rnalcoherenceandorga nisesdependencies.Su bpatternswouldthenor ganizethemselvesdyna micallyaroundonemast erpattern.Thementalm apcouldbeconsideredp rojectedasfollowinga seriesofconsecutives tatesoftheinitialphe nomenonthatmixsubpat terns,identifythemas terpattern,respectin ternalcoherence,reje ctnoise,projectthefu tureorganizations.Pr edictionthenwouldbep rojectedaroundthedom inationofonemasterpa ttern.Expertlimitati ons&Paceofinternalchange sinthephenomenonismo stofthetimeanticipat edinordertoconfirmth ediagnosisandtakethe correspondingdecisio n.Aprognosisisdelive redfollowingtheprevi ouslyidentifiedmecha nisticmodel.Paceofch angesintheorganizati onofallsubpatternsca nhardlybeanticipated .Avoidingnoiseisatth eoriginofpartialityi ntheprediction.Forec asted TimeMachineHumanUnce rtainty Human HOPTheorical Machine HOPCertainty 4 DiagnosisPrediction PhenomenonExpert limitationsDiagnosis anddecision-makingre assemblematureknowle dgeelementsinaprojec tedsupport,i.e.astab lementalmaptocompute observeddataofthephe nomenon.Predictionre assemblesnon-maturek nowledgeelements(ide as)inaprojectedsuppo rt,i.e.amentalmap,co nsistinginamixofstru cturesandrepresentat ions,thatisabletogat herdynamicallyobserv eddataofthephenomeno n.Thementalmapcouldb econsideredasorganiz edfollowingamechanis ticmodelinpatternsan dsubpatternsthat,dom inates,hides,expands ,reduces,securesinte rnalcoherenceandorga nisesdependencies.Su bpatternswouldthenor ganizethemselvesdyna micallyaroundonemast erpattern.Thementalm apcouldbeconsideredp rojectedasfollowinga seriesofconsecutives tatesoftheinitialphe nomenonthatmixsubpat terns,identifythemas terpattern,respectin ternalcoherence,reje ctnoise,projectthefu tureorganizations.Pr edictionthenwouldbep rojectedaroundthedom inationofonemasterpa ttern.Expertlimitati ons&Paceofinternalchange sinthephenomenonismo stofthetimeanticipat edinordertoconfirmth ediagnosisandtakethe correspondingdecisio n.Aprognosisisdelive redfollowingtheprevi ouslyidentifiedmecha nisticmodel.Paceofch angesintheorganizati onofallsubpatternsca nhardlybeanticipated .Avoidingnoiseisatth eoriginofpartialityi ntheprediction.Forec asted TimeMachineHumanUnce rtainty Human HOPTheorical Machine HOPCertainty 0.46
英語(論文から抽出)日本語訳スコア
that decision making is greatly influenced by how coherent a person’s narrative is constructed— whether that narrative is self-chosen, or presented to them in the form of “evidence” [29]. その意思決定は、その物語が自発的であったり、あるいは“エビデンス”[29]という形で提示されたりといった、人の物語がいかに一貫性をもって構築されているかに大きく影響されます。
訳抜け防止モード: その意思決定は、ある人の物語がいかにコヒーレントであるか – その物語が自己であれ – によって大きく影響される。 または “ evidence ” [29 ] という形で提示する。
0.69
To determine a prognosis, therefore, the prognosis that seems most likely and plausible to the person is the one that arranges the data in the most coherent structure— i.e., the one that tells the most convincing story. したがって、予後を決定するためには、最も可能性が高く、最も確実と思われる予後は、最も一貫性のある構造(つまり最も説得力のある物語を語るもの)にデータを配置するものである。 0.63
Unfortunately, as has been demonstrated before, data do not always arrange themselves neatly into logical causal relationships that can be quickly appreciated by human beings, which sadly means that a great deal of the time, human beings have a tendency to see connections where there are none [30]. 残念なことに、データが常に論理的な因果関係に適切に配置されているわけではないので、人間には[30]が存在しないようなつながりがある傾向がある。
訳抜け防止モード: 残念ながら、前にも示したように、データは常に論理的因果関係にきちんと整理されているわけではありません。 悲しいことに、多くの時間、人間には傾向があり 30 ] がない場合の接続を確認するためです。
0.67
In summary, our evolutionary drive to seek dominant patterns and our affinity to arrange data into a narrative format is especially useful when it comes to diagnosing, but not especially useful for making prognoses. 要約すると、我々が支配的なパターンを追求し、物語形式にデータを配置する親和性を求める進化的動機は、診断に関しては特に有用であるが、診断には特に役に立たない。 0.66
In order to achieve true human-machine collaboration where experts confidently leverage the predictive power of ML, the task at hand, therefore, should not be to focus solely on creating more predictive algorithms, or creating more explainable models. 専門家がMLの予測力を確実に活用する真の人間と機械のコラボレーションを実現するためには、その課題は、より予測的なアルゴリズムの作成や、より説明可能なモデルの作成にのみ集中するべきではない。 0.68
These efforts have already demonstrated their futility through previous generations of clinical decision support systems. これらの取り組みは、以前の世代の臨床意思決定支援システムを通じて、その実用性をすでに実証している。 0.52
What we need instead is to create human-machine systems that allow for the uniqueness of expert human intuition to combine with the distant horizon of predictability of machine learning. 私たちが必要とするのは、専門家の人間の直感のユニークさが機械学習の予測可能性の遠い地平と結びつくことを可能にする人間-機械システムを作ることです。 0.67
A Post-Explanation Paradigm Shift 説明後のパラダイムシフト 0.67
So far we have detailed the problems that may create usability conflicts between users and machine learning algorithms. これまで私たちは、ユーザと機械学習アルゴリズムの間のユーザビリティの衝突を引き起こす可能性のある問題を詳述してきた。
訳抜け防止モード: これまでのところ 問題の詳細は ユーザと機械学習アルゴリズムの間のユーザビリティの衝突を引き起こす可能性がある。
0.71
Despite highly accurate systems, these conflicts pose a significant threat to the likelihood of machine learning integrating and being formally adopted by expert domains such as medicine. 精度の高いシステムにもかかわらず、これらの衝突は機械学習が統合され、医学などの専門家ドメインによって正式に採用される可能性に大きな脅威となる。
訳抜け防止モード: 精度の高いシステムにもかかわらず、これらの衝突は機械学習の統合の可能性に重大な脅威をもたらす 医療などの専門分野に 正式に採用されています
0.68
Because machine learning can reason and project out much further than human capabilities, there is a gap between the machine and human horizon of predictability— the limits at which accurate predictions can be made. 機械学習は人間の能力よりもずっと理屈を当てはめることができるので、機械と人間の予測可能性の地平線の間には、正確な予測ができる限界がある。 0.78
Current XAI approaches alone will not narrow this gap because a) they are mostly retrospective in focus and do very little to explain future predictions; and b) we have human cognitive limitations (i.e., we have a tendency to focus on predominant patterns that are familiar to us and therefore ignore emerging new patterns, and we have cognitive limitations in how much data we can process). 現在のXAIアプローチだけでは、このギャップを狭めることはありません。なぜなら、(a)彼らは主に振り返りに焦点を合わせており、将来の予測をほとんど説明しないからです。
訳抜け防止モード: 現在のXAIアプローチだけではこのギャップを狭めることはない。 a) 主に焦点を合わせるふりかえりであり、将来の予測を説明するのはほとんどない ;およびb) 人間の認知的限界(すなわち、認知的限界)がある。 傾向があります 慣れ親しんだ支配的なパターンに焦点を合わせ 新たなパターンを無視するのです データの処理量には 認知的制限があります)
0.80
To overcome these limitations, we need systems that are specifically designed with the human predisposition for cognitive intuition in mind in order to enhance acceptability and encourage collaboration. これらの制限を克服するには、受諾性を高め、協力を促進するために、人間の認知的直感を念頭に置いて特別に設計されたシステムが必要です。 0.55
A system that seeks to augment, as opposed to supplant, intuition would be one that presents its outputs in forms that are easily understandable, to the point of being practically available for humans to use as part of their reasoning. 植え付けとは対照的に、直感を増やそうとするシステムは、人間がその推論の一部として実際に使えるようにするために、理解しやすい形でその出力を提示するものです。 0.63
We cannot expect all users of ML to become experts in computer science in order to use ML. MLを利用するためには、MLの全ユーザがコンピュータサイエンスの専門家になることは期待できない。 0.73
Nor do we not want AI that presents itself as an oracle, or one that requires humans to trust it implicitly and not ask many questions. あるいは、人間が暗黙的にそれを信頼し、多くの質問をしないように要求するAIも望んでいません。 0.66
But we also must be mindful of not creating “coercive AI” or “persuasive AI” that lead human decision makers down a path of our own choosing. しかし、私たちはまた、人間の意思決定者を私たちの選択の道を導く「強制AI」または「説得型AI」を作成しないことに留意する必要があります。 0.69
So what are we to do? では、何をすべきか? 0.62
Rather than developing ways to extract information from intractable models, a plausible solution to encourage better human-machine collaboration with ML is to design machine learning in such a way that its mathematical forms and representations maximize human understanding and comprehension. 難解なモデルから情報を抽出する方法を開発するのではなく、MLとの人間と機械のコラボレーションをより良くするための実用的な解決策は、その数学的な形式と表現が人間の理解と理解を最大化するように機械学習を設計することです。 0.63
Rather than requiring humans to understand the mechanisms underlying ML, why not develop ML in such a way that its outputs are packaged in a format that most humans can naturally understand? MLの基礎となるメカニズムを人間に理解させるのではなく、ほとんどの人間が自然に理解できるフォーマットで出力がパッケージ化されるように、MLを開発してみませんか? 0.74
Much research has demonstrated that the way information is represented (i.e., how it is displayed and visualized) can determine a great deal on whether or not humans will comprehend and understand it. 多くの研究が、情報の表現方法(つまり、どのように表示され、視覚化されるか)が、人間がそれを理解して理解するかどうかを大いに決定できることを実証している。
訳抜け防止モード: 多くの研究によって 情報は表現される(つまり、どのように表示され、可視化されるか)。 人間が理解し理解するかどうかを 判断できます
0.77
For instance, the statement ”If a patient has COVID-19 the probability that they will have a positive result on a rapid test is 95%” is often confused with ”if a patient has a positive test result the probability that they have COVID-19 is 95%.” This is an example of how causality, the direction of inference, and conditional probabilities can easily be confounded. 例えば、「もし患者がCOVID-19を持っている場合、素早い検査で陽性となる確率が95%であるなら、その患者が陽性となる確率が95%である」としばしば混同される。これは、因果性、推論の方向、条件付き確率がどのようにして容易に分離されるかの例である。 0.73
In the example above, the first statement is referring to the sensitivity of rapid COVID-19 tests (95% accurate at detecting COVID-19 [31]). 上の例では、最初の声明は、急速なCOVID-19テストの感度(95%はCOVID-19を検出するのに正確[31])を指します。 0.72
The second statement, however, confounds the directional inference, mistakenly reversing the conditional probability [32]. しかし、第2のステートメントは方向推論を混乱させ、条件付き確率を誤って逆転させる[32]。 0.73
For this reason, best practices when displaying statistical risk call for the use of frequency statements (e.g., COVID19 tests will successfully identify 9 out of 10 people who are infected), as they are more intuitively understood by most people [33]. このため、統計リスクを表示する際のベストプラクティスは、ほとんどの人が直感的に理解しているため、頻度ステートメント(例えば、COVID-19検査では感染した10人中9人を特定することに成功している)の使用を呼びかける。
訳抜け防止モード: そのため、いつベストプラクティスを実践するか 統計的リスクを示す 周波数文の使用を呼びかける (例:COVID19検査で感染した10人中9人を特定する) ほとんどの人が直感的に理解しているからです [33]
0.84
Another example, one salient to ML, is the reliance on probabilities to communicate uncertainty. もう一つの例は、MLに忠実な例で、不確実性を伝える確率に依存することである。 0.46
This strategy is very problematic for a variety of reasons. この戦略は様々な理由から非常に問題となる。 0.84
First, humans do not understand probability very well unless they are specifically trained to do so [33]. 第一に、人間は特別な訓練を受けない限り、確率をあまりよく理解しない [33]。 0.79
Second, in order to fully appreciate probability, it is necessary to have information related to base rate and frequency of occurrences (something that is seldom afforded to users). 第二に、確率を十分に理解するためには、ベースレートや発生頻度(ユーザにはほとんど手に入らないもの)に関連する情報が必要である。 0.81
Thirdly, single-event probabilities are notoriously prone to being misunderstood by users [24]. 第三に、単発確率はユーザーによって誤解される傾向がある[24]。 0.70
For example, the statement ”The system is 40% certain that a patient will develop PTSD” can be interpreted a number of different ways. 例えば、“このシステムは、患者がPTSDを開発することを40%確信している”という文は、さまざまな方法で解釈できる。 0.77
One might interpret the statement to mean that 40% of patients 患者の40%は、この声明を解釈するかもしれません。 0.70
5 5 0.85
英語(論文から抽出)日本語訳スコア
with profiles like this one will develop PTSD, while another might interpret the statement to mean that the system will be able to predict future PTSD in 40% of patient records. このようなプロファイルによってptsdが発達する一方で、別の人は、システムが患者の記録の40%で将来のptsdを予測できることを意味すると解釈するかもしれない。
訳抜け防止モード: このようなプロファイルでPTSDが生成され、別のプロファイルがステートメントを解釈するかもしれません つまり、患者の40%が将来のPTSDを予測できるということだ。
0.76
These are all simple examples of how the way that information is represented, or its form, can either make that information better understood, or more likely to be confused. これらはすべて、その情報がどのように表現されるか、あるいはその形が、その情報をよりよく理解させるか、あるいは混乱しやすいかの単純な例である。 0.71
Just as numbers can be expressed in a variety of different forms, the outputs of ML can also. 数値が様々な形で表現できるのと同じように、MLの出力も可能である。 0.70
Our approach to using mathematical representations that capitalize on and augment human intuition is to use Neural Ordinary Differential Equations (NODEs) [34]. 人間の直感を生かし,強化する数学的表現を使うには,ニューラル正規微分方程式(NODE)を用いる[34]。
訳抜け防止モード: 人間の直感を生かし増進する数学的表現の活用への我々のアプローチ NODE(Neural Ordinary Differential Equations) [34 ]を使用する。
0.83
Neural Ordinary Differential Equations: An elegant solution to the paradox of explainability 神経常微分方程式:説明可能性のパラドックスに対するエレガントな解 0.72
Ordinary Differential Equations (ODE’s) are well known in the fields of applied and pure mathematics. 通常の微分方程式(ODE)は、応用数学と純粋数学の分野でよく知られています。 0.76
Their long history of beneficial use in physics and engineering has resulted in large and extremely welltested, high performing differential equation libraries. 彼らの物理学と工学における長きにわたる有用利用の歴史は、大きく、非常によくテストされ、高い性能の微分方程式ライブラリを生み出した。 0.59
Differential equations are a tried and tested tool for modelling data that until 2018 had been largely left out of the conversation surrounding machine learning. 微分方程式は、データモデリングのための試行錯誤ツールであり、2018年までは、機械学習を取り巻く会話からほとんど失われていた。
訳抜け防止モード: 微分方程式は、データモデリングのための試行錯誤ツールである 2018年までは 機械学習を取り巻く 議論から遠ざかっていたのです
0.76
Their introduction as an architecture for machine learning was met with much surprise and critical acclaim from the scientific and computational communities of practice, including the best paper of the year at the 2018 Conference on Neural Information Processing Systems (NEURIPS, [34]). 彼らの機械学習のアーキテクチャとしての紹介は、2018年のニューラル情報処理システム(neurips, [34])における今年のベストペーパーを含む、科学的および計算的実践コミュニティから大きな驚きと批判的な評価を受けた。
訳抜け防止モード: 機械学習のアーキテクチャとしての彼らの導入は、科学的および計算的な実践コミュニティから多くの驚きと批判的な評価を受けた。 2018 Conference on Neural Information Processing Systems (NEURIPS)の今年のベストペーパーを含む。 [ 34 ] ) .
0.86
Applied to machine learning, Neural Ordinary Differential Equations (NODEs) are algorithms that encode the dynamics of a system by learning an ordinary differential equation for function approximation, as opposed to training a neural network. ニューラル正規微分方程式(Neural Ordinary Differential Equations, NODE)は、ニューラルネットワークのトレーニングとは対照的に、関数近似の通常の微分方程式を学習することでシステムの力学を符号化するアルゴリズムである。 0.81
NODEs have several advantages over other machine learning techniques for providing clear and tractable outputs. NODEは、明確でトラクタブルな出力を提供する他の機械学習技術よりもいくつかの利点があります。 0.53
First, they express the solution in continuous time as opposed to models discretizing the timeline into small time steps [35, 36, 37, 38] and can learn on irregular time-series to best match real-world data (for instance biological measurements in the medical field). まず、タイムラインを小さな時間ステップ [35, 36, 37, 38] に識別するモデルとは対照的に、ソリューションを連続時間で表現し、現実世界のデータ(例えば医療分野での生物学的測定)に最も適した不規則な時間系列について学ぶことができます。 0.73
As opposed to the more common Partial Differential Equations (PDEs) [34, 39, 35], where the dynamics of a multi-variate function is modeled; NODEs only consider differentials with respect to a single parameter [40, 41, 42]. より一般的な偏微分方程式 (pdes) [34, 39, 35] とは対照的に、多変数関数のダイナミクスはモデル化され、ノードは単一のパラメータ [40, 41, 42] に対する微分のみを考える。 0.78
Because we are interested in future projections (i.e., predictions or prognosis), the most relevant continuous indexing parameter is time. 将来の予測(予測や予後など)に関心があるため、最も関連する連続インデックスパラメータは時間である。 0.77
Consequently, we posit that using NODES with all derivatives being with respect to the time variable will afford users a tremendous benefit in being able to comprehend and trust ML outputs for future predictions. その結果,NODESを時間変数に関するすべてのデリバティブと組み合わせることで,将来の予測のためにML出力を理解・信頼する上で,ユーザにとって大きなメリットがある,と仮定した。 0.72
For instance, using a NODE architecture, it is possible to let the latent information evolve for an arbitrary 例えば、NODEアーキテクチャを使えば、任意の目的で潜伏した情報を進化させることができる。 0.72
long time to uncover subtle information about the future evolution of the system. システムの将来の進化に関する微妙な情報を明らかにするための長い時間。 0.76
This serves as a useful method of simulating future states, with time as the single differentiating factor. これは、時間とともに単一の微分因子として将来の状態をシミュレートする有用な方法である。 0.67
Similarly, NODEs can be used to invert the arrow of time, and effectively reproduce the steps they took to arrive at any observed state of the system. 同様に、NODEは時間の矢印を反転させ、システムの観察された状態に到達するのに要したステップを効果的に再現するために使用できます。 0.70
This effectively affords users a traceability analysis, and allows users to answer questions about the steps that led to the current observed state of the system. これにより、ユーザーにトレーサビリティ分析を効果的に提供し、現在のシステムの監視状態につながるステップに関する質問に答えることができます。 0.81
This process is described in the first line of Table 4. この過程は表4の第1行で記述される。 0.83
In addition to the benefits mentioned above, NODEs also show better long-term predictions than classical recurrent neural network (RNN) architectures. 上記の利点に加えて、NODEは古典的なリカレントニューラルネットワーク(RNN)アーキテクチャよりも優れた長期予測を示す。 0.76
Published works [34, 39] (and the companion code [43]) have demonstrated for the first time the use of NODEs in a latent ODE architecture to model patients’ trajectories from physiological data recorded in an intensive care unit (ICU). 出版された作品[34, 39](およびコンパニオンコード[43])は、集中治療ユニット(ICU)に記録された生理学的データから患者の軌跡をモデル化するために、遅れたODEアーキテクチャにおけるNODEの使用を初めて実証しました。 0.86
In this work, NODEs show a better sequence reconstruction and state-of-the-art accuracy when predicting in-hospital mortality or risk of re-admission compared to other deep learning architectures [39, 44]. 本研究では,他のディープラーニングアーキテクチャ [39, 44] と比較して,院内死亡率や再入院のリスクを予測する場合,NODE のシーケンス再構築と最先端の精度が向上することを示す。 0.68
More broadly, a system based on NODEs could be especially well suited to predict future states in noisy dynamic systems, such as those commonly found in clinical decision support. より広い意味では、ノードに基づくシステムは、臨床決定支援で一般的に見られるようなノイズの多い動的システムの将来の状態を予測するのに特に適している。 0.77
We summarize in Table 2 the main improvements between existing explainability frameworks and our proposed approach using NODEs. 既存の説明可能性フレームワークと提案したNODEによるアプローチの主な改善点を表2にまとめる。 0.81
Table 2: Key changes between the explainability framework and the post-explainability framework presented here. 表2: 説明可能性フレームワークと後説明可能性フレームワークの主な変更点を以下に示す。 0.65
Properties of the latent space modelled by latent ODEs 遅発性ODEをモデルとした潜入空間の特性 0.67
To briefly illustrate and summarize the basic function of NODEs, we will briefly discuss latent ODEs NODEの基本機能を簡潔に説明し、要約するために、潜伏するODEについて簡単に議論する。 0.56
6 FrameworkObjectiveTi me-seriesanalysistec hnologyAccuracyAccep tability mechanism Post explainability Provide a narrative on how the system is evolvingODE (Latent ODE)Greater than state of the artQuery-based Human/AI interactions ExplainabilityExplai n where the system is evolving toRNN(VAE RNN)Baseline (state of the art)Fixed set of explanations provided 6 frameworkobjectiveti me-series analysistechnologyac curacyacceptability mechanism post descriptionability provides a narrative on the system is evolutionode (latent ode) much than state of the artquery-based human/ai interaction explanationabilityex plain where the system are evolution tornn(vae rnn)baseline (state of the art)fixed descriptions provided (英語) 0.77
英語(論文から抽出)日本語訳スコア
and their technical structure. Latent ODEs are used to model the evolution of a process across a time series based on data from an initial latent state. 技術的な構造です 遅延ODEは、初期潜時状態のデータに基づいて時系列にわたるプロセスの進化をモデル化するために使用される。 0.71
While RNNs are the go-to solution for modeling regularly sampled time-series data, they do poorly when presented with irregular or inconsistent data, such as the data commonly found in a patient’s medical record. rnnは、定期的にサンプリングされた時系列データをモデリングするためのgo-toソリューションですが、患者の医療記録で一般的に見られるような不規則なデータや一貫性のないデータでは不十分です。 0.65
To achieve success with traditional RNNs when dealing with inconsitent or irregular time-series data, many workaround steps in data preprocessing are necessary [34]. 不便または不規則な時系列データを扱う場合、従来のRNNで成功するためには、データ前処理における多くの回避ステップが必要である[34]。 0.67
These steps result in fairly accurate predictions, but without any of the information (particularly the time-related information) necessary to understand the latent variables underlying the prediction. これらのステップは、かなり正確な予測をもたらすが、予測の基礎となる潜在変数を理解するために必要な情報(特に時間関連情報)がまったくない。 0.69
Latent ODEs, on the other hand, are superior to traditional RNNs because they are flexible with respect to incomplete or inconsistent data, and are especially capable at modeling the future across time. 一方で潜在odeは、不完全あるいは一貫性のないデータに対して柔軟であり、特に時間とともに未来をモデル化する能力があるため、従来のrnnよりも優れている。 0.67
The resulting latent trajectory should contain information that is both useful for the main classification task, and for the reconstruction, thus showing the important features of the original time-series. 結果として生じる潜在軌道は、主分類タスクと再構築の両方に有用な情報を含んでいなければならないため、元の時系列の重要な特徴を示す。 0.67
Accordingly, this architecture is intrinsically suitable for irregularly sampled data, as is common in healthcare data, whereas existing approaches must add timestamps to RNNs in an artificial way. したがって、このアーキテクチャは、医療データに共通する不規則なサンプルデータに本質的に適しているが、既存のアプローチでは人工的にRNNにタイムスタンプを追加する必要がある。 0.65
Roughly speaking, the latent ODE system takes measurements (x0, . 大まかに言えば、潜在ODEシステムは測定値(x0, )を取る。 0.61
. . , xt) as input, and translates them into a latent internal representation (z0, . . . , xt) を入力として、それらを潜在内部表現 (z0, ) に変換する。 0.80
. . , zt) with internal dynamics following a learned equation . . , zt) 学習方程式に従う内部ダイナミクスを持つ 0.87
dz dt = fθ(z, ), dz dt = fθ(z, ) である。 0.86
where fθ is expressed by a deep neural network taking into account the noise  involved in the system. fθは、システムにかかわるノイズを考慮に入れたディープニューラルネットワークによって表現される。 0.76
The whole latent trajectory depends only on z0, and can be extrapolated for an arbitrary long time by integrating the differential equation, giving extrapolations (z0, . 潜在軌道全体は z0 にのみ依存し、微分方程式を統合することで任意の長時間外挿が可能であり、外挿(z0, )を与える。 0.69
. . , zN ) for any N . . . あらゆる N のための 、zN )。 0.82
Finally, the latent trajectory is decoded into an approximation (ˆx0, . 最後に、潜在軌跡は近似(x0, )に復号される。 0.68
. . , ˆxN ) of the original measurement. . . は元の測定の(xN)。 0.83
The encoder, decoder and differential equation weights are trained so that ˆx is as close as possible to the real trajectory x. エンコーダ、デコーダ、微分方程式の重み付けは、x が実軌道 x にできるだけ近いように訓練される。 0.62
It was previously observed in the literature that latent ODEs achieve results that are comparable or better than state-of-the-art performances on real life datasets (on the MIMIC-II dataset, see table 6 in [39], reproduced here as Table 3, and on the MIMIC-III dataset see [44]). 遅れたODEは、実生活データセット(MIMIC-IIデータセットでは[39]の表6を参照、ここで表3として再現、およびMIMIC-IIIデータセットでは[44]を参照してください)における最先端のパフォーマンスと同等またはより良い結果を達成することが文献で以前に観察されました。 0.70
We refer the reader to [34, 39] for more extensive details on latent ODEs in machine learning. 機械学習における潜在ODEの詳細な詳細については、読者を[34, 39]に紹介します。 0.73
Latent trajectories have been demonstrated on simulated datasets in the literature (see the examples on the spiral dataset in [34]). 文献のシミュレーションデータセットでは、潜在軌道が実証されている([34]のスパイラルデータセットの例を参照)。 0.80
These analyses, however, need to be interpreted within a certain context. しかし、これらの分析は特定の文脈内で解釈する必要がある。 0.67
First, simulated examples are usually low dimensional, so generating a visually compelling latent space does not necessary imply that it will be possible for real life まず、シミュレーションされた例は通常、低次元であるため、視覚的に説得力のある潜在空間を生成する必要はありません。 0.78
Table 3: Results of classification and reconstruction for the MIMIC-II ICU dataset. 表3: MIMIC-II ICUデータセットの分類と再構築の結果。 0.87
The task is to predict the survival of ICU patients, measured by the survival accuracy and AUC. タスクは、生存精度とAUCによって測定されたICU患者の生存を予測することです。 0.75
The goodness of the reconstruction is measured by the mean square error (MSE) on normalized features. 正規化特徴に対する平均二乗誤差(MSE)によって再構成の良さを計測する。 0.78
scenarios where data is noisy, incomplete, irregularly sampled, etc. データが騒々しく、不完全で、不規則にサンプリングされるシナリオ。 0.64
Second, the task studied for these simulated examples are usually restricted to reconstruction. 第二に、これらの模擬事例のために研究される課題は、通常、再建に限られる。 0.52
Thus it is impossible to question whether the latent trajectory actually supports a prediction. したがって、潜在軌道が実際に予測をサポートするかどうかを疑うことは不可能である。 0.61
For instance, enforcing acceptability of an automatically generated prognosis by showing the possible futures of the patient and the important changes that will occur during the projected trajectory. 例えば、患者の将来の可能性と、投影された軌道中に起こる重要な変化を示すことによって、自動的に生成された予後を受容する。
訳抜け防止モード: 例えば、自動生成した予後の受容性を強制する 患者の将来の可能性と、投影された軌道中に起こる重要な変化を示す。
0.79
The analysis made in [39] focused on the neural network’s ability to predict patient mortality. この分析は[39]で、患者の死亡率を予測するニューラルネットワークの能力に焦点を当てた。 0.83
Our main objective, however, is to show that using NODEs to model a system’s evolution leverages additional information about a patient’s trajectory, which contributes to human-level understandability and therefore improves the acceptability of the output (assuming the output is accurate and deserves to be accepted), while not compromising the predictive power compared to state-of-the-art approaches. しかし、私たちの主な目的は、システムの進化をモデル化するためにNODEを使用することで、患者の軌道に関する追加情報を活用することであり、これは人間のレベルの理解可能性に寄与するため、出力の受諾性を向上させる(出力が正確で受け入れられる価値があると仮定する)。 0.71
In the next section, we demonstrate how using a NODE architecture in machine learning can be applied to provide enhanced acceptability and usability. 次節では、機械学習におけるNODEアーキテクチャの使用により、アクセシビリティとユーザビリティが向上することを示す。 0.64
To do this, we demonstrate our approach on a real life medical dataset (MIMIC-II), and analyze to what extent the architecture proposed by [34, 39] helps our purposes. そこで本研究では, 実生活医療データセット(MIMIC-II)へのアプローチを実証し, [34, 39] が提案するアーキテクチャが目的にどの程度役立つか分析する。 0.89
The MIMIC-II dataset is a public dataset with de-identified clinical care data for over 58,000 hospital admission records collected in a single tertiary teaching hospital from 2001 to 2008. MIMIC-IIデータセットは、2001年から2008年までの3つの病院で収集された58,000以上の入院記録の非同定臨床医療データを含む公開データセットです。 0.68
In this work, we focus on the mortality task: predicting whether the patient will die in the hospital, and we also produce a study of the reconstruction trajectories from [39] in the case of ICU patients in order to demonstrate how these data dramatically improve the usability of machine learning predictions. 本研究は,患者が病院で死亡するかどうかを予測すること,および,ICU患者における[39]からの再建軌跡について,これらのデータが機械学習予測のユーザビリティを劇的に改善することを示すために,本研究の課題に焦点を当てる。 0.86
Offering a probabilistic trajectory helps trigger human capabilities 確率論的軌道の提供は人間の能力を刺激する 0.62
Due to the probabilistic nature of NODEs, our proposed architecture can afford not only a robust and tractable future patient trajectory, but a distribution of trajectories, each representing multiple potential futures of the patient, and each with associated probabilities. NODEの確率的性質から,提案したアーキテクチャは,堅牢でトラクタブルな将来の患者軌跡だけでなく,患者の複数の潜在的未来を表現した軌道分布や,関連する確率を表現できる。 0.82
(For an illustration, see [39, Figures 4 and 5]). (イラストは[39, Figures 4, 5]を参照)。 0.70
In practice, this distribution of trajectories would 実際には、この軌道の分布は 0.63
7 RNN-VAESurvivalAUCEx trapolation ReconstructionMSE (x10-3)0.523.05Laten t ODE0.850.832.23 7 RNN-VAESurvivalAUCEx trapolation ReconstructionMSE (x10-3)0.523.05Laten t ODE0.850.832.23 0.60
英語(論文から抽出)日本語訳スコア
afford the user a great deal of insight. ユーザに十分な洞察を与えてください。 0.63
First, the user would be able to easily observe the machine horizon of predictability as the point at which curves are too divergent to extract a coherent behaviour. まず、ユーザは予測可能性の機械の地平線を、曲線が偏りすぎてコヒーレントな振る舞いを抽出できない点として容易に観察することができる。 0.72
Traditional RNNs provide no such indication as to when a prediction becomes untrustworthy, and systems thus must be programmed to rely on training parameters to set a fixed horizon of events independent of the system’s dynamics. 従来のrnnでは、予測がいつ信頼できないかという指示は示されておらず、システムのダイナミクスとは無関係にイベントの一定の地平線を設定するために、トレーニングパラメータに依存するようにプログラムする必要がある。 0.57
NODEs, on the other hand, display their horizon of predictability intrinsically and, most importantly, intuitively. 一方、NODEは、本質的に、そして最も重要な、直感的に予測可能性の地平を示す。 0.53
Trajectories that lie before this horizon, therefore, are ones the user can have greater confidence in, and each can be analyzed individually. この地平線の前に置かれる軌道は、ユーザがより信頼できる軌道であり、それぞれを個別に分析することができる。 0.65
It is in the analysis of these potential scenarios where human intuition may be allowed to combine with the predictive power of ML, and in doing so, may flourish. 人間の直観がMLの予測力と組み合わさることが許される可能性のあるシナリオの分析であり、そうすることで繁栄する可能性がある。 0.60
By providing a timeline with a broad array of potential futures, users can explore these potentials in a way that maximizes and prioritizes their expertise AND intuition because they are now afforded access to multiple potential emerging patterns, instead of having a single dominant pattern presented to them. さまざまな潜在的な将来性を備えたタイムラインを提供することで、ユーザーは、複数の潜在的な新興パターンにアクセスできるようになり、単一の支配的なパターンが提示されるのではなく、その専門性と直感性を最大化し優先順位付けする方法で、これらの可能性を探求することができる。
訳抜け防止モード: 様々な潜在的な未来を タイムラインで提供することで ユーザは、その専門性と直感性を最大化し優先順位付けする方法で、これらの可能性を探求することができる。 単一の支配的なパターンを彼らに提示する代わりに。
0.74
The form that NODEs take, therefore, affords and encourages a kind of ”information foraging” [9, 45], where new emerging patterns are allowed to be considered rather than ruled out preemptively. したがって、NODEが取る形式は、[9, 45][9, 45]のような“情報鍛造(information foraging)”のようなものを与え、奨励します。
訳抜け防止モード: したがって、NODEsが取るフォームは、一種の「情報フォエイジング」[9, 45]を奨励し、奨励します。 新しい出現パターンが 先入観で除外されるのではなく 考慮されることが許されるのです
0.68
NODE trajectories also allow for the exploration of various narratives, arranging and displaying data in a format that natively makes sense to human experts. NODEの軌跡はまた、さまざまな物語の探索を可能にし、人間の専門家にネイティブに意味のある形式でデータを配置および表示することができます。 0.60
The strengths of NODEs illustrated here- a distribution of trajectories along a timeline that affords easy access to predictive boundaries of the machine while allowing multiple potential future scenarios to be explored- emerge as a natural side effect of the architecture. ここで示したNODEの強み - マシンの予測境界に簡単にアクセスでき、複数の潜在的な将来のシナリオを探索できるタイムラインに沿った軌道の分布 - は、アーキテクチャの自然な副作用として現れます。 0.75
In other words, in the same way that conveying risk through the use of frequency statements naturally enables people to grasp statistical information and make better decisions, so too do NODE architectures in machine learning. 言い換えれば、頻度ステートメントを使用することでリスクを伝えるのと同じように、統計情報を自然に把握し、より良い決定を下すことができるので、機械学習においてもNODEアーキテクチャもそうです。
訳抜け防止モード: 言い換えれば、同じように リスクを頻度表現で伝えることで、自然に統計情報を把握し、より良い判断を下すことができます。 機械学習におけるNODEアーキテクチャもそうである。
0.72
Table 4 summarizes the main advantages of our hybrid human-AI approach approach with respect to the classical RNN approaches. 表4は、古典的なRNNアプローチに関して、ハイブリッドヒューマンAIアプローチの主な利点をまとめています。 0.60
To demonstrate these claims, we ran an analysis of the MIMIC-II dataset, which is also studied in [39]. これらの主張を実証するために、我々は[39]で研究されているMIMIC-IIデータセットの分析を行った。 0.72
This dataset is quite complex, full of real-life data that is at times noisy, sometimes incomplete, and has much inter-patient variability. このデータセットは非常に複雑で、時には騒々しい、時には不完全であり、患者間変動が大きい実生活データでいっぱいです。 0.71
These conditions represent many of the characteristics that can harm the predictive power and learning of an ML algorithm, and make interpretation even more difficult. これらの条件は、MLアルゴリズムの予測能力と学習を損なう可能性のある特徴の多くを表し、解釈をさらに困難にする。 0.81
By analyzing this data, we aim to demonstrate to the reader the many inherent strengths of NODE architecture. このデータを解析することにより、NODEアーキテクチャの多くの固有の強みを読者に示すことを目指している。
訳抜け防止モード: このデータを分析することで、私たちは NODEアーキテクチャの多くの固有の強みを読者に示す。
0.78
A discussion of our findings will follow our methodology below. 調査結果の議論は、以下の方法に従います。 0.65
A real-life example: trajectories ICU patients 実生活の例:軌道 ICU患者 0.81
Our first step was to analyse a slightly modified version of the algorithm trained in [39]. 最初のステップは[39]でトレーニングされたアルゴリズムのわずかに修正されたバージョンを分析することです。
訳抜け防止モード: 最初のステップは 39 ]で訓練されたアルゴリズムの少し修正されたバージョンを分析する。
0.82
For our study, training time was extended; better and more variable reconstructions were triggered by reducing the noise parameter, thus limiting the power of the encoder power and increasing the internal ODE weights. 本研究は, 学習時間を延長し, ノイズパラメータを低減し, エンコーダのパワーを制限し, 内部ODE重量を増大させることにより, より優れた, より多様な再構成を誘導した。 0.80
Two samples (patients) with the two possible outcomes (survival and death) were randomly chosen to study the predictions. 2つの可能な結果(生存と死)を持つ2つのサンプル(患者)は、予測を研究するためにランダムに選ばれました。 0.62
Figure 2 represents a 48 hour window of time. 図2は48時間のウィンドウを表しています。 0.74
Each box represents a different measurement category (i.e., inspired O2, Heart Rate, etc). 各ボックスは異なる測定カテゴリ(すなわち、O2、心拍数など)を表す。 0.72
The original measurements (blue dots) are displayed. 元の測定値(青い点)を表示する。 0.77
As the reader can see, some measurements are sparser than others. 読者が見ることができるように、いくつかの測定は他よりもスパースです。 0.57
This represents the various inaccuracies and inconsistencies of the data. これは、データのさまざまな不正確さと不一致を表します。 0.57
For example, the arterial blood pressure for patient B is only measured during the second day. 例えば、患者Bの動脈血圧は、2日目にのみ測定されます。 0.76
Using these measurements, multiple reconstructions, corresponding to the duration of data fed to the algorithm, are conducted for each feature: the solid lines correspond to the reconstructions where original data is known, whereas the dotted lines of the curves correspond to an extrapolated estimation of the patient’s future. これらの測定を使用して、アルゴリズムに供給されるデータの持続時間に応じて、複数の再構築が行われ、固体線は元のデータが知られている再構築に対応しますが、曲線の点線は患者の将来を外挿した推定に対応します。 0.82
Multiple dotted colored lines indicate multiple potential futures. 複数のドットカラーラインは、複数の潜在的な未来を示す。 0.61
As we can see, for parts with completely missing observations, the algorithm tends to estimate its values, knowing all the other measured features and the characteristics of the dataset. ご覧の通り、観測が完全に欠けている部分では、アルゴリズムはその値を推定し、他のすべての測定された特徴とデータセットの特性を知る傾向がある。 0.72
These curves are not flat, so this does not correspond to an imputation to the mean. これらの曲線は平坦ではないので、平均への含意とは一致しない。 0.71
Note also that, for these missing features, the algorithm refines the shape of the estimation curve as information grows. また、これらの欠落した特徴に対して、このアルゴリズムは情報の増加とともに推定曲線の形状を洗練する。 0.70
Some short-scale variations are not well reconstructed by the latent ODE favoring a smooth curve, as the heart rate peaks around the 24th hour of patient B. いくつかの短期変化は、患者Bの24時間前後で心拍数がピークとなるため、スムーズな曲線を好む潜在ODEによってよく再構成されない。 0.63
This shows a direction to improve current NODE models. 現在のNODEモデルを改善する方向を示します。 0.84
Take for example, patient A. 例えば、患者aを例にとりましょう。 0.69
If we look closely at the Glascow Coma Scale (GCS), we can see that the model initially projects an improvement, as seen by the orange and green curves which correspond to 1/5th and 2/5ths of our 48-hour window (roughly the first 20 hours). Glascow Coma Scale(GCS)を詳しく見ると、48時間のウィンドウ(約20時間)の1/5と2/5分の1に対応するオレンジと緑の曲線で見られるように、モデルが最初は改善を計画していることがわかります。 0.77
We see, however, that these projections quickly become accurate when enough data is aggregated. しかし、十分なデータが集約されると、これらの予測はすぐに正確になる。 0.70
The red line projects what might be considered a median outcome, and has a slightly more distant horizon of predictability, while the purple line and finally the brown lines show little or no improvement on the Glasgow Coma Scale. 赤線は中央値と見なされるものを投影し、予測可能性の少し離れた地平線を持ち、紫線と茶色線はグラスゴー・コマ・スケールではほとんど、あるいは全く改善されていない。 0.67
The brown line remains solid throughout the 48 hour window, indicating that high predictive validity and confidence. 茶色の線は48時間の窓を通して堅く残り、高い予測の妥当性および信頼を示します。 0.70
Because we have overlaid the actual measurements of this patient, we can see that the actual GCS data never improved throughout this 48 hour window, thus この患者の実際の測定値をオーバーレイしているため、実際のGCSデータが48時間のウィンドウを通して決して改善されないことがわかります。 0.71
8 8 0.85
英語(論文から抽出)日本語訳スコア
Figure 2: Example results from the latent NODEs model on the ICU data. 図2:ICUデータ上の遅延NODEモデルからの結果を例に示します。 0.76
Medical observation from two patients A and B are shown in blue for 4 normalized features: fraction of inspired oxygen (FiO2), Glasgow Coma Scale, Heart Rate and Arterial pressure of Oxygen. 正常化4つの特徴として, インスパイアされた酸素(FiO2), グラスゴーコマスケール, 心拍数, 動脈圧の4つについて, A群とB群の医療観察を行った。
訳抜け防止モード: 正常化4つの特徴: インスパイアされた酸素(FiO2)の分画について, 2例のAとBの医学的観察を青で示す。 ガスゴーコマスケール, 心拍数, 動脈圧
0.78
The different curves show the reconstruction and extrapolation predicted by the model if given a duration of 1/5th, 2/5th,... of data from the beginning of the time series. 異なる曲線は、時系列の始まりからのデータの1/5、2/5、...の期間が与えられると、モデルによって予測される再構成と外挿を示す。 0.75
We see that for some features like the Glasgow Coma Scale or the FiO2, reconstructions for patient B tend to follow the tendency of the real feature. Glasgow Coma ScaleやFiO2のような一部の機能では、患者Bの再構築は実際の機能の傾向に従う傾向があります。 0.72
The mortality prediction plot shows the model prediction of the in-hospital mortality. 死亡予測プロットは、病院内死亡率のモデル予測を示している。 0.76
Given the 48 hours of data, the system is able to predict the death of patient A and the survival of patient B several days later. 48時間のデータを考えると、システムは患者Aの死亡と患者Bの生存を数日後に予測することができます。 0.80
validating the brown line’s prediction. ブラウンラインの予測を検証する。 0.67
intuitive, while remaining highly accurate. 直感的に 正確さを保ちながら 0.62
The last subplot of Figure 2 represents the mortality prediction: for each duration of given data a latent trajectory is drawn by the system, from which a simple neural classifier computes mortality chances. 図2の最後のサブプロットは、死亡率予測を表しており、与えられたデータの各持続時間において、潜在軌道は、単純な神経分類器が死亡率を計算するシステムによって描画される。 0.70
For patient A, the mortality prediction stays low at the beginning but rises quickly and ultimately crosses the threshold just before the 48-hour mark, indicating that the system predicts patient A will not survive. 患者Aの場合、死亡予測は開始時に低くとどまるが、迅速に上昇し、最終的に48時間のマークの直前にしきい値を超え、システムは患者Aが生存しないと予測する。 0.75
We might infer from the data that this prognosis is due to the stable and deteriorated coma state. この予後は, 安定し, 悪化した coma 状態によるものであると推測できる。 0.64
Although the data shown here is not sufficient alone to make a full cause of death analysis, this simple example demonstrates the ease with which one can access this data and quickly make sense of the underlying connections and their subsequent effects on the predicted outcome. ここで示されるデータは、死の分析の完全な原因を作るだけでは不十分であるが、この簡単な例では、このデータにアクセスし、基礎となる接続とその予測結果に対する後続の影響を迅速に理解することができる。 0.78
For another example, let us examine patient B. 別の例では、患者bを調べましょう。 0.84
The mortality prediction for patient B remains low and even decreases after 24 hours showing the model’s confidence in its prediction. 患者Bの死亡率予測は低いままであり、予測に対するモデルの信頼性を示す24時間後にも減少する。 0.86
It is important to note that the mortality predictions are being made as new data arrives across this 48 hour period. この48時間の期間に新しいデータが到着するにつれて、死亡率の予測が行われていることに注意することが重要です。 0.67
Along those 48 hours are modelled events (i.e., reconstructions) that originate directly from the ODE architecture. これら48時間に沿って、ODEアーキテクチャから直接発生したイベント(すなわち再構築)がモデル化される。 0.75
Both the reconstructions and the mortality predictions demonstrated here illustrate that the latent ODE architecture can handle complex sparse real-life data in a manner that is human-understandable and ここで示した再建と死亡予測の両方は、故意のODEアーキテクチャが複雑なスパースな実生活データを人間に理解されやすい方法で処理できることを示しています。 0.64
Conclusion In the previous section, we illustrated that the NODE architecture is capable of reconstructing a real life dataset, and have demonstrated how an expert might explore the data and produce a narrative in accordance with the NODE’s results and predictions. 結論 前節では,NODEアーキテクチャが実生活データセットを再構築できることを示すとともに,NODEの結果と予測に基づいて,専門家がデータを探索し,物語を生成する方法を示した。 0.71
When attempting to make a prognosis, the ability to visualize in detail the system’s future evolution aids the expert in generating a narrative about the system. 予後を解明しようとするとき、システムの将来の進化を詳細に視覚化する能力は、システムに関する物語を作成する専門家を助ける。 0.80
The ease of use afforded by NODEs, combined with multiple future projections provide simple but powerful insights that extend the human horizon of predictability beyond normal limits, and does so in a way that minimizes bias and maximizes trust in the data. NODEによる使いやすさは、複数の将来の予測と組み合わせることで、人間の予測可能性の水平線を通常の限界を超えて拡張し、バイアスを最小化し、データの信頼を最大化する、シンプルだが強力な洞察を提供する。 0.68
The latent ODE architecture afford the user the possibility to add new hypothetical measurements in the future, and enable the user to ask the system for the most probable paths that led there. 潜在ODEアーキテクチャは、ユーザーに将来新しい仮説的な測定を追加する可能性を与え、ユーザがそこで導かれた最も可能性の高いパスをシステムに尋ねることを可能にする。 0.74
For instance, the expert might choose a specific curve that leads to a region of the feature space that is close to a dangerous situation, and make the following query: ”if the system crosses the frontier of the dangerous region, what happens next, and how did the system evolve to end up here?”. 例えば、専門家は、危険な状況に近い機能空間の領域につながる特定の曲線を選択し、「システムが危険な領域のフロンティアを横切ると、次に何が起こり、システムがどのように進化してここで終わるのか?
訳抜け防止モード: 例えば、専門家は特定の曲線を選択するかもしれません。 危険な状況に近い 特徴空間の領域につながります と、次のクエリを作成します。 システムは危険な地域のフロンティアを横切る 次に何が起こるのか、システムはどのようにしてここで進化したのか?
0.74
This is depicted as the blue line in Fig- これは図の青い線として描かれています。 0.53
9 9 0.85
英語(論文から抽出)日本語訳スコア
Figure 3: Compared to RNNs, an ODE-based approach produces smooth curves which can be evaluated at any point of the trajectory. 図3: RNNと比較して、ODEベースのアプローチは、軌道の任意の点で評価できる滑らかな曲線を生成する。 0.74
Once measured real datapoints are fed to the machine, estimations of its extrapolation can be produced (green curve). 測定された実データポイントがマシンに供給されると、その外挿推定が生成される(グリーンカーブ)。 0.75
The expert user can ask queries such as ”what is the trajectory of a patient who gets close to a dangerous situation (blue dot)? 危険な状況(青い点)に近づいた患者の軌跡はどのようなものか?
訳抜け防止モード: 専門家のユーザは,例えば“何”を問うことができます。 危険な状況(青い点)に 近づいた患者の軌道ですか?
0.82
The latent ODE then constructs a family of most likely trajectories that passes through this newly added point. 潜在ODEは次に、この新たに追加された点を通る最も可能性の高い軌道の族を構成する。 0.55
This extra-information will help the experts to construct a narrative that is compatible with their knowledge, reinforcing their decision process, or to explore the complex family of possible trajectories by asking more specific queries. この余分な情報によって、専門家は知識と互換性のある物語を構築し、意思決定プロセスを強化したり、より具体的な質問をすることで、考えられる軌跡の複雑なファミリーを探索することができる。 0.61
ure 3. As you can see in this figure, the system that ends up close to the dangerous region at the end of the third day does not cross the frontier with this region, so the user may be confident that this situation is not a concern. 3位。 この図でわかるように、3日目の終わりに危険な領域に近づいたシステムは、この地域とフロンティアを横切ることはありませんので、ユーザーはこの状況が心配ではないと確信しているかもしれません。 0.65
Towards augmented decision-making 意思決定の強化に向けて 0.44
Hybrid Human-AI predictive systems could lead the way to a new generation of augmented decisionmaking solutions, and provide radical advances in readiness and response to still unpredictable events. ハイブリッドヒューマンAI予測システムは、新しい世代の拡張型意思決定ソリューションにつながり、未だ予測不可能なイベントに対する準備と対応の根本的な進歩をもたらす可能性があります。 0.67
Predictive agents built on intrinsically explainable ML architectures such as NODEs would offer objectivity when the rational foundations of a prediction are still disputed, and would provide dynamical representations to facilitate early adoption of humanly unpredictable scenarios, in the respect of the expert’s world view. NODEのような本質的に説明可能なMLアーキテクチャ上に構築された予測エージェントは、予測の合理的基盤がいまだ議論されているときに客観性を提供し、専門家の世界観に関して、人間の予測不可能なシナリオの早期導入を促進するための動的表現を提供する。 0.69
As an ultimate result, these proposed predictive agents could allow users to re-code nonrepresentational knowledge (i.e., intuition) into a dynamic representation of the data, thus leveraging the modeling power and advantage of differential equations. 最終的な結果として、これらの予測エージェントは、ユーザーが非表現の知識(直感)をデータの動的表現に再コードし、モデリング力と微分方程式の利点を活用することができる。 0.77
A concrete application in the medical field could be the prediction of risks in Post Traumatic Stress Disorder (PTSD). 医学分野における具体的な応用は、外傷性ストレス障害(PTSD)のリスク予測である可能性がある。 0.74
PTSD is very difficult to model and project future states early, soon after a traumatic event (a time often referred to as the ”blind zone”). PTSDは外傷イベント(しばしば「盲点」と呼ばれる)の直後に、将来の状態を早期にモデル化し、計画することが非常に困難である。 0.80
Because many symptoms of PTSD are difficult to detect and measure (suffering, malaise, depression, suicidal thoughts, etc), creating models that PTSDの多くの症状は、検出および測定が困難であるため(サファリング、不正、抑うつ、自殺思考など)、モデルを作成する。 0.80
make accurate prognoses is exponentially difficult. 正確な予知は指数関数的に困難です 0.54
In our proposed system built on a NODE architecture, a predictive agent could encode the subject’s evolution patterns into a NODE, and run a simulation of the possible future threats, providing then a concise description of the estimated risks. 提案システムでは,NODEアーキテクチャ上に構築された予測エージェントを用いて,対象物の進化パターンをNODEにエンコードし,将来の脅威をシミュレーションし,予測されたリスクを簡潔に記述する。 0.77
Thanks to a more accurate prediction, the physician, during the medical check-up, could decide faster whether to include or not the subject in a specific process of care. より正確な予測のおかげで、医師は医師の診察中に、特定のケアプロセスに被験者を含めるかどうかをより早く判断することができる。 0.69
Perspectives Achieving the vision of humans leveraging the predictive power of ML in a synergistic team relationship will take much planning and work, much of which is beyond mere model development. 展望 シナジスティックなチーム関係において、MLの予測力を活用する人間のビジョンを達成するには、多くの計画と作業が必要です。
訳抜け防止モード: 展望 相乗的チーム関係におけるMLの予測力を活用した人間のビジョンの実現 多くの計画と作業が必要になりますが、そのほとんどは単なるモデル開発以上のものです。
0.64
The first step should be to select and build models that are intrinsically understandable to human beings, and that naturally afford enhanced insight and support better decision making. 最初のステップは、人間に本質的に理解可能なモデルを選択して構築することであり、自然に洞察を増強し、より良い意思決定をサポートすることである。
訳抜け防止モード: 最初のステップは 人間に本質的に理解可能なモデルを 選択して構築することです 自然に洞察力を高め より良い意思決定を支援することができます
0.77
We have demonstrated here one such system, built upon a robust and time-tested mathematical approach to modelling generative processes over time. 我々は、時間とともに生成過程をモデル化するロバストで時間テストされた数学的アプローチに基づいて、このようなシステムを実証した。 0.63
Our demonstration, we hope, illustrates how the use of NODEs in medical prognoses is superior to any explanation attempt of black box models, and also supports user’s natural intuition as a consequence of its design. 我々の実証は、医療診断におけるNODEの使用がブラックボックスモデルの説明よりも優れていることを示し、また、その設計の結果、ユーザの自然な直感をサポートすることを願っている。 0.72
Non-interpretable features: When the features are not intuitive to interpret for a given expert, it can be difficult to generate a narrative merely from 非解釈可能な特徴: 特徴が与えられた専門家の解釈に直感的でない場合、単に物語を生成することは困難である。 0.71
10 The new narrative is based on the query’s answer :“Given the prediction, the patient should have reached an intermediary state nearthe danger line in approximately 2 days”Initial PrognosisReal dataRNNNODEsPatient Danger lineDay 1 Day 2 Day 3 Day 4 Day 5 Latent ODE QUERY 10 新しい物語は、クエリーの答えに基づいています:「予測をすると、患者は約2日間で危険ラインに近い中間状態に達するべきです」最初の予後実際のデータRNNNODEs患者危険ライン1日2日3日4日5日5ラテントODEQUERY。 0.82
英語(論文から抽出)日本語訳スコア
Table 4: (1) RNNs deliver multiple future trajectories which require brute force analysis. 表4: (1) RNNは、ブルート力解析を必要とする複数の将来の軌跡を提供する。 0.66
NODEs offer interactive reconstruction of the past and future of the query point to intuit the plausibility of the new narrative. NODEは、クエリポイントの過去と未来をインタラクティブに再構築し、新しい物語の可能性を高めます。
訳抜け防止モード: NODEはクエリポイントの過去と未来をインタラクティブに再構築する 新たな物語の可能性を 示そうとしています
0.78
(2) RNNs make discrete predictions that do not allow the user to access intermediary states. 2) RNNはユーザが中間状態にアクセスできないような離散的な予測を行う。 0.86
NODEs help the understanding of intermediary states to rebuild a relevant narrative. NODEは中間状態の理解を助け、関連する物語を再構築する。 0.72
(3) RNNs’ horizon of predictability is short due to discrete predictions. (3) RNNsの予測可能性の展望は、離散予測のため短い。 0.79
NODEs give long term and highly accurate information without the need for explainability. ノードは説明の必要なく、長期かつ高精度な情報を提供する。 0.70
An Interactive Agent will develop plausible narratives that support expert intuition to enhance the capacity to prevent disruptive changes. インタラクティブエージェントは、破壊的な変化を防ぐ能力を高めるために専門家の直感をサポートする実用的な物語を開発します。 0.51
To confirm the usefulness of these additionally extracted variables , it would then be necessary to conduct trials: the recommendation system would be tested by experts with or without this add-on and evaluated for machine prediction acceptability. これらの追加的に抽出された変数の有用性を確認するためには、試験を実施する必要がある。推奨システムは、このアドオンの有無にかかわらず専門家によってテストされ、機械予測の許容性を評価する。 0.55
This is our proposed plan for the future. これが私たちの将来の計画です。 0.75
In conclusion, we have demonstrated the potential utility of using NODE architecture on real-life data to enhance and improve human prognosis in medical decisions. 結論として,NODE アーキテクチャを実生活データに応用し,医療的意思決定におけるヒトの予後を向上・改善する可能性を示した。 0.72
We have illustrated the benefits, both intrinsic and designed, of such an architecture, and have discussed why these benefits are likely to enhance human-machine teaming and technology acceptance of ML in expert domains such as medicine. このようなアーキテクチャの本質的かつ設計的なメリットを説明した上で,これらのメリットが,医療などの専門分野における人間と機械のチーム化とMLの技術的受容を促進する可能性について論じている。 0.62
This work was supported by the US Office of Naval Research Global : ONRG - Research Grant - [N6290920-1-2076]. この研究はアメリカ海軍研究グローバル局(ONRG - Research Grant - [N6290920-1-2076])が支援した。 0.85
extrapolated data. Doing so is the equivalent of attempting to convince someone of a different opinion or perspective- an effort with low historical likelihood of success. 外挿データだ そうすることは、異なる意見や視点の誰かを説得しようとすることと同等です - 成功の可能性の低い努力。 0.64
To help the construction of narratives and the interactions with a predictive agent, an interesting direction would be to extract additional variables of interest, that are distinct from the measured features. 物語の構築と予測エージェントとの相互作用を支援するために、興味深い方向は、測定された特徴と異なる、関心の追加の変数を抽出することです。 0.73
For instance, in the case of ICU patients, it could be interesting to have machine learning algorithms that extract from the latent trajectory the occurrence of specific events about different systems (respiratory, cardiac, etc.) 例えば、ICU患者の場合、異なるシステム(呼吸器、心臓など)に関する特定の事象の発生を潜在的な軌道から抽出する機械学習アルゴリズムを持つことが興味深いかもしれません。 0.80
categorized by physicians to help supporting narratives. 医師が物語を支援するために分類しました 0.58
The mechanistic representation of the expert decision making, even if incomplete, could contain, for example, mutually exclusive symptoms appearing in a time frame defined by physical bounds, i.e. 専門家の意思決定の機械的表現は、たとえ不完全であっても、例えば、物理的境界によって定義された時間枠に現れる相互排他的な症状を含むことができる。 0.67
critical event intensity. An additional algorithm could be used to extract information from the intractable latent space to augment the basic information in expert knowledge. 重要な出来事の強さ 追加のアルゴリズムは、専門家知識の基本的な情報を強化するために、難解な潜在空間から情報を抽出するのに使うことができる。
訳抜け防止モード: 重要な出来事の強さ 追加のアルゴリズムを使って 難解な潜在空間から情報を抽出することで、専門家知識の基本情報を増強する。
0.70
For this step, we could either use classical or powerful deep learning algorithms, since extracted data are not yet subject to explainability. このステップでは、抽出されたデータは説明不可能であるため、古典的あるいは強力なディープラーニングアルゴリズムを使用することができます。 0.68
Doing so could be framed as adding prior basic knowledge to the equation resolution. そうすることで、方程式の解法に事前の基本的な知識を加えることができる。 0.53
In the field of physics, to model systems conserving their total energy, it is possible to add an energy constraint to the NODE, to ensure that trajectories satisfy this condition. 物理学の分野では、全エネルギーを保存する系をモデル化するために、軌道がこの条件を満たすように、NODEにエネルギー制約を加えることができる。 0.76
In technical terms, this is enforced using a Hamiltonian structure on the NODE, and the corresponding machine learning algorithm is studied in depth in [37]. 技術的には、これはNODE上のハミルトン構造を使用して実行され、対応する機械学習アルゴリズムは[37]で深く研究されます。 0.78
This sensibility to prior knowledge needs to be investigated, in particular for real world datasets. この事前知識に対する感受性は、特に現実世界のデータセットに対して調査する必要がある。 0.67
11 RNN(VAE RNN)NODE(Latent ODE)INTERACTIVE QUERYLONG TERMPROJECTION OF NEW NARRATIVESINTUITIVE PREDICTIONSMOOTH CURVENARRATIVES DETAILEDBRUTE FORCESHORT TERMSTEPPED CURVEPost X-AI FUTURE RESTROSPECTIVE+PROSPECTIVE ACCESS TO INTERMEDIARY STATESHUMAN-AI AGENTClassic approaches are over-passed by NODEs in prediction. 11 RNN(VAE RNN)NODE(Latent ODE)ininteractive QUERYLECTSION OF NEW NRRATIVESINTUITIVE PREDICTIONSMOOOOTH CURVENARRATIVES DETAILEDBRUTE FORCESHOT TERMSTEPPED CURVEPost X-AI FUTURE RESTROSPECTIVE+PROSPECTIVE ACCESS to INTERMEDIary STATESHUMAN-AI AGENTClassic approach to INTERTERDAL NEODEsにより予測される。 0.89
NODEs allow interactive Agents.123 NODEs allow Interactive Agents.123 0.81
英語(論文から抽出)日本語訳スコア
References [1] Mason Marks. 参考文献 [1]メイソンマークス。 0.61
“Robots in space: Sharing our world with autonomous delivery vehicles”. 宇宙ロボット:私たちの世界を自律配送車で共有する”。 0.78
In: Available at SSRN 3347466 (2019). In: SSRN 3347466 (2019)で利用可能。 0.82
[2] Konstantinos G Liakos et al. [2] Konstantinos G Liakos et al。 0.81
“Machine learning in agriculture: A review”. 『農業における機械学習:レビュー』。 0.78
In: Sensors 18.8 (2018), p. 2674. In: Sensors 18.8 (2018), p. 2674。 0.94
[3] Andre Esteva et al. Andre Esteva et al.[3] Andre Esteva et al. 0.76
“Dermatologist-level classification of skin cancer with deep neural networks”. 深部神経ネットワークを用いた皮膚癌の皮膚科レベルの分類」 0.80
In: nature 542.7639 (2017), pp. in: nature 542.7639 (2017), pp。 0.85
115–118. [4] Anand Avati et al. 115–118. anand Avati et al. [4] Anand Avati et al. 0.69
“Improving palliative care with deep learning”. 深層学習による緩和ケアの向上」。 0.60
In: BMC medical informatics and decision making 18.4 (2018), pp. in: bmc medical informatics and decision making 18.4 (2018), pp。 0.80
55–64. [5] Bruce G Buchanan and Edward H Shortsystems: the the Stanford In: 55–64. ブルース・G・ブキャナンとエドワード・H・ショートシステムズ:スタンフォード・イン 0.61
liffe. “Rule-based expert MYCIN experiments of Heuristic Programming Project”. リフィー ヒューリスティックプログラミングプロジェクトのルールベースの専門家MYCIN実験」。 0.49
(1984). [6] Alejandro Barredo Arrieta et al. (1984). Alejandro Barredo Arrieta et al. [6] Alejandro Barredo Arrieta et al. 0.76
“Explainable Artificial Intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI”. 説明可能な人工知能(XAI):責任あるAIに向けた概念、分類、機会および挑戦。 0.78
In: Information Fusion 58 (2020), pp. In: Information Fusion 58 (2020), pp。 0.73
82–115. [7] E. S. Vorm. 82–115. 7] e.s. vorm. 0.68
“Assessing demand for transparency in intelligent systems using machine learning”. 機械学習を用いた知的システムの透明性に対する需要の評価。 0.72
In: (2018). 2018年(昭和18年)。 0.20
[8] Franz Wotawa et al. 8] Franz Wotawaら。 0.57
“Quality assurance methodologies for automated driving”. 「自動運転のための品質保証方法論」。 0.73
In: e & i Elektrotechnik und Informationstechnik 135.4 (2018), pp. e & i Elektrotechnik und Informationstechnik 135.4 (2018), pp。 0.69
322–327. [9] Peter Pirolli and Stuart Card. 322–327. 9] ピーター・ピローリと スチュアート・カード 0.69
“Information foraging.” In: Psychological review 106.4 (1999), p. 643. インフォメーション [information foraging] In: Psychological Review 106.4 (1999), pp. 643。 0.86
[10] Daniel Kahneman. ダニエル・カーネマン(Daniel Kahneman) 0.58
Thinking, fast and slow. 思考は速く、ゆっくりだ。 0.74
Macmillan, 2011. 2011年、マクミラン。 0.68
[11] Jerad H Moxley et al. Jerad H Moxley et al.[11] Jerad H Moxley et al. 0.72
“The role of intuition and deliberative thinking in experts’ superior tactical decision-making”. 専門家の優れた戦術的意思決定における直感と審議的思考の役割」 0.78
In: Cognition 124.1 (2012), pp. In: Cognition 124.1 (2012), pp。 0.85
72–78. [12] Stephen Porter and Leanne Ten Brinke. 72–78. 12]Stephen Porter氏とLeanne Ten Brinke氏。 0.77
“Dangerous decisions: A theoretical framework for understanding how judges assess credibility in the courtroom”. 「危険判断(dangerous decision: a theory framework for understanding how the judges evaluation trustedibility in the courtroom)」 0.83
In: Legal and Criminological Psychology 14.1 (2009), pp. In: Legal and Criminological Psychology 14.1 (2009), pp。 0.87
119–134. 12 119–134. 12 0.78
[13] Eduardo Salas, Michael A Rosen, and Deborah DiazGranados. 13] Eduardo Salas、Michael A Rosen、Deborah DiazGranados。 0.63
“Expertise-based intuition and decision making in organizations”. “組織における専門的な直観と意思決定”。 0.66
In: Journal of management 36.4 (2010), pp. in: journal of management 36.4 (2010), pp. 0.86
941–973. [14] Thomas J Palmeri and Isabel Gauthier. 941–973. [14]Thomas J PalmeriとIsabel Gauthier。 0.72
“Visual object understanding”. ビジュアルオブジェクト理解”。 0.58
In: Nature Reviews Neuroscience 5.4 (2004), pp. In: Nature Reviews Neuroscience 5.4 (2004), pp。 0.87
291– 303. [15] Frederic Adam and Eugene Dempsey. 291– 303. 15] フレデリック・アダムとユージーン・デンプシー。 0.75
“Intuition in decision making-Risk and opportunity”. 『意思決定の直感-リスクと機会』。 0.70
In: Journal of Decision Systems (2020), pp. で:Journal of Decision Systems(2020)、pp。 0.69
1–19. [16] Robert Earl Patterson and Robert G Eggleston. 1–19. 16] ロバート・アール・パターソンと ロバート・g・エグルストン 0.74
“Human–Machine Synergism in HighLevel Cognitive Functioning: The Human Component”. Human–Machine Synergism in HighLevel Cognitive Functioning: The Human Component”。 0.84
In: IEEE Transactions on Emerging Topics in Computational Intelligence 2.4 (2018), pp. In: IEEE Transactions on Emerging Topics in Computational Intelligence 2.4 (2018), pp。 0.84
249–257. [17] Robert R Hoffman. 249–257. ロバート・R・ホフマン(Robert R Hoffman)。 0.65
“A taxonomy of emergent trusting in the human–machine relationship”. 「人間・機械関係における創発的信頼の分類」 0.70
In: Cognitive systems engineering: The future for a changing world (2017), pp. In: Cognitive System Engineering: the future for a changing world (2017), pp。 0.78
137–163. [18] Steven Strogatz. 137–163. 18] スティーヴン・ストロガッツ (Steven Strogatz) 0.65
Infinite powers: How calculus reveals the secrets of the universe. 無限の力: 計算が宇宙の秘密を明らかにする方法。 0.74
Houghton Mifflin Harcourt, 2019. Houghton Mifflin Harcourt, 2019年。 0.93
[19] Eric Woillez and Freddy Bouchet. 19] Eric WoillezとFreddy Bouchet。 0.70
“Instantons for the destabilization of the inner Solar System”. 内太陽系の不安定化のため」。 0.57
In: Physical Review Letters 125.2 (2020), p. 021101. In: Physical Review Letters 125.2 (2020), p. 021101。 0.93
[20] Jacques Laskar. ジャック・ラスカル(Jacques Laskar)。 0.62
“A numerical experiment on the chaotic behaviour of the solar system”. 「太陽系のカオス的挙動に関する数値実験」 0.60
In: Nature 338.6212 (1989), pp. in: nature 338.6212 (1989), pp。 0.81
237– 238. [21] Jacques Laskar. 237– 238. ジャック・ラスカル(Jacques Laskar)。 0.79
“The chaotic motion of the solar system: A numerical estimate of the size of the chaotic zones”. 「太陽系のカオス運動:カオスゾーンの大きさを数値的に見積もる」 0.59
In: Icarus 88.2 (1990), pp. In: Icarus 88.2 (1990), pp。 0.88
266–291. [22] & Wisdom J. Sussman G. J. 266–291. [22] & Wisdom J. Sussman G. J. 0.85
Chaotic evolu- tion of the solar system. カオスエボリュー- 太陽系の惑星。 0.44
1992. [23] George Armitage Miller. 1992. ジョージ・アーミテージ・ミラー(George Armitage Miller) 0.72
“The magical number seven, plus or minus two: Some limits on our capacity for processing information”. 「魔法の7、プラスまたはマイナス2:情報を処理する能力にいくつかの制限がある。」 0.74
In: Psychological review 63 (1956), pp. In:心理学的レビュー63 (1956)、pp。 0.83
81–97. 81–97. 0.71
英語(論文から抽出)日本語訳スコア
[24] Gerd Gigerenzer and Adrian Edwards. Gerd Gigerenzer氏とAdrian Edwards氏。 0.60
“Simple tools for understanding risks: from innumeracy to insight”. “リスクを理解するためのシンプルなツール:無数から洞察まで”。 0.72
In: Bmj 327.7417 (2003), pp. 内:Bmj 327.7417 (2003)、pp。 0.78
741–744. [25] Paul KJ Han, William MP Klein, and Neeraj K Arora. 741–744. 25] Paul KJ Han、William MP Klein、Neeraj K Arora。 0.68
“Varieties of uncertainty in health care: a conceptual taxonomy”. 医療における不確実性の多様性:概念的分類学」 0.70
In: Medical Decision Making 31.6 (2011), pp. in: 医学的意思決定 31.6 (2011), pp。 0.84
828–838. [26] Charlie M Wray and Lawrence K Loo. 828–838. 26] チャーリー・m・レイと ローレンス・k・ルー 0.64
“The diagnosis, prognosis, and treatment of medical uncertainty”. 「医学的不確実性の診断、予後、治療」 0.56
In: Journal of graduate medical education 7.4 (2015), p. 523. In: Journal of graduate Medical Education 7.4 (2015), pp. 523。 0.91
[27] Phan Luu et al. phan Luu et al. [27] Phan Luu et al. 0.67
“Reentrant processing in intuitive perception”. 直観的知覚におけるリエントラント処理」。 0.63
In: PloS one 5.3 (2010), e9523. In: PloS one 5.3 (2010), e9523。 0.92
[28] Anna Winterbottom et al. [28] Anna Winterbottom et al。 0.82
“Does narrative information bias individual’s decision making? 「物語情報は個人の意思決定に偏りますか? 0.76
A systematic review”. 体系的なレビュー”。 0.73
In: Social science & medicine 67.12 (2008), pp. in: social science & medicine 67.12 (2008), pp。 0.84
2079– 2088. 2079– 2088. 0.94
[29] Nancy Pennington and Reid Hastie. Nancy Pennington氏とReid Hastie氏。 0.60
“Explaining the evidence: tests of the story model for juror decision making.” In: Journal of personality and social psychology 62.2 (1992), p. 189. journal of personality and social psychology 62.2 (1992), p. 189. ^ “explaining the evidence: tests of the story model for juror decision making.” (英語) 0.90
[30] Tania Lombrozo and Susan Carey. 30] Tania LombrozoとSusan Carey。 0.65
“Functional explanation and the function of explanation”. 『Functional explanation and the function of explanation』 0.70
In: Cognition 99.2 (2006), pp. in: cognition 99.2 (2006), pp. 0.88
167–204. [31] FDA. 167–204. FDA[31]。 0.68
SARS-CoV-2 Reference Panel Comparative Data. SARS-CoV-2 参照パネル比較データ 0.74
2020. url: https : / / www . 2020. url: https : / www。 0.81
fda . gov / medical - devices / coronavirus - covid - 19 - and - medicaldevices/sars- cov-2-reference-pane lcomparative-data. fda。 医療機器/sars-cov-2-referenc e-panel comparable-data。 0.66
[32] Ulrich Hoffrage et al. [32]Ulrich Hoffrage et al。 0.72
Communicating sta- コミュニケーションsta- 0.77
tistical information. 2000. 統計情報。 2000. 0.62
[33] Marilyn M Schapira, Ann B Nattinger, and Colleen A McHorney. 33] Marilyn M Schapira、Ann B Nattinger、Collen A McHorney。 0.66
“Frequency or probability? A qualitative study of risk communication formats used in health care”. 「頻度か確率か?」 医療におけるリスクコミュニケーションの形式に関する定性的な研究」。 0.71
In: Medical Decision Making 21.6 (2001), pp. in:medical decision making 21.6 (2001), pp。 0.80
459–467. [34] Ricky TQ Chen et al. 459–467. [34]Ricky TQ Chenら。 0.66
“Neural ordinary differential equations”. 「神経常微分方程式」。 0.65
In: arXiv preprint arXiv:1806.07366 (2018). arXiv preprint arXiv:1806.07366 (2018)。 0.91
[35] Xuechen Li et al. [35]Xuechen Li et al。 0.69
“Scalable gradients for stochastic differential equations”. 「確率微分方程式のスカラー勾配」。 0.65
In: International Conference on Artificial Intelligence and Statistics. 人工知能と統計に関する国際会議。 0.55
PMLR. 2020, pp. PMLR。 2020年、p。 0.82
3870–3882. 3870–3882. 0.71
[36] Robert Strauss. [36]ロバート Strauss 0.65
“Augmenting Neural Differential Equations to Model Unknown Dynamical Incomplete In: arXiv preprint State arXiv:2008.08226 (2020). Augmenting Neural Differential Equations to Model Unknown Dynamical Incomplete In: arXiv preprint State arXiv:2008.08226 (2020) 0.86
Systems with Information”. [37] Yaofeng Desmond Zhong, Biswadip Dey, and Amit Chakraborty. システム 情報」。 37] Yaofeng Desmond Zhong、Biswadip Dey、およびAmit Chakraborty。 0.64
“Symplectic ode-net: Learning hamiltonian dynamics with control”. symplectic ode-net: learning hamiltonian dynamics with control" の略。 0.78
In: arXiv preprint arXiv:1909.12077 (2019). arXiv preprint arXiv:1909.12077 (2019)。 0.93
[38] Lingkai Kong, Jimeng Sun, and Chao Zhang. [38]Lingkai Kong、Jimeng Sun、Chao Zhang。 0.65
“SDE-net: Equipping deep neural networks with uncertainty estimates”. SDE-net: 不確実性推定を伴うディープニューラルネットワークの取得。 0.63
In: arXiv preprint arXiv:2008.10546 (2020). arXiv preprint arXiv:2008.10546 (2020)。 0.92
[39] Yulia Rubanova, Ricky TQ Chen, and for In: [39]Yulia Rubanova, Ricky TQ Chen, and for In 0.75
David Duvenaud. David Duvenaud 0.59
irregularly-sampled arXiv preprint arXiv:1907.03907 (2019). 不規則にサンプリングされたarXiv preprint arXiv:1907.03907 (2019)。 0.49
“Latent time odes series”. 「遅い時間」 タイトルは「odes series」。 0.61
[40] Kaiqi Yang et al. 40] Kaiqi Yang et al。 0.69
“Self-Supervised Learning and Prediction of Microstructure Evolution with Recurrent Neural Networks”. 繰り返しニューラルネットワークによる組織進化の自己監督学習と予測」 0.65
In: arXiv preprint arXiv:2008.07658 (2020). arXiv preprint arXiv:2008.07658 (2020)。 0.92
[41] Zichao Long et al. [41]Zichao Long et al。 0.68
“Pde-net: Learning pdes from data”. “pde-net: データからpdeを学ぶ”。 0.74
In: International Conference on Machine Learning. In: 機械学習に関する国際会議。 0.82
PMLR. 2018, pp. PMLR。 2018年、p。 0.65
3208– 3216. 3208– 3216. 0.94
[42] Zichao Long, Yiping Lu, and Bin Dong. [42] Zichao Long、Yiping Lu、およびBin Dong。 0.73
“PDE-Net 2.0: Learning PDEs from data with a numeric-symbolic hybrid deep network”. PDE-Net 2.0: 数値-シンボリックハイブリッドディープネットワークでデータからPDEを学ぶ。 0.76
In: Journal of Computational Physics 399 (2019), p. 108925. in: Journal of Computational Physics 399 (2019), p. 108925。 0.80
[43] Yulia Rubanova. ユーリア・ルバノヴァ(Yulia Rubanova)。 0.57
latent ode. https : / / github.com/YuliaRuba nova/latent_ode. 潜伏したオデ https : / / github.com/YuliaRuba nova/latent_ode 0.42
2019. [44] Sebastiano Barbieri et al. 2019. 44] Sebastiano Barbieri et al。 0.78
“Benchmarking deep learning architectures for predicting readmission to the ICU and describing patients-at-risk”. 深層学習アーキテクチャをベンチマークし、ICUの読み出しを予測し、患者を危険にさらす」。 0.59
In: Scientific reports 10.1 (2020), pp. in: scientific reports 10.1 (2020), pp. 0.88
1–10. [45] Glenn J Browne and Eric A Walden. 1–10. Glenn J BrowneとEric A Walden。 0.63
“Stopping information search: An fMRI investigation”. Stoppping information search: an fMRI investigation”。 0.69
In: Decision Support Systems (2021), p. 113498. In: Decision Support Systems (2021), pp. 113498。 0.80
13 13 0.85
                           ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。