論文の概要: A Survey on Uncertainty Reasoning and Quantification for Decision
Making: Belief Theory Meets Deep Learning
- arxiv url: http://arxiv.org/abs/2206.05675v1
- Date: Sun, 12 Jun 2022 06:28:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-15 10:39:21.052144
- Title: A Survey on Uncertainty Reasoning and Quantification for Decision
Making: Belief Theory Meets Deep Learning
- Title(参考訳): 不確実性推論と意思決定の定量化に関する調査--信条理論と深層学習
- Authors: Zhen Guo, Zelin Wan, Qisheng Zhang, Xujiang Zhao, Feng Chen, Jin-Hee
Cho, Qi Zhang, Lance M. Kaplan, Dong H. Jeong, Audun J{\o}sang
- Abstract要約: 不確実性に関する深い理解は、不確実性の下で効果的な決定を行うための第一歩です。
深層/機械学習は高次元データ処理に関わる複雑な問題を解決するために大いに活用されてきた。
しかし,ML/DLでは,様々な不確実性の推論と定量化がほとんど行われていない。
- 参考スコア(独自算出の注目度): 19.107178585554344
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: An in-depth understanding of uncertainty is the first step to making
effective decisions under uncertainty. Deep/machine learning (ML/DL) has been
hugely leveraged to solve complex problems involved with processing
high-dimensional data. However, reasoning and quantifying different types of
uncertainties to achieve effective decision-making have been much less explored
in ML/DL than in other Artificial Intelligence (AI) domains. In particular,
belief/evidence theories have been studied in KRR since the 1960s to reason and
measure uncertainties to enhance decision-making effectiveness. We found that
only a few studies have leveraged the mature uncertainty research in
belief/evidence theories in ML/DL to tackle complex problems under different
types of uncertainty. In this survey paper, we discuss several popular belief
theories and their core ideas dealing with uncertainty causes and types and
quantifying them, along with the discussions of their applicability in ML/DL.
In addition, we discuss three main approaches that leverage belief theories in
Deep Neural Networks (DNNs), including Evidential DNNs, Fuzzy DNNs, and Rough
DNNs, in terms of their uncertainty causes, types, and quantification methods
along with their applicability in diverse problem domains. Based on our
in-depth survey, we discuss insights, lessons learned, limitations of the
current state-of-the-art bridging belief theories and ML/DL, and finally,
future research directions.
- Abstract(参考訳): 不確実性に関する深い理解は、不確実性の下で効果的な決定を行うための第一歩です。
深層/機械学習(ML/DL)は高次元データ処理に関わる複雑な問題を解決するために大いに活用されている。
しかし、効果的な意思決定を実現するための様々な不確実性の推論と定量化は、ML/DLにおいて他の人工知能(AI)ドメインよりもはるかに少ない。
特に、信念/明確性理論は、意思決定の有効性を高めるために不確実性を推論し測定するために1960年代からkrrで研究されてきた。
ML/DLにおける信念・エビデンス理論の成熟した不確実性研究を利用して、異なるタイプの不確実性の下で複雑な問題に取り組む研究はごくわずかであることがわかった。
本稿では,いくつかの一般的な信念理論と,不確実性の原因やタイプを扱う基本概念について論じ,それらを定量化し,ml/dlの適用可能性について議論する。
さらに,深層ニューラルネットワーク(dnn)における信念理論を活用する3つの主要なアプローチについて,その不確実性の原因,タイプ,定量化方法,および様々な問題領域における適用可能性について論じる。
本研究は,本研究から得られた知見,教訓,現状のブリッジング信念理論とml/dlの限界,そして最後には今後の研究方向性について述べる。
関連論文リスト
- Causal Inference with Large Language Model: A Survey [5.651037052334014]
因果推論は医学や経済学といった様々な分野において重要な課題となっている。
自然言語処理(NLP)の最近の進歩は、従来の因果推論タスクに有望な機会をもたらした。
論文 参考訳(メタデータ) (2024-09-15T18:43:11Z) - A Comprehensive Survey on Evidential Deep Learning and Its Applications [64.83473301188138]
Evidential Deep Learning (EDL)は、単一のフォワードパスで最小限の追加計算で信頼性の高い不確実性推定を提供する。
まず、主観的論理理論であるEDLの理論的基礎を掘り下げ、他の不確実性推定フレームワークとの区別について議論する。
さまざまな機械学習パラダイムや下流タスクにまたがる広範な応用について詳しく述べる。
論文 参考訳(メタデータ) (2024-09-07T05:55:06Z) - Uncertainty Quantification for Forward and Inverse Problems of PDEs via
Latent Global Evolution [110.99891169486366]
本稿では,効率的かつ高精度な不確実性定量化を深層学習に基づく代理モデルに統合する手法を提案する。
本手法は,フォワード問題と逆問題の両方に対して,堅牢かつ効率的な不確実性定量化機能を備えたディープラーニングに基づく代理モデルを提案する。
提案手法は, 長期予測を含むシナリオに適合し, 拡張された自己回帰ロールアウトに対する不確かさの伝播に優れる。
論文 参考訳(メタデータ) (2024-02-13T11:22:59Z) - Knowledge Crosswords: Geometric Knowledge Reasoning with Large Language Models [49.23348672822087]
構造化された事実制約に縛られた不完全な知識ネットワークからなるベンチマークである知識クロスワードを提案する。
幾何学的知識推論の新しい設定は、既存の原子/線形マルチホップQAを超える新しいLM能力を必要とする。
我々は,既存のLLMと知識クロスワードのアプローチを評価するために,広範囲な実験を行っている。
論文 参考訳(メタデータ) (2023-10-02T15:43:53Z) - Uncertainty in Natural Language Processing: Sources, Quantification, and
Applications [56.130945359053776]
NLP分野における不確実性関連作業の総合的なレビューを行う。
まず、自然言語の不確実性の原因を、入力、システム、出力の3つのタイプに分類する。
我々は,NLPにおける不確実性推定の課題について論じ,今後の方向性について論じる。
論文 参考訳(メタデータ) (2023-06-05T06:46:53Z) - Multidimensional Uncertainty Quantification for Deep Neural Networks [4.644923443649427]
本稿では、ディープニューラルネットワーク(DNN)における異なる不確実性の原因を測定する方法について研究する。
我々は、異なる根本原因に起因する複数の不確かさを定量化する一般的な学習フレームワークを開発する。
我々は既存のSSLアルゴリズムがOOD(Out-of-Distribution)オブジェクトに対して堅牢性を向上させるための新しいフレームワークを開発する。
論文 参考訳(メタデータ) (2023-04-20T17:54:34Z) - Deep Causal Learning: Representation, Discovery and Inference [2.696435860368848]
因果学習は、現象の基盤となり、世界が進化するメカニズムを規定する本質的な関係を明らかにする。
従来の因果学習手法は、高次元変数、非構造変数、最適化問題、未観測の共同設立者、選択バイアス、推定不正確さなど、多くの課題や制限に直面している。
ディープ・因果学習はディープ・ニューラルネットワークを活用し、これらの課題に対処するための革新的な洞察と解決策を提供する。
論文 参考訳(メタデータ) (2022-11-07T09:00:33Z) - CARE: Certifiably Robust Learning with Reasoning via Variational
Inference [26.210129662748862]
推論パイプライン(CARE)を用いた頑健な学習を提案する。
CAREは、最先端のベースラインに比べて、かなり高い信頼性のロバスト性を達成する。
さらに,CAREの実証的ロバスト性および知識統合の有効性を示すために,異なるアブレーション研究を行った。
論文 参考訳(メタデータ) (2022-09-12T07:15:52Z) - The Unreasonable Effectiveness of Deep Evidential Regression [72.30888739450343]
不確実性を考慮した回帰ベースニューラルネットワーク(NN)による新しいアプローチは、従来の決定論的手法や典型的なベイズ的NNよりも有望であることを示している。
我々は、理論的欠点を詳述し、合成および実世界のデータセットのパフォーマンスを分析し、Deep Evidential Regressionが正確な不確実性ではなく定量化であることを示す。
論文 参考訳(メタデータ) (2022-05-20T10:10:32Z) - On the Minimal Adversarial Perturbation for Deep Neural Networks with
Provable Estimation Error [65.51757376525798]
敵の摂動の存在は、証明可能な堅牢性に関する興味深い研究ラインを開いた。
検証可能な結果は、コミットしたエラーを見積り、バウンドするものではない。
本稿では,最小対向摂動を求めるための2つの軽量戦略を提案する。
その結果, 提案手法は, 分類に近い試料の理論的距離とロバスト性を近似し, 敵攻撃に対する確実な保証が得られた。
論文 参考訳(メタデータ) (2022-01-04T16:40:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。