論文の概要: Credal Valuation Networks for Machine Reasoning Under Uncertainty
- arxiv url: http://arxiv.org/abs/2208.02443v1
- Date: Thu, 4 Aug 2022 04:33:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-05 12:36:07.615274
- Title: Credal Valuation Networks for Machine Reasoning Under Uncertainty
- Title(参考訳): 不確かさ下での機械共振の致命的評価ネットワーク
- Authors: Branko Ristic, Alessio Benavoli, Sanjeev Arulampalam
- Abstract要約: 本稿では,高レベル融合と不確実性を考慮した推論のためのグラフィカルシステムとして評価ネットワークを開発する。
干潟評価ネットワークの実践的実装について論じ,その実用性は小規模な実例で実証された。
- 参考スコア(独自算出の注目度): 0.6307485015636124
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Contemporary undertakings provide limitless opportunities for widespread
application of machine reasoning and artificial intelligence in situations
characterised by uncertainty, hostility and sheer volume of data. The paper
develops a valuation network as a graphical system for higher-level fusion and
reasoning under uncertainty in support of the human operators. Valuations,
which are mathematical representation of (uncertain) knowledge and collected
data, are expressed as credal sets, defined as coherent interval probabilities
in the framework of imprecise probability theory. The basic operations with
such credal sets, combination and marginalisation, are defined to satisfy the
axioms of a valuation algebra. A practical implementation of the credal
valuation network is discussed and its utility demonstrated on a small scale
example.
- Abstract(参考訳): 現代の事業は、不確実性、敵対性、膨大なデータ量によって特徴づけられる状況において、機械推論と人工知能を広く応用するための無制限の機会を提供する。
本稿では,人間操作者支援の不確実性下での高水準融合と推論のためのグラフィカルシステムとして評価ネットワークを開発した。
知識と収集されたデータの数学的表現である評価は、不正確確率論の枠組みにおけるコヒーレント区間確率として定義されるクレダル集合として表現される。
そのようなクレダル集合を持つ基本演算(結合と辺化)は、評価代数の公理を満たすように定義される。
credal valuation networkの実用的実装について検討し,その有用性を小規模の例で実証した。
関連論文リスト
- The Certainty Ratio $C_ρ$: a novel metric for assessing the reliability of classifier predictions [0.0]
本稿では,任意の分類性能指標に対する信頼性(確実性)と不確実性(不確実性)の寄与を定量化する新しい尺度であるCertainty Ratio(C_rho$)を紹介する。
26のデータセットと複数の分類器(Decision Trees、Naive-Bayes、 3-Nearest Neighbors、Random Forestsなど)にまたがる実験の結果、$C_rho$rhoは従来のメトリクスがしばしば見落としているという重要な洞察を明らかにしている。
論文 参考訳(メタデータ) (2024-11-04T10:50:03Z) - Quantifying calibration error in modern neural networks through evidence based theory [0.0]
本稿では、予測エラー(ECE)の評価に主観的論理を組み込むことにより、ニューラルネットワークの信頼性を定量化する新しい枠組みを提案する。
我々は,MNISTおよびCIFAR-10データセットを用いた実験により,信頼性が向上したことを示す。
提案されたフレームワークは、医療や自律システムといったセンシティブな分野における潜在的な応用を含む、AIモデルのより解釈可能でニュアンスな評価を提供する。
論文 参考訳(メタデータ) (2024-10-31T23:54:21Z) - Explainability through uncertainty: Trustworthy decision-making with neural networks [1.104960878651584]
不確実性は、あらゆる機械学習モデルの主要な特徴である。
ニューラルネットワークでは特に重要であり、過信されがちである。
XAIとしての不確実性は、下流の意思決定タスクにおけるモデルの信頼性を改善する。
論文 参考訳(メタデータ) (2024-03-15T10:22:48Z) - Gaussian Mixture Models for Affordance Learning using Bayesian Networks [50.18477618198277]
Affordancesはアクション、オブジェクト、エフェクト間の関係の基本的な記述である。
本稿では,世界を探究し,その感覚経験から自律的にこれらの余裕を学習するエンボディエージェントの問題にアプローチする。
論文 参考訳(メタデータ) (2024-02-08T22:05:45Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - Evaluating Explainability in Machine Learning Predictions through Explainer-Agnostic Metrics [0.0]
我々は,モデル予測が説明できる範囲を定量化するために,6つの異なるモデルに依存しないメトリクスを開発した。
これらのメトリクスは、局所的な重要性、グローバルな重要性、代理予測など、モデル説明可能性のさまざまな側面を測定する。
分類と回帰タスクにおけるこれらのメトリクスの実用性を実証し、これらのメトリクスを公開のために既存のPythonパッケージに統合する。
論文 参考訳(メタデータ) (2023-02-23T15:28:36Z) - Interpretable Self-Aware Neural Networks for Robust Trajectory
Prediction [50.79827516897913]
本稿では,意味概念間で不確実性を分散する軌道予測のための解釈可能なパラダイムを提案する。
実世界の自動運転データに対する我々のアプローチを検証し、最先端のベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-16T06:28:20Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Uncertainty Surrogates for Deep Learning [17.868995105624023]
不確実性サーロゲートを用いて深層ネットワークにおける予測不確実性を推定する新しい方法を紹介します。
これらのサーロゲートは、事前定義されたパターンに一致させるように強制される深いネットワークの衝動層の特徴です。
予測の不確実性や分布異常検出の推定に,本手法の有用性を示す。
論文 参考訳(メタデータ) (2021-04-16T14:50:28Z) - Approaching Neural Network Uncertainty Realism [53.308409014122816]
自動運転車などの安全クリティカルなシステムには、定量化または少なくとも上限の不確実性が不可欠です。
マハラノビス距離に基づく統計的テストにより、厳しい品質基準である不確実性リアリズムを評価します。
自動車分野に採用し、プレーンエンコーダデコーダモデルと比較して、不確実性リアリズムを大幅に改善することを示した。
論文 参考訳(メタデータ) (2021-01-08T11:56:12Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。