論文の概要: Isopignistic Canonical Decomposition via Belief Evolution Network
- arxiv url: http://arxiv.org/abs/2405.02653v1
- Date: Sat, 4 May 2024 12:39:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-07 19:01:15.151576
- Title: Isopignistic Canonical Decomposition via Belief Evolution Network
- Title(参考訳): 信念進化ネットワークによる異方性カノニカル分解
- Authors: Qianli Zhou, Tianxiang Zhan, Yong Deng,
- Abstract要約: 本稿では,信念進化ネットワークに基づく同義変換を提案する。
この分解は、可能性分布とその同型質量関数の間の逆経路を与える。
本稿では,確率論,デンプスター・シェーファー理論,可能性理論に基づく人工知能の一般モデル構築のための理論的基盤を確立する。
- 参考スコア(独自算出の注目度): 12.459136964317942
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Developing a general information processing model in uncertain environments is fundamental for the advancement of explainable artificial intelligence. Dempster-Shafer theory of evidence is a well-known and effective reasoning method for representing epistemic uncertainty, which is closely related to subjective probability theory and possibility theory. Although they can be transformed to each other under some particular belief structures, there remains a lack of a clear and interpretable transformation process, as well as a unified approach for information processing. In this paper, we aim to address these issues from the perspectives of isopignistic belief functions and the hyper-cautious transferable belief model. Firstly, we propose an isopignistic transformation based on the belief evolution network. This transformation allows for the adjustment of the information granule while retaining the potential decision outcome. The isopignistic transformation is integrated with a hyper-cautious transferable belief model to establish a new canonical decomposition. This decomposition offers a reverse path between the possibility distribution and its isopignistic mass functions. The result of the canonical decomposition, called isopignistic function, is an identical information content distribution to reflect the propensity and relative commitment degree of the BPA. Furthermore, this paper introduces a method to reconstruct the basic belief assignment by adjusting the isopignistic function. It explores the advantages of this approach in modeling and handling uncertainty within the hyper-cautious transferable belief model. More general, this paper establishes a theoretical basis for building general models of artificial intelligence based on probability theory, Dempster-Shafer theory, and possibility theory.
- Abstract(参考訳): 不確実な環境での汎用情報処理モデルの開発は、説明可能な人工知能の発展に不可欠である。
デンプスター・シェーファーのエビデンスの理論は、主観的確率論と可能性理論と密接に関連しているてんかんの不確実性を表現するためのよく知られた効果的な推論方法である。
特定の信念構造の下では相互に変換できるが、情報処理の統一的なアプローチと同様に、明確かつ解釈可能な変換プロセスが欠如している。
本稿では,同義的信念関数と超注意的伝達可能信念モデルの観点から,これらの課題に対処することを目的とする。
まず,信念進化ネットワークに基づく同義変換を提案する。
この変換は、潜在的な決定結果を保ちながら、情報グラニュラーの調整を可能にする。
等比変換は、新しい正準分解を確立するために、超注意的な伝達可能な信念モデルと統合される。
この分解は、可能性分布とその同型質量関数の間の逆経路を与える。
正準分解の結果は等比関数と呼ばれ、BPAの正当性と相対コミットメント度を反映した同一の情報量分布である。
さらに,同義性関数を調整して基本信念の割り当てを再構築する手法を提案する。
過注意な伝達可能な信念モデルにおける不確実性のモデリングと処理におけるこのアプローチの利点を探求する。
より一般に、確率論、デンプスター・シェーファー理論、可能性理論に基づく人工知能の一般モデルを構築するための理論的基盤を確立する。
関連論文リスト
- Learning Discrete Concepts in Latent Hierarchical Models [73.01229236386148]
自然の高次元データから学習する概念は、ヒューマンアライメントと解釈可能な機械学習モデルの構築の可能性を秘めている。
我々は概念を階層的因果モデルを通して関連付けられた離散潜在因果変数として定式化する。
我々は、理論的な主張を合成データ実験で裏付ける。
論文 参考訳(メタデータ) (2024-06-01T18:01:03Z) - Towards Understanding How Transformer Perform Multi-step Reasoning with Matching Operation [52.77133661679439]
大きな言語モデルの内部的推論メカニズムを調べることは、よりよいモデルアーキテクチャとトレーニング戦略を設計するのに役立ちます。
構築したデータセットの多段階推論においてTransformerが使用するマッチング機構について検討する。
本稿では,この現象に基づくモデル推論能力の上限に関する予想を提案する。
論文 参考訳(メタデータ) (2024-05-24T07:41:26Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - A Belief Model for Conflicting and Uncertain Evidence -- Connecting
Dempster-Shafer Theory and the Topology of Evidence [8.295493796476766]
本稿では,不一致,不完全,不確実な証拠に基づいて,信念の度合いを測定する新しいモデルを提案する。
このモデルによる信念の計算次数は一般に#P完全であることが示される。
論文 参考訳(メタデータ) (2023-06-06T09:30:48Z) - A Simple Generative Model of Logical Reasoning and Statistical Learning [0.6853165736531939]
統計的学習と論理的推論は、AIの2つの主要な分野であり、人間のようなマシンインテリジェンスに統一されることが期待されている。
本稿では、論理的推論と統計的学習の単純なベイズモデルを提案する。
我々は、形式論理におけるその満足度の観点から、データがどのように象徴的知識を引き起こすかをモデル化する。
論文 参考訳(メタデータ) (2023-05-18T16:34:51Z) - Causal Discovery in Heterogeneous Environments Under the Sparse
Mechanism Shift Hypothesis [7.895866278697778]
機械学習のアプローチは、一般に独立で同一に分散されたデータ(すなわち、d)の仮定に依存する。
実際、この仮定は環境間の分散シフトによってほとんど常に破られる。
そこで我々は,様々な経験的推定器に適用可能なスコアベースアプローチであるメカニズムシフトスコア(MSS)を提案する。
論文 参考訳(メタデータ) (2022-06-04T15:39:30Z) - Principled Knowledge Extrapolation with GANs [92.62635018136476]
我々は,知識外挿の新たな視点から,対実合成を研究する。
本稿では, 知識外挿問題に対処するために, クローズド形式判別器を用いた対角ゲームが利用可能であることを示す。
提案手法は,多くのシナリオにおいて,エレガントな理論的保証と優れた性能の両方を享受する。
論文 参考訳(メタデータ) (2022-05-21T08:39:42Z) - The intersection probability: betting with probability intervals [7.655239948659381]
本稿では,不確実性に対する幾何学的アプローチの枠組みにおいて,元来は信念関数に導かれる変換である交叉確率の利用を提案する。
本稿では,確率区間に関する意思決定の枠組みについて概説する。
論文 参考訳(メタデータ) (2022-01-05T17:35:06Z) - Properties from Mechanisms: An Equivariance Perspective on Identifiable
Representation Learning [79.4957965474334]
教師なし表現学習の主な目標は、データ生成プロセスが潜在プロパティを回復するために「反転」することである。
この論文は「進化を支配するメカニズムの知識を活用して潜伏特性を識別するのか?」と問う。
我々は、可能なメカニズムの集合に関する知識が異なるため、不特定性の原因の完全な特徴づけを提供する。
論文 参考訳(メタデータ) (2021-10-29T14:04:08Z) - Discovering Latent Causal Variables via Mechanism Sparsity: A New
Principle for Nonlinear ICA [81.4991350761909]
ICA(Independent component analysis)は、この目的を定式化し、実用的な応用のための推定手順を提供する手法の集合を指す。
潜伏変数は、潜伏機構をスパースに正則化すれば、置換まで復元可能であることを示す。
論文 参考訳(メタデータ) (2021-07-21T14:22:14Z) - No Substitute for Functionalism -- A Reply to 'Falsification &
Consciousness' [0.0]
この回答は[1]で提案されたモデルに対する拡張の道筋を特定し、異なる種類のバリエーションを区別することができる。
ニューラルネットワーク、状態マシン、チューリングマシンの例によって動機づけられた置換は、レベル1機能主義理論の非常に幅広いクラスには存在しないことを証明します。
論文 参考訳(メタデータ) (2020-05-28T08:12:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。