論文の概要: Gaussian Mixture Models for Affordance Learning using Bayesian Networks
- arxiv url: http://arxiv.org/abs/2402.06078v1
- Date: Thu, 8 Feb 2024 22:05:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-12 18:44:01.509223
- Title: Gaussian Mixture Models for Affordance Learning using Bayesian Networks
- Title(参考訳): ベイズネットワークを用いた余裕学習のためのガウス混合モデル
- Authors: Pedro Os\'orio, Alexandre Bernardino, Ruben Martinez-Cantin, Jos\'e
Santos-Victor
- Abstract要約: Affordancesはアクション、オブジェクト、エフェクト間の関係の基本的な記述である。
本稿では,世界を探究し,その感覚経験から自律的にこれらの余裕を学習するエンボディエージェントの問題にアプローチする。
- 参考スコア(独自算出の注目度): 50.18477618198277
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Affordances are fundamental descriptors of relationships between actions,
objects and effects. They provide the means whereby a robot can predict
effects, recognize actions, select objects and plan its behavior according to
desired goals. This paper approaches the problem of an embodied agent exploring
the world and learning these affordances autonomously from its sensory
experiences. Models exist for learning the structure and the parameters of a
Bayesian Network encoding this knowledge. Although Bayesian Networks are
capable of dealing with uncertainty and redundancy, previous work considered
complete observability of the discrete sensory data, which may lead to hard
errors in the presence of noise. In this paper we consider a probabilistic
representation of the sensors by Gaussian Mixture Models (GMMs) and explicitly
taking into account the probability distribution contained in each discrete
affordance concept, which can lead to a more correct learning.
- Abstract(参考訳): Affordancesはアクション、オブジェクト、エフェクト間の関係の基本的な記述である。
ロボットは、効果を予測し、行動を認識し、対象を選択し、望ましい目標に応じて行動を計画する手段を提供する。
本稿では, 身体的エージェントが世界を探索し, 感覚経験から自律的に学習する問題にアプローチする。
この知識を符号化するベイズネットワークの構造とパラメータを学ぶためのモデルが存在する。
ベイジアンネットワークは不確実性と冗長性を扱うことができるが、従来の研究は離散感覚データの完全な可観測性を考慮しており、ノイズが存在する場合の誤りにつながる可能性がある。
本稿では,ガウス混合モデル(GMM)によるセンサの確率的表現について考察し,より正確な学習につながるような個別価格の概念に含まれる確率分布を明示的に考慮する。
関連論文リスト
- LaPLACE: Probabilistic Local Model-Agnostic Causal Explanations [1.0370398945228227]
本稿では,機械学習モデルに対する確率論的原因・効果説明を提供するLaPLACE-Explainerを紹介する。
LaPLACE-Explainerコンポーネントはマルコフ毛布の概念を利用して、関連する特徴と非関連する特徴の間の統計的境界を確立する。
提案手法は,LIME と SHAP の局所的精度と特徴の整合性の観点から,因果的説明と性能を向上する。
論文 参考訳(メタデータ) (2023-10-01T04:09:59Z) - How to Combine Variational Bayesian Networks in Federated Learning [0.0]
フェデレートラーニングにより、複数のデータセンターが機密データを公開することなく、協力的に中央モデルをトレーニングできる。
決定論的モデルは高い予測精度を達成することができ、キャリブレーションの欠如と不確実性を定量化する能力は、安全クリティカルなアプリケーションには問題となる。
変分ベイズニューラルネットワークに対する様々なアグリゲーションスキームの効果について検討する。
論文 参考訳(メタデータ) (2022-06-22T07:53:12Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Masked prediction tasks: a parameter identifiability view [49.533046139235466]
マスク付きトークンの予測に広く用いられている自己教師型学習手法に着目する。
いくつかの予測タスクは識別可能性をもたらすが、他のタスクはそうではない。
論文 参考訳(メタデータ) (2022-02-18T17:09:32Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Uncertainty Reasoning for Probabilistic Petri Nets via Bayesian Networks [1.471992435706872]
我々は、ペトリネット上の不確実性推論のために拡張ベイズネットワークを利用する。
特にベイズネットワークは確率分布の記号表現として用いられる。
モジュラーベイズネットから情報を引き出す方法を示す。
論文 参考訳(メタデータ) (2020-09-30T17:40:54Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z) - Ramifications of Approximate Posterior Inference for Bayesian Deep
Learning in Adversarial and Out-of-Distribution Settings [7.476901945542385]
ベイジアン深層学習モデルが従来のニューラルネットワークよりわずかに優れていることを示す。
予備的な調査は、初期化、アーキテクチャ、アクティベーション関数の選択によるバイアスの潜在的固有の役割を示している。
論文 参考訳(メタデータ) (2020-09-03T16:58:15Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z) - Symbolic Learning and Reasoning with Noisy Data for Probabilistic
Anchoring [19.771392829416992]
ボトムアップオブジェクトアンカーに基づくセマンティックワールドモデリング手法を提案する。
我々は、マルチモーダル確率分布を扱うためにアンカーの定義を拡張した。
我々は統計的リレーショナル・ラーニングを用いて、アンカーリング・フレームワークが記号的知識を学習できるようにする。
論文 参考訳(メタデータ) (2020-02-24T16:58:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。