論文の概要: Towards Probabilistic Causal Discovery, Inference & Explanations for
Autonomous Drones in Mine Surveying Tasks
- arxiv url: http://arxiv.org/abs/2308.10047v2
- Date: Sun, 1 Oct 2023 14:42:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-03 16:53:39.828768
- Title: Towards Probabilistic Causal Discovery, Inference & Explanations for
Autonomous Drones in Mine Surveying Tasks
- Title(参考訳): 地雷探査作業における自律型ドローンの確率的因果発見・推論・説明に向けて
- Authors: Ricardo Cannizzaro, Rhys Howard, Paulina Lewinska, Lars Kunze
- Abstract要約: 因果モデリングは、自律的なエージェントによる意思決定や結果の説明を支援することができる。
ここでは,塩鉱で稼働するドローンシステムにおける因果関係に関する課題を特定する。
本稿では、因果的インフォームドPOMDP計画、オンラインSCM適応、およびポストホックな反事実的説明からなる確率的因果関係の枠組みを提案する。
- 参考スコア(独自算出の注目度): 5.569226615350014
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Causal modelling offers great potential to provide autonomous agents the
ability to understand the data-generation process that governs their
interactions with the world. Such models capture formal knowledge as well as
probabilistic representations of noise and uncertainty typically encountered by
autonomous robots in real-world environments. Thus, causality can aid
autonomous agents in making decisions and explaining outcomes, but deploying
causality in such a manner introduces new challenges. Here we identify
challenges relating to causality in the context of a drone system operating in
a salt mine. Such environments are challenging for autonomous agents because of
the presence of confounders, non-stationarity, and a difficulty in building
complete causal models ahead of time. To address these issues, we propose a
probabilistic causal framework consisting of: causally-informed POMDP planning,
online SCM adaptation, and post-hoc counterfactual explanations. Further, we
outline planned experimentation to evaluate the framework integrated with a
drone system in simulated mine environments and on a real-world mine dataset.
- Abstract(参考訳): 因果モデリングは、自律的なエージェントに、世界とのインタラクションを管理するデータ生成プロセスを理解する能力を提供します。
このようなモデルは、現実の環境で自律ロボットが遭遇するノイズや不確実性の確率論的表現と同様に、形式的な知識を捉える。
したがって、因果関係は自律的なエージェントが意思決定や結果の説明を行うのを助けることができるが、このような因果関係の展開は新たな課題をもたらす。
ここでは,塩鉱で稼働するドローンシステムにおける因果関係に関する課題を特定する。
このような環境は、共同設立者の存在、非定常性、そして前もって完全な因果モデルを構築することの難しさから、自律エージェントにとって難しい。
これらの問題に対処するため,我々はpomdp計画,オンラインscm適応,ポストホックな反事実説明からなる確率的因果枠組みを提案する。
さらに,シミュレーションされた鉱山環境および実世界の鉱山データセット上で,ドローンシステムと統合されたフレームワークを評価するための実験を概説した。
関連論文リスト
- Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Exploring the Causality of End-to-End Autonomous Driving [57.631400236930375]
本稿では,エンドツーエンド自動運転の因果関係を探究し,分析するための包括的アプローチを提案する。
私たちの研究は、エンドツーエンドの自動運転の謎を初めて明らかにし、ブラックボックスを白い箱に変えた。
論文 参考訳(メタデータ) (2024-07-09T04:56:11Z) - Hallucination Detection in Foundation Models for Decision-Making: A Flexible Definition and Review of the State of the Art [7.072820266877787]
意思決定タスクにおける基礎モデルの現状について論じる。
我々は、モデル決定の確実性を定量化できるシステムを後退して同時に設計する必要があると主張している。
論文 参考訳(メタデータ) (2024-03-25T08:11:02Z) - Gaussian Mixture Models for Affordance Learning using Bayesian Networks [50.18477618198277]
Affordancesはアクション、オブジェクト、エフェクト間の関係の基本的な記述である。
本稿では,世界を探究し,その感覚経験から自律的にこれらの余裕を学習するエンボディエージェントの問題にアプローチする。
論文 参考訳(メタデータ) (2024-02-08T22:05:45Z) - The Essential Role of Causality in Foundation World Models for Embodied AI [102.75402420915965]
身体的なAIエージェントは、さまざまな現実世界環境で新しいタスクを実行する能力を必要とします。
現在の基礎モデルは物理的相互作用を正確にモデル化することができないため、Embodied AIには不十分である。
因果関係の研究は、検証世界モデルの構築に寄与する。
論文 参考訳(メタデータ) (2024-02-06T17:15:33Z) - Towards a Causal Probabilistic Framework for Prediction,
Action-Selection & Explanations for Robot Block-Stacking Tasks [4.244706520140677]
因果モデル(英: Causal model)は、ロボットの環境との相互作用を管理する因果関係の形式的知識を符号化する原則的な枠組みを提供する。
本研究では,物理シミュレーション機能を構造因果モデルに組み込むことで,ロボットがブロックスタッキングタスクの現況を認識・評価できる新しい因果確率的枠組みを提案する。
論文 参考訳(メタデータ) (2023-08-11T15:58:15Z) - Modeling Transformative AI Risks (MTAIR) Project -- Summary Report [0.0]
このレポートは、Cottier氏とShah氏による以前の図に基づいており、いくつかの説明とともに、視覚的に重要な不一致(クラックス)をいくつか説明した。
このモデルは、アナロジーと人工知能に関する一般的な以前の信念による推論に関する議論から始まる。
さまざまなパスのモデルをレイアウトし、ハイレベルなマシンインテリジェンスのためのテクノロジーと、これらのシステムの能力の進歩のモデルを構築している。
このモデルは、学習した最適化の問題や、機械学習システムがメザ最適化を作成するかどうかについても特に注目している。
論文 参考訳(メタデータ) (2022-06-19T09:11:23Z) - CausalCity: Complex Simulations with Agency for Causal Discovery and
Reasoning [68.74447489372037]
本稿では,因果探索と反事実推論のためのアルゴリズムの開発を目的とした,高忠実度シミュレーション環境を提案する。
私たちの作業の中核となるコンポーネントは、複雑なシナリオを定義して作成することが簡単になるような、テキストの緊急性を導入することです。
我々は3つの最先端の手法による実験を行い、ベースラインを作成し、この環境の可利用性を強調する。
論文 参考訳(メタデータ) (2021-06-25T00:21:41Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Adaptive Autonomy in Human-on-the-Loop Vision-Based Robotics Systems [16.609594839630883]
コンピュータビジョンのアプローチは、自律ロボットシステムによって意思決定の指針として広く使われている。
特に人間が監督的な役割しか果たさないHuman-on-the-loop(HoTL)システムでは、高精度が重要です。
適応的自律性レベルに基づくソリューションを提案し,これらのモデルの信頼性の低下を検出する。
論文 参考訳(メタデータ) (2021-03-28T05:43:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。