論文の概要: BaTCAVe: Trustworthy Explanations for Robot Behaviors
- arxiv url: http://arxiv.org/abs/2409.10733v2
- Date: Wed, 08 Oct 2025 21:01:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:14.481153
- Title: BaTCAVe: Trustworthy Explanations for Robot Behaviors
- Title(参考訳): BaTCAVe:ロボットの行動に関する信頼できる説明
- Authors: Som Sagar, Aditya Taparia, Harsh Mankodiya, Pranav Bidare, Yifan Zhou, Ransalu Senanayake,
- Abstract要約: 本稿では,ニューラルネットワークによる決定に起因した,人間解釈可能な高レベルな概念に基づく信頼性の高い説明可能なロボット工学手法を提案する。
提案手法は,ニューラルネットワークのアクティベーションと人間の解釈可能なビジュアライゼーションを一致させることにより,関連する不確実性スコアを説明できる。
- 参考スコア(独自算出の注目度): 11.952589742119732
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Black box neural networks are an indispensable part of modern robots. Nevertheless, deploying such high-stakes systems in real-world scenarios poses significant challenges when the stakeholders, such as engineers and legislative bodies, lack insights into the neural networks' decision-making process. Presently, explainable AI is primarily tailored to natural language processing and computer vision, falling short in two critical aspects when applied in robots: grounding in decision-making tasks and the ability to assess trustworthiness of their explanations. In this paper, we introduce a trustworthy explainable robotics technique based on human-interpretable, high-level concepts that attribute to the decisions made by the neural network. Our proposed technique provides explanations with associated uncertainty scores for the explanation by matching neural network's activations with human-interpretable visualizations. To validate our approach, we conducted a series of experiments with various simulated and real-world robot decision-making models, demonstrating the effectiveness of the proposed approach as a post-hoc, human-friendly robot diagnostic tool.
- Abstract(参考訳): ブラックボックスニューラルネットワークは、現代のロボットにとって欠かせない部分である。
それでも、そのような高度なシステムを現実のシナリオにデプロイすることは、エンジニアや立法機関といったステークホルダーが、ニューラルネットワークの意思決定プロセスに関する洞察を欠いている場合に、重大な課題を生じさせる。
現在、説明可能なAIは主に自然言語処理とコンピュータビジョンに特化しており、ロボットに適用された場合、意思決定タスクの基盤と、説明の信頼性を評価する能力の2つの重要な側面で不足している。
本稿では,ニューラルネットワークによる決定に起因した,人間解釈可能な高レベルな概念に基づく,信頼性の高い説明可能なロボット工学手法を提案する。
提案手法は,ニューラルネットワークのアクティベーションと人間の解釈可能なビジュアライゼーションを一致させることにより,関連する不確実性スコアを説明できる。
提案手法の有効性を実証し,シミュレーションおよび実世界のロボット意思決定モデルを用いて,提案手法の有効性を実証した。
関連論文リスト
- Neural Brain: A Neuroscience-inspired Framework for Embodied Agents [58.58177409853298]
大規模な言語モデルのような現在のAIシステムは、いまだに解体され続けており、物理的に世界と関わりが持てない。
この課題の核心は、人間のような適応性を持つエンボディエージェントを駆動するために設計された中枢知能システムであるNeural Brain(ニューラル・ブレイン)の概念である。
本稿では,2つの基本的な課題に対処する,エンボディエージェントのニューラルブレインの統一的枠組みを提案する。
論文 参考訳(メタデータ) (2025-05-12T15:05:34Z) - $π_0$: A Vision-Language-Action Flow Model for General Robot Control [77.32743739202543]
本稿では,インターネット規模のセマンティック知識を継承するために,事前学習された視覚言語モデル(VLM)上に構築された新しいフローマッチングアーキテクチャを提案する。
我々は,事前訓練後のタスクをゼロショットで実行し,人からの言語指導に追従し,微調整で新たなスキルを習得する能力の観点から,我々のモデルを評価した。
論文 参考訳(メタデータ) (2024-10-31T17:22:30Z) - Artificial General Intelligence (AGI)-Native Wireless Systems: A Journey Beyond 6G [58.440115433585824]
デジタルツイン(DT)のようなサービスをサポートする将来の無線システムの構築は、メタサーフェスのような従来の技術への進歩を通じて達成することが困難である。
人工知能(AI)ネイティブネットワークは、無線技術のいくつかの制限を克服することを約束する一方で、開発は依然としてニューラルネットワークのようなAIツールに依存している。
本稿では、AIネイティブ無線システムの概念を再考し、それらを人工知能(AGI)ネイティブシステムに変換するために必要な共通感覚を取り入れた。
論文 参考訳(メタデータ) (2024-04-29T04:51:05Z) - How to Raise a Robot -- A Case for Neuro-Symbolic AI in Constrained Task
Planning for Humanoid Assistive Robots [4.286794014747407]
ロボットタスク計画手法を用いて,プライバシ,セキュリティ,アクセス制御の制約を取り入れた新しい分野を探求する。
本稿では,古典的シンボリックアプローチ,深層学習ニューラルネットワーク,および知識ベースとして大規模言語モデルを用いた現代的アイデアに関する予備的結果を報告する。
論文 参考訳(メタデータ) (2023-12-14T11:09:50Z) - Brain-Inspired Computational Intelligence via Predictive Coding [89.6335791546526]
予測符号化(PC)は、マシンインテリジェンスタスクにおいて有望なパフォーマンスを示している。
PCは様々な脳領域で情報処理をモデル化することができ、認知制御やロボティクスで使用することができる。
論文 参考訳(メタデータ) (2023-08-15T16:37:16Z) - World Models and Predictive Coding for Cognitive and Developmental
Robotics: Frontiers and Challenges [51.92834011423463]
我々は世界モデルと予測符号化の2つの概念に焦点を当てる。
神経科学において、予測符号化は、脳がその入力を継続的に予測し、その環境における自身のダイナミクスと制御行動のモデル化に適応するように提案する。
論文 参考訳(メタデータ) (2023-01-14T06:38:14Z) - Interpreting Neural Policies with Disentangled Tree Representations [58.769048492254555]
本稿では,コンパクトなニューラルポリシーの解釈可能性について,不整合表現レンズを用いて検討する。
決定木を利用して,ロボット学習における絡み合いの要因を抽出する。
学習したニューラルダイナミクスの絡み合いを計測する解釈可能性指標を導入する。
論文 参考訳(メタデータ) (2022-10-13T01:10:41Z) - Cognitive architecture aided by working-memory for self-supervised
multi-modal humans recognition [54.749127627191655]
人間パートナーを認識する能力は、パーソナライズされた長期的な人間とロボットの相互作用を構築するための重要な社会的スキルです。
ディープラーニングネットワークは最先端の結果を達成し,そのような課題に対処するための適切なツールであることが実証された。
1つの解決策は、ロボットに自己スーパービジョンで直接の感覚データから学習させることである。
論文 参考訳(メタデータ) (2021-03-16T13:50:24Z) - Functional neural network for decision processing, a racing network of
programmable neurons with fuzzy logic where the target operating model relies
on the network itself [1.1602089225841632]
本稿では,人間の意思決定過程をモデル化する関数型ニューラルネットワークである,人工知能の新しいモデルを提案する。
この機能的ニューラルネットワークは、意思決定の計算方法を変革する有望な可能性を秘めている、と私たちは信じています。
論文 参考訳(メタデータ) (2021-02-24T15:19:35Z) - Axiom Learning and Belief Tracing for Transparent Decision Making in
Robotics [8.566457170664926]
ロボットがその決定や信念の説明を提供する能力は、人間との効果的なコラボレーションを促進する。
我々のアーキテクチャは、非単調な論理的推論、ディープラーニング、決定木帰納の相補的な強みを兼ね備えています。
推論と学習の間、このアーキテクチャにより、ロボットはその決定、信念、仮説的行動の結果について、オンデマンドでリレーショナルな記述を提供することができる。
論文 参考訳(メタデータ) (2020-10-20T22:09:17Z) - Explainable Goal-Driven Agents and Robots -- A Comprehensive Review [13.94373363822037]
論文は、目標駆動型知的エージェントとロボットの説明可能なアプローチをレビューする。
エージェントの知覚機能や認知的推論を説明・伝達する技術に重点を置いている。
効果的な目標駆動型説明可能なエージェントとロボットの実現に向けたロードマップを提案する。
論文 参考訳(メタデータ) (2020-04-21T01:41:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。