論文の概要: Realistic Counterfactual Explanations for Machine Learning-Controlled Mobile Robots using 2D LiDAR
- arxiv url: http://arxiv.org/abs/2505.06906v1
- Date: Sun, 11 May 2025 08:55:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.104552
- Title: Realistic Counterfactual Explanations for Machine Learning-Controlled Mobile Robots using 2D LiDAR
- Title(参考訳): 2次元LiDARを用いた機械学習制御型移動ロボットの現実的対実的説明
- Authors: Sindre Benjamin Remman, Anastasios M. Lekkas,
- Abstract要約: 本稿では,2次元LiDARを用いた移動ロボットの機械学習(ML)制御において,現実的対実的説明(CFE)を生成する新しい手法を提案する。
本手法は論理的かつ現実的なCFEを生成し,DRLエージェントの決定を解釈するのに役立つ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a novel method for generating realistic counterfactual explanations (CFEs) in machine learning (ML)-based control for mobile robots using 2D LiDAR. ML models, especially artificial neural networks (ANNs), can provide advanced decision-making and control capabilities by learning from data. However, they often function as black boxes, making it challenging to interpret them. This is especially a problem in safety-critical control applications. To generate realistic CFEs, we parameterize the LiDAR space with simple shapes such as circles and rectangles, whose parameters are chosen by a genetic algorithm, and the configurations are transformed into LiDAR data by raycasting. Our model-agnostic approach generates CFEs in the form of synthetic LiDAR data that resembles a base LiDAR state but is modified to produce a pre-defined ML model control output based on a query from the user. We demonstrate our method on a mobile robot, the TurtleBot3, controlled using deep reinforcement learning (DRL) in real-world and simulated scenarios. Our method generates logical and realistic CFEs, which helps to interpret the DRL agent's decision making. This paper contributes towards advancing explainable AI in mobile robotics, and our method could be a tool for understanding, debugging, and improving ML-based autonomous control.
- Abstract(参考訳): 本稿では,2次元LiDARを用いた移動ロボットの機械学習(ML)制御において,現実的対実的説明(CFE)を生成する新しい手法を提案する。
MLモデル、特に人工知能ニューラルネットワーク(ANN)は、データから学習することで、高度な意思決定と制御機能を提供する。
しかし、しばしばブラックボックスとして機能し、解釈が難しい。
これは特に安全クリティカルな制御アプリケーションにおける問題である。
現実的なCFEを生成するために、遺伝的アルゴリズムによってパラメータが選択される円や矩形などの単純な形状でLiDAR空間をパラメータ化し、その構成をレイキャストによりLiDARデータに変換する。
モデルに依存しないアプローチでは,ベースLiDAR状態に類似する合成LiDARデータからCFEを生成し,ユーザからの問い合わせに基づいて事前定義されたMLモデル制御出力を生成する。
本研究では,実世界およびシミュレーションシナリオにおける深部強化学習(DRL)を用いて制御された移動ロボットTurtleBot3について実演する。
本手法は論理的かつ現実的なCFEを生成し,DRLエージェントの決定を解釈するのに役立つ。
本稿では,モバイルロボティクスにおける説明可能なAIの進歩に寄与し,我々の手法はMLベースの自律制御の理解,デバッグ,改善のためのツールとなる可能性がある。
関連論文リスト
- Modulating Reservoir Dynamics via Reinforcement Learning for Efficient Robot Skill Synthesis [0.0]
貯水池と呼ばれるランダムなリカレントニューラルネットワークは、コンテキスト入力で条件付けられたロボットの動きを学習するために使用することができる。
本稿では,新しいRCベースのLearning from Demonstration(LfD)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-17T07:25:54Z) - LeTFuser: Light-weight End-to-end Transformer-Based Sensor Fusion for
Autonomous Driving with Multi-Task Learning [16.241116794114525]
本稿では,複数のRGB-Dカメラ表現を融合させるアルゴリズムであるLeTFuserを紹介する。
認識と制御を同時に行うためには,マルチタスク学習を利用する。
論文 参考訳(メタデータ) (2023-10-19T20:09:08Z) - SAM-RL: Sensing-Aware Model-Based Reinforcement Learning via
Differentiable Physics-Based Simulation and Rendering [49.78647219715034]
本稿では,SAM-RL と呼ばれる感性認識モデルに基づく強化学習システムを提案する。
SAM-RLは、センサーを意識した学習パイプラインによって、ロボットがタスクプロセスを監視するための情報的視点を選択することを可能にする。
我々は,ロボット組立,ツール操作,変形可能なオブジェクト操作という3つの操作タスクを達成するための実世界の実験に,我々のフレームワークを適用した。
論文 参考訳(メタデータ) (2022-10-27T05:30:43Z) - IR-MCL: Implicit Representation-Based Online Global Localization [31.77645160411745]
本稿では,室内環境におけるロボットの姿勢を2次元LiDARデータを用いて推定する問題に対処する。
ニューラルネットワークを用いてシーンを暗黙的に表現するためのニューラルネットワーク占有場(NOF)を提案する。
本研究では,最先端手法のローカライズ性能を超越したアプローチを用いて,ロボットを高精度かつ効率的にローカライズできることを示す。
論文 参考訳(メタデータ) (2022-10-06T17:59:08Z) - Learning to Simulate Realistic LiDARs [66.7519667383175]
リアルLiDARセンサのデータ駆動シミュレーションのためのパイプラインを提案する。
本モデルでは, 透明表面上の落下点などの現実的な効果を符号化できることが示される。
我々は2つの異なるLiDARセンサのモデルを学習し、それに従ってシミュレーションされたLiDARデータを改善する。
論文 参考訳(メタデータ) (2022-09-22T13:12:54Z) - Real-to-Sim: Predicting Residual Errors of Robotic Systems with Sparse
Data using a Learning-based Unscented Kalman Filter [65.93205328894608]
我々は,動的・シミュレータモデルと実ロボット間の残差を学習する。
学習した残差誤差により、動的モデル、シミュレーション、および実際のハードウェア間の現実的ギャップをさらに埋めることができることを示す。
論文 参考訳(メタデータ) (2022-09-07T15:15:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。