論文の概要: Fusing Interpretable Knowledge of Neural Network Learning Agents For
Swarm-Guidance
- arxiv url: http://arxiv.org/abs/2204.00272v1
- Date: Fri, 1 Apr 2022 08:07:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-04 13:49:38.762541
- Title: Fusing Interpretable Knowledge of Neural Network Learning Agents For
Swarm-Guidance
- Title(参考訳): Swarm-Guidanceのためのニューラルネットワーク学習エージェントの解釈可能な知識
- Authors: Duy Tung Nguyen, Kathryn Kasmarik, Hussein Abbass
- Abstract要約: ニューラルネットワークベースの学習エージェントは、内部のニューラルネットワークを使用して決定する。
ある状況では、この知識が人間と機械の両方に友好的な形で再解釈されることが重要になる。
本稿では,ニューラルベース学習エージェントに適した解釈可能な知識融合フレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.5156484100374059
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural-based learning agents make decisions using internal artificial neural
networks. In certain situations, it becomes pertinent that this knowledge is
re-interpreted in a friendly form to both the human and the machine. These
situations include: when agents are required to communicate the knowledge they
learn to each other in a transparent way in the presence of an external human
observer, in human-machine teaming settings where humans and machines need to
collaborate on a task, or where there is a requirement to verify the knowledge
exchanged between the agents. We propose an interpretable knowledge fusion
framework suited for neural-based learning agents, and propose a Priority on
Weak State Areas (PoWSA) retraining technique. We first test the proposed
framework on a synthetic binary classification task before evaluating it on a
shepherding-based multi-agent swarm guidance task. Results demonstrate that the
proposed framework increases the success rate on the swarm-guidance environment
by 11% and better stability in return for a modest increase in computational
cost of 14.5% to achieve interpretability. Moreover, the framework presents the
knowledge learnt by an agent in a human-friendly representation, leading to a
better descriptive visual representation of an agent's knowledge.
- Abstract(参考訳): ニューラルネットワークベースの学習エージェントは、内部のニューラルネットワークを使用して決定する。
ある状況では、この知識が人間と機械の両方に友好的な形で再解釈されることが重要になる。
エージェントが、外部の人間のオブザーバの存在下で、透過的な方法で学習した知識を伝える必要がある場合、人間とマシンがタスクで協力する必要がある場合や、エージェント間で交換された知識を検証する必要がある場合などである。
本稿では,ニューラルベース学習エージェントに適した解釈可能な知識融合フレームワークを提案し,弱状態領域(powsa)再訓練手法の優先順位を提案する。
まず,提案手法を合成二分分類タスクで検証し,シェパーディングに基づくマルチエージェント群誘導タスクで評価する。
提案手法は,スワム誘導環境における成功率を11%向上させ,計算コストが14.5%増加し,解釈可能性の向上に寄与することを示した。
さらに、このフレームワークはエージェントが学習した知識を人間にやさしい表現で提示し、エージェントの知識のより記述的な視覚的表現へと導く。
関連論文リスト
- Real-time Addressee Estimation: Deployment of a Deep-Learning Model on
the iCub Robot [52.277579221741746]
住所推定は、社会ロボットが人間とスムーズに対話するために必要なスキルである。
人間の知覚スキルにインスパイアされたディープラーニングモデルは、iCubロボットに設計、訓練、デプロイされる。
本研究では,人間-ロボットのリアルタイムインタラクションにおいて,そのような実装の手順とモデルの性能について述べる。
論文 参考訳(メタデータ) (2023-11-09T13:01:21Z) - Representation Engineering: A Top-Down Approach to AI Transparency [132.0398250233924]
表現工学の新たな領域(RepE)を特定し,特徴付ける
RepEは、神経細胞や回路ではなく、人口レベルの表現を解析の中心に置く。
これらの手法が、広範囲の安全関連問題に対してどのようにトラクションを提供するかを紹介する。
論文 参考訳(メタデータ) (2023-10-02T17:59:07Z) - Flexible and Inherently Comprehensible Knowledge Representation for
Data-Efficient Learning and Trustworthy Human-Machine Teaming in
Manufacturing Environments [0.0]
人工知能エージェントの信頼性は、産業生産環境における人間と機械の協調の受容に不可欠である。
我々はエージェントの知識を表現するために、G"ardenforsの認知的にインスピレーションを受けた概念空間フレームワークを利用している。
ファジィカテゴリのメンバシップを決定し、インスタンスを解釈可能に分類するために、シンプルな典型モデルがその上に構築されている。
論文 参考訳(メタデータ) (2023-05-19T11:18:23Z) - Interpreting Neural Policies with Disentangled Tree Representations [58.769048492254555]
本稿では,コンパクトなニューラルポリシーの解釈可能性について,不整合表現レンズを用いて検討する。
決定木を利用して,ロボット学習における絡み合いの要因を抽出する。
学習したニューラルダイナミクスの絡み合いを計測する解釈可能性指標を導入する。
論文 参考訳(メタデータ) (2022-10-13T01:10:41Z) - An Interactive Explanatory AI System for Industrial Quality Control [0.8889304968879161]
我々は,ループ間対話型アプローチに向けて,欠陥検出タスクを拡張することを目的としている。
本稿では,産業品質管理環境における分類のための対話型支援システムを提案する。
論文 参考訳(メタデータ) (2022-03-17T09:04:46Z) - Probe-Based Interventions for Modifying Agent Behavior [4.324022085722613]
本研究では,事前学習したニューラルネットの表現を,外的特性に応じて更新する手法を開発した。
実験では,多種多様なニューラルネットワークに対するヒトエージェントチームのパフォーマンス向上のために,我々の手法がどのように用いられるかを示す。
論文 参考訳(メタデータ) (2022-01-26T19:14:00Z) - Assessing Human Interaction in Virtual Reality With Continually Learning
Prediction Agents Based on Reinforcement Learning Algorithms: A Pilot Study [6.076137037890219]
本研究では,人間と学習の継続する予測エージェントの相互作用が,エージェントの能力の発達とともにどのように発達するかを検討する。
我々は、強化学習(RL)アルゴリズムから学習した予測が人間の予測を増大させる仮想現実環境と時間ベースの予測タスクを開発する。
以上の結果から,人的信頼はエージェントとの早期の相互作用に影響され,信頼が戦略的行動に影響を及ぼす可能性が示唆された。
論文 参考訳(メタデータ) (2021-12-14T22:46:44Z) - Backprop-Free Reinforcement Learning with Active Neural Generative
Coding [84.11376568625353]
動的環境におけるエラー(バックプロップ)のバックプロパゲーションを伴わない行動駆動型生成モデルの学習のための計算フレームワークを提案する。
我々は、まばらな報酬でも機能するインテリジェントエージェントを開発し、推論として計画の認知理論からインスピレーションを得ている。
我々のエージェントの堅牢な性能は、神経推論と学習のためのバックプロップフリーアプローチがゴール指向の行動を促進するという有望な証拠を提供する。
論文 参考訳(メタデータ) (2021-07-10T19:02:27Z) - Learning Human Rewards by Inferring Their Latent Intelligence Levels in
Multi-Agent Games: A Theory-of-Mind Approach with Application to Driving Data [18.750834997334664]
我々は、人間は有理論的であり、他人の意思決定過程を推論する際に異なる知能レベルを持っていると論じる。
学習中の人間の潜在知能レベルを推論する,新しいマルチエージェント逆強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-07T07:48:31Z) - Neuro-symbolic Architectures for Context Understanding [59.899606495602406]
本稿では,データ駆動型アプローチと知識駆動型アプローチの強みを組み合わせたフレームワークとして,ハイブリッドAI手法を提案する。
具体的には、知識ベースを用いて深層ニューラルネットワークの学習過程を導く方法として、ニューロシンボリズムの概念を継承する。
論文 参考訳(メタデータ) (2020-03-09T15:04:07Z) - Automatic Gesture Recognition in Robot-assisted Surgery with
Reinforcement Learning and Tree Search [63.07088785532908]
共同手術におけるジェスチャー分割と分類のための強化学習と木探索に基づく枠組みを提案する。
我々のフレームワークは,JIGSAWSデータセットのサチューリングタスクにおいて,精度,編集スコア,F1スコアの点で,既存の手法よりも一貫して優れています。
論文 参考訳(メタデータ) (2020-02-20T13:12:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。