論文の概要: Neural Reasoning About Agents' Goals, Preferences, and Actions
- arxiv url: http://arxiv.org/abs/2312.07122v1
- Date: Tue, 12 Dec 2023 09:52:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-13 16:36:18.070432
- Title: Neural Reasoning About Agents' Goals, Preferences, and Actions
- Title(参考訳): エージェントの目標、選好、行動に関する神経学的推論
- Authors: Matteo Bortoletto, Lei Shi, Andreas Bulling
- Abstract要約: エージェントの目標、嗜好、行動に関する直感的な心理的推論のための新しいニューラルモデルを提案する。
IRENEは、学習エージェントと世界状態表現のためのグラフニューラルネットワークと、タスクコンテキストをエンコードするトランスフォーマーを組み合わせたものだ。
挑戦的なBaby Intuitions Benchmarkを評価すると、IRENEは5つのタスクのうち3つで新しい最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 11.4414301678724
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We propose the Intuitive Reasoning Network (IRENE) - a novel neural model for
intuitive psychological reasoning about agents' goals, preferences, and actions
that can generalise previous experiences to new situations. IRENE combines a
graph neural network for learning agent and world state representations with a
transformer to encode the task context. When evaluated on the challenging Baby
Intuitions Benchmark, IRENE achieves new state-of-the-art performance on three
out of its five tasks - with up to 48.9% improvement. In contrast to existing
methods, IRENE is able to bind preferences to specific agents, to better
distinguish between rational and irrational agents, and to better understand
the role of blocking obstacles. We also investigate, for the first time, the
influence of the training tasks on test performance. Our analyses demonstrate
the effectiveness of IRENE in combining prior knowledge gained during training
for unseen evaluation tasks.
- Abstract(参考訳): 本稿では, エージェントの目標, 好み, 行動について直感的思考を行うための新しいニューラルモデルとして, 直感的推論ネットワーク(irene)を提案する。
IRENEは、学習エージェントと世界状態表現のためのグラフニューラルネットワークと、タスクコンテキストをエンコードするトランスフォーマーを組み合わせたものだ。
挑戦的なBaby Intuitionsベンチマークで評価すると、IRENEは5つのタスクのうち3つで、48.9%の改善を達成している。
既存の方法とは対照的に、IRENEは特定のエージェントに好みを結びつけることができ、合理的なエージェントと不合理なエージェントを区別し、障害をブロックする役割をよりよく理解することができる。
また,トレーニングタスクがテストパフォーマンスに与える影響を初めて調査した。
本分析は,未確認評価タスクのトレーニング中に得られた知識を組み合わせたIRENEの有効性を示す。
関連論文リスト
- PreND: Enhancing Intrinsic Motivation in Reinforcement Learning through Pre-trained Network Distillation [2.6647096862213884]
強化学習における本質的モチベーションを高めるための新しいアプローチであるプレトレーニングネットワーク蒸留(Pre-trained Network Distillation, PreND)を導入する。
PreNDは、事前訓練された表現モデルをターゲットネットワークと予測ネットワークの両方に組み込み、より有意義で安定した本質的な報酬をもたらす。
我々は,Atariドメインの実験において,PreNDがランダムネットワーク蒸留(RND)を著しく上回ることを示した。
論文 参考訳(メタデータ) (2024-10-02T16:56:03Z) - Machine Psychology: Integrating Operant Conditioning with the Non-Axiomatic Reasoning System for Advancing Artificial General Intelligence Research [0.0]
本稿では,AI(Artificial General Intelligence, AGI)研究を強化するための学際的枠組みであるマシン心理学を紹介する。
このフレームワークの中核となる前提は、適応が生物学的および人工知能の両方にとって重要であることである。
本研究は,OpenNARS for Applications を用いた3つの操作型学習タスクを用いて,このアプローチを評価する。
論文 参考訳(メタデータ) (2024-05-29T20:23:57Z) - Interactive Autonomous Navigation with Internal State Inference and
Interactivity Estimation [58.21683603243387]
本稿では,関係時間的推論を伴う3つの補助的タスクを提案し,それらを標準のディープラーニングフレームワークに統合する。
これらの補助的なタスクは、他の対話的エージェントの行動パターンを推測するための追加の監視信号を提供する。
提案手法は,標準評価指標の観点から,頑健かつ最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-11-27T18:57:42Z) - Learning Action-Effect Dynamics for Hypothetical Vision-Language
Reasoning Task [50.72283841720014]
本研究では,行動の効果に関する推論を改善する新しい学習戦略を提案する。
本稿では,提案手法の有効性を実証し,性能,データ効率,一般化能力の観点から,従来のベースラインに対する優位性を論じる。
論文 参考訳(メタデータ) (2022-12-07T05:41:58Z) - SS-VAERR: Self-Supervised Apparent Emotional Reaction Recognition from
Video [61.21388780334379]
この研究は、自己監督的な方法で行われるビデオのみの入力からの明らかな感情的反応の認識に焦点を当てる。
ネットワークは、まず異なる自己教師付きプレテキストタスクで事前訓練され、その後、下流のターゲットタスクで微調整される。
論文 参考訳(メタデータ) (2022-10-20T15:21:51Z) - Basis for Intentions: Efficient Inverse Reinforcement Learning using
Past Experience [89.30876995059168]
逆強化学習(IRL) - エージェントの報酬関数をその振る舞いを観察することから推測する。
本稿では、エージェントの報酬関数を観察することのできないIRLの問題に対処する。
論文 参考訳(メタデータ) (2022-08-09T17:29:49Z) - Assessing Human Interaction in Virtual Reality With Continually Learning
Prediction Agents Based on Reinforcement Learning Algorithms: A Pilot Study [6.076137037890219]
本研究では,人間と学習の継続する予測エージェントの相互作用が,エージェントの能力の発達とともにどのように発達するかを検討する。
我々は、強化学習(RL)アルゴリズムから学習した予測が人間の予測を増大させる仮想現実環境と時間ベースの予測タスクを開発する。
以上の結果から,人的信頼はエージェントとの早期の相互作用に影響され,信頼が戦略的行動に影響を及ぼす可能性が示唆された。
論文 参考訳(メタデータ) (2021-12-14T22:46:44Z) - Contrastive Active Inference [12.361539023886161]
本稿では,エージェントの生成モデル学習における計算負担を低減し,今後の行動計画を行うための,アクティブ推論のための対照的な目的を提案する。
提案手法は,画像に基づくタスクにおいて,確率に基づく能動推論よりも特に優れているが,計算処理が安価で,訓練も容易である。
論文 参考訳(メタデータ) (2021-10-19T16:20:49Z) - Backprop-Free Reinforcement Learning with Active Neural Generative
Coding [84.11376568625353]
動的環境におけるエラー(バックプロップ)のバックプロパゲーションを伴わない行動駆動型生成モデルの学習のための計算フレームワークを提案する。
我々は、まばらな報酬でも機能するインテリジェントエージェントを開発し、推論として計画の認知理論からインスピレーションを得ている。
我々のエージェントの堅牢な性能は、神経推論と学習のためのバックプロップフリーアプローチがゴール指向の行動を促進するという有望な証拠を提供する。
論文 参考訳(メタデータ) (2021-07-10T19:02:27Z) - How Do You Act? An Empirical Study to Understand Behavior of Deep
Reinforcement Learning Agents [2.3268634502937937]
深層強化学習エージェントの意思決定プロセスの透明性向上への需要はこれまで以上に大きい。
本研究では,エージェントのポリシーネットワークの活性化空間を通じて学習した表現を特徴付ける。
本研究は,ネットワークの層活性化と実行動作の相関パターンを特徴とする健康エージェントの挙動を示す。
論文 参考訳(メタデータ) (2020-04-07T10:08:55Z) - Intrinsic Motivation for Encouraging Synergistic Behavior [55.10275467562764]
スパース・リワード・シナジスティック・タスクにおける強化学習の探索バイアスとしての本質的モチベーションの役割について検討した。
私たちのキーとなる考え方は、シナジスティックなタスクにおける本質的なモチベーションのための優れた指針は、エージェントが自分自身で行動している場合、達成できない方法で世界に影響を与える行動を取ることである。
論文 参考訳(メタデータ) (2020-02-12T19:34:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。