論文の概要: Learning to Coordinate with Humans using Action Features
- arxiv url: http://arxiv.org/abs/2201.12658v1
- Date: Sat, 29 Jan 2022 20:54:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-03 09:38:19.872840
- Title: Learning to Coordinate with Humans using Action Features
- Title(参考訳): 行動特徴を用いた人間との協調学習
- Authors: Mingwei Ma, Jizhou Liu, Samuel Sokota, Max Kleiman-Weiner, Jakob
Foerster
- Abstract要約: ネットワークアーキテクチャが意味的関係を利用する学習アルゴリズムの妥当性に与える影響について検討する。
観察と行動の卓越した表現を共同で処理する注意に基づくアーキテクチャは、ゼロショットコーディネートにより良い帰納バイアスをもたらす。
- 参考スコア(独自算出の注目度): 7.260481131198059
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: An unaddressed challenge in human-AI coordination is to enable AI agents to
exploit the semantic relationships between the features of actions and the
features of observations. Humans take advantage of these relationships in
highly intuitive ways. For instance, in the absence of a shared language, we
might point to the object we desire or hold up our fingers to indicate how many
objects we want. To address this challenge, we investigate the effect of
network architecture on the propensity of learning algorithms to exploit these
semantic relationships. Across a procedurally generated coordination task, we
find that attention-based architectures that jointly process a featurized
representation of observations and actions have a better inductive bias for
zero-shot coordination. Through fine-grained evaluation and scenario analysis,
we show that the resulting policies are human-interpretable. Moreover, such
agents coordinate with people without training on any human data.
- Abstract(参考訳): 人間とAIの協調における未適応の課題は、AIエージェントが行動の特徴と観察の特徴の間の意味的関係を活用できるようにすることである。
人間はこれらの関係を極めて直感的な方法で活用する。
例えば、共有言語がない場合、欲しいオブジェクトを指さしたり、どれだけのオブジェクトが欲しいかを示すために指を持ち上げたりします。
この課題に対処するために,これらの意味的関係を利用する学習アルゴリズムの妥当性に及ぼすネットワークアーキテクチャの影響を検討する。
手続き的に生成された協調作業全体において、観察と行動の卓越した表現を共同で処理する注意に基づくアーキテクチャは、ゼロショットコーディネーションにより良い帰納的バイアスをもたらす。
詳細な評価とシナリオ分析を通じて,結果の方針が人間に解釈可能であることを示す。
また、このようなエージェントは、人間のデータをトレーニングすることなく、人々と協調する。
関連論文リスト
- Visual-Geometric Collaborative Guidance for Affordance Learning [63.038406948791454]
本稿では,視覚的・幾何学的手がかりを取り入れた視覚・幾何学的協調学習ネットワークを提案する。
本手法は,客観的指標と視覚的品質の代表的なモデルより優れている。
論文 参考訳(メタデータ) (2024-10-15T07:35:51Z) - Disentangled Interaction Representation for One-Stage Human-Object
Interaction Detection [70.96299509159981]
ヒューマン・オブジェクト・インタラクション(HOI)検出は、人間中心の画像理解のコアタスクである。
最近のワンステージ手法では、対話予測に有用な画像ワイドキューの収集にトランスフォーマーデコーダを採用している。
従来の2段階の手法は、非絡み合いで説明可能な方法で相互作用特徴を構成する能力から大きな恩恵を受ける。
論文 参考訳(メタデータ) (2023-12-04T08:02:59Z) - Compositional Learning in Transformer-Based Human-Object Interaction
Detection [6.630793383852106]
ラベル付きインスタンスの長期分布は、HOI検出の主要な課題である。
HOI三重奏の性質にインスパイアされた既存のアプローチでは、作曲学習という概念が採用されている。
我々は,構成HoI学習のためのトランスフォーマーベースのフレームワークを創造的に提案する。
論文 参考訳(メタデータ) (2023-08-11T06:41:20Z) - Mining Conditional Part Semantics with Occluded Extrapolation for
Human-Object Interaction Detection [16.9278983497498]
人間と物体の相互作用の検出は、人間中心のシーン理解の重要な側面である。
既存の手法では、人間の手掛かりを使って難易度を緩和しようとするが、外部のアノテーションや知識に大きく依存する。
この問題を解決するための新しいパートセマンティックネットワーク(PSN)を提案する。
論文 参考訳(メタデータ) (2023-07-19T23:55:15Z) - Knowledge Guided Bidirectional Attention Network for Human-Object
Interaction Detection [3.0915392100355192]
HOIにおけるボトムアップ構文解析戦略の独立的利用は直感に反し、注意の拡散につながる可能性があると論じる。
HOIに新たな知識誘導型トップダウンアテンションを導入し、関係解析を「ルックアンドサーチ」プロセスとしてモデル化することを提案する。
一つのエンコーダ-デコーダモデルでボトムアップとトップダウンの注意を統一することで、プロセスを実装します。
論文 参考訳(メタデータ) (2022-07-16T16:42:49Z) - On Neural Architecture Inductive Biases for Relational Tasks [76.18938462270503]
合成ネットワーク一般化(CoRelNet)と呼ばれる類似度分布スコアに基づく簡単なアーキテクチャを導入する。
単純なアーキテクチャの選択は、分布外一般化において既存のモデルより優れていることが分かる。
論文 参考訳(メタデータ) (2022-06-09T16:24:01Z) - Domain-Robust Visual Imitation Learning with Mutual Information
Constraints [0.0]
Disentangling Generative Adversarial Imitation Learning (DisentanGAIL)と呼ばれる新しいアルゴリズムを導入する。
本アルゴリズムは,タスクを実行する専門家の高次元観察から自律エージェントを直接学習することを可能にする。
論文 参考訳(メタデータ) (2021-03-08T21:18:58Z) - Behavior Priors for Efficient Reinforcement Learning [97.81587970962232]
本稿では,情報とアーキテクチャの制約を,確率論的モデリング文献のアイデアと組み合わせて行動の事前学習を行う方法について考察する。
このような潜伏変数の定式化が階層的強化学習(HRL)と相互情報と好奇心に基づく目的との関係について論じる。
シミュレーションされた連続制御領域に適用することで,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2020-10-27T13:17:18Z) - DRG: Dual Relation Graph for Human-Object Interaction Detection [65.50707710054141]
人-物間相互作用(HOI)検出の課題に対処する。
既存の方法は、人間と物体の対の相互作用を独立に認識するか、複雑な外観に基づく共同推論を行う。
本稿では,抽象的空間意味表現を活用して,各対象対を記述し,二重関係グラフを用いてシーンの文脈情報を集約する。
論文 参考訳(メタデータ) (2020-08-26T17:59:40Z) - ConsNet: Learning Consistency Graph for Zero-Shot Human-Object
Interaction Detection [101.56529337489417]
画像中のHuman, Action, Object>の形のHOIインスタンスを検出・認識することを目的としたHuman-Object Interaction (HOI) Detectionの問題点を考察する。
我々は、オブジェクト、アクション、インタラクション間の多レベルコンパレンシーは、稀な、あるいは以前には見られなかったHOIのセマンティック表現を生成するための強力な手がかりであると主張している。
提案モデルでは,人-対象のペアの視覚的特徴とHOIラベルの単語埋め込みを入力とし,それらを視覚-意味的関節埋め込み空間にマッピングし,類似度を計測して検出結果を得る。
論文 参考訳(メタデータ) (2020-08-14T09:11:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。