論文の概要: Characterizing tradeoffs between teaching via language and
demonstrations in multi-agent systems
- arxiv url: http://arxiv.org/abs/2305.11374v1
- Date: Fri, 19 May 2023 01:27:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-22 16:40:30.161974
- Title: Characterizing tradeoffs between teaching via language and
demonstrations in multi-agent systems
- Title(参考訳): マルチエージェントシステムにおける言語教育と実演のトレードオフ
- Authors: Dhara Yu, Noah D. Goodman, and Jesse Mu
- Abstract要約: 我々はニューラルネットワークエージェントを訓練し、接地されたコミュニケーションタスクで言語や実演を通して教える。
実演による授業は、最も簡単な設定ではより効果的であるが、タスクの難易度が増大するにつれて、言語の方がより効果的であることがわかった。
- 参考スコア(独自算出の注目度): 31.520028005933234
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Humans teach others about the world through language and demonstration. When
might one of these modalities be more effective than the other? In this work,
we study the factors that modulate the effectiveness of language vs.
demonstration using multi-agent systems to model human communication.
Specifically, we train neural network agents to teach via language or
demonstration in a grounded communication task, manipulating 1) the inherent
difficulty of the task and 2) the competence of the teacher. We find that
teaching by demonstration is more effective in the simplest settings, but
language is more effective as task difficulty increases, due to its ability to
generalize more effectively to unseen scenarios. Overall, these results provide
converging evidence for a tradeoff between language and demonstration as
teaching modalities in humans, and make the novel predictions that
demonstration may be optimal for easy tasks, while language enables
generalization in more challenging settings.
- Abstract(参考訳): 人間は言語とデモンストレーションを通じて世界について他の人に教えます。
これらのモダリティの一方が他方よりも効果的になるのはいつでしょうか?
本研究では,人間のコミュニケーションをモデル化するマルチエージェントシステムを用いて,言語の有効性と実演の効果を調節する要因について検討する。
具体的には,ニューラルネットワークエージェントを訓練して,言語や実演を通じて,基礎的なコミュニケーションタスクで教示し,操作する。
1)タスクの固有の難しさと課題
2)教師の能力。
実演による指導は、最も簡単な設定でより効果的であることがわかったが、タスクの難しさが増すにつれ、言語はより効果的であることが判明した。
全体として、これらの結果は、人間のモダリティを教えることとしての言語と実演のトレードオフの確固たる証拠を提供し、そして、実演は簡単なタスクに最適であり、言語はより困難な環境での一般化を可能にする、という新しい予測を与える。
関連論文リスト
- The Impact of Demonstrations on Multilingual In-Context Learning: A
Multidimensional Analysis [24.949117958198112]
インコンテキスト学習(In-context learning)は、大規模言語モデルがいくつかのラベル付きデモを使用してタスクを解く一般的な推論戦略である。
実演の有効性は, モデル, タスク, 言語によって大きく異なることを示す。
また, Llama 2-Chat, GPT-3.5, GPT-4は実演の質にはほとんど敏感でないことがわかった。
論文 参考訳(メタデータ) (2024-02-20T12:53:31Z) - Diffusion Language Models Can Perform Many Tasks with Scaling and
Instruction-Finetuning [56.03057119008865]
拡散言語モデルを拡張することで、強力な言語学習者が効果的に学習できることが示される。
大規模データから知識を最初に取得することで,大規模に有能な拡散言語モデルを構築する。
実験により、拡散言語モデルのスケーリングは、下流言語タスクにおけるパフォーマンスを一貫して改善することが示された。
論文 参考訳(メタデータ) (2023-08-23T16:01:12Z) - Learning to Model the World with Language [98.22400014565818]
我々は、将来のテキストや画像表現を予測するマルチモーダル世界モデルを学び、想像されたモデルロールアウトから行動を学ぶエージェントであるDynalangを紹介する。
アクションを予測するためにのみ言語を使用する従来のエージェントとは異なり、Dynalangは、過去の言語を使用して、将来の言語、ビデオ、報酬を予測することによって、リッチな言語理解を得る。
論文 参考訳(メタデータ) (2023-07-31T17:57:49Z) - EC^2: Emergent Communication for Embodied Control [72.99894347257268]
エージェントはマルチモーダル・プレトレーニングを活用して、新しい環境でどのように振る舞うかを素早く学ぶ必要がある。
本稿では,数発のエンボディドコントロールのためのビデオ言語表現を事前学習するための新しいスキームであるEmergent Communication for Embodied Control (EC2)を提案する。
EC2は、タスク入力としてビデオとテキストの両方の従来のコントラスト学習手法を一貫して上回っている。
論文 参考訳(メタデータ) (2023-04-19T06:36:02Z) - Using Both Demonstrations and Language Instructions to Efficiently Learn
Robotic Tasks [21.65346551790888]
DeL-TaCoは、視覚的なデモンストレーションと言語指導という2つのコンポーネントからなるタスク埋め込みにロボットポリシーを条件付ける方法である。
我々の知る限り、デモと言語埋め込みの両方にマルチタスクロボット操作ポリシーを同時に条件付けすることで、モダリティのみの条件付けよりもサンプル効率と一般化が向上することを示す最初の研究である。
論文 参考訳(メタデータ) (2022-10-10T08:06:58Z) - What Artificial Neural Networks Can Tell Us About Human Language
Acquisition [47.761188531404066]
自然言語処理のための機械学習の急速な進歩は、人間がどのように言語を学ぶかについての議論を変革する可能性がある。
計算モデルによる学習可能性の関連性を高めるためには,人間に対して大きな優位性を持たず,モデル学習者を訓練する必要がある。
論文 参考訳(メタデータ) (2022-08-17T00:12:37Z) - Pragmatically Learning from Pedagogical Demonstrations in Multi-Goal
Environments [8.715518445626826]
我々は、実証(BGI)からのゴール推論のベイズモデルを活用することにより、教育とプラグマティズムのメカニズムを実装した。
本研究では,BGIエージェント(教育教師と実践的学習者)を組み合わせることで,実演からの標準学習よりも学習の迅速化と目標のあいまいさを低減できることを示す。
論文 参考訳(メタデータ) (2022-06-09T14:51:25Z) - Do As I Can, Not As I Say: Grounding Language in Robotic Affordances [119.29555551279155]
大規模な言語モデルは、世界に関する豊富な意味知識を符号化することができる。
このような知識は、自然言語で表現された高レベルで時間的に拡張された命令を動作させようとするロボットにとって極めて有用である。
低レベルのスキルを大規模言語モデルと組み合わせることで,言語モデルが複雑かつ時間的に拡張された命令を実行する手順について高いレベルの知識を提供することを示す。
論文 参考訳(メタデータ) (2022-04-04T17:57:11Z) - Ask Your Humans: Using Human Instructions to Improve Generalization in
Reinforcement Learning [32.82030512053361]
本研究では、自然言語の指示や行動軌跡の形で、ステップバイステップの人間の実演を行うことを提案する。
人間のデモは、最も複雑なタスクを解決するのに役立ちます。
また、自然言語を組み込むことで、ゼロショット設定で未確認のタスクを一般化できることがわかった。
論文 参考訳(メタデータ) (2020-11-01T14:39:46Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z) - Language Conditioned Imitation Learning over Unstructured Data [9.69886122332044]
本稿では,自由形式の自然言語条件付けを模倣学習に組み込む手法を提案する。
我々のアプローチは、単一のニューラルネットワークとしてピクセル、自然言語理解、マルチタスク連続制御のエンドツーエンドから知覚を学習する。
言語アノテーションのコストを1%以下に抑えつつ,言語条件付き性能を劇的に向上させることを示す。
論文 参考訳(メタデータ) (2020-05-15T17:08:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。