論文の概要: Computational Language Acquisition with Theory of Mind
- arxiv url: http://arxiv.org/abs/2303.01502v1
- Date: Thu, 2 Mar 2023 18:59:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-03 12:51:02.562632
- Title: Computational Language Acquisition with Theory of Mind
- Title(参考訳): 心の理論を用いた計算言語獲得
- Authors: Andy Liu, Hao Zhu, Emmy Liu, Yonatan Bisk, Graham Neubig
- Abstract要約: 我々は、心の理論(ToM)を備えた言語学習エージェントを構築し、その学習過程への影響を測定する。
重み付けされたToMリスナーコンポーネントを用いた学習話者は,画像参照ゲームの設定において,性能向上につながることがわかった。
- 参考スコア(独自算出の注目度): 84.2267302901888
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unlike current state-of-the-art language models, young children actively
acquire language through interactions with their surrounding environment and
caretakers. One mechanism that has been argued to be critical to language
learning is the ability to infer the mental states of other agents in social
environments, coined Theory of Mind (ToM) by Premack & Woodruff (1978). Drawing
inspiration from the modern operationalized versions of ToM implemented in
Rabinowitz et al. (2018) and Zhu et al. (2021), we build language-learning
agents equipped with ToM, and measure its effects on the learning process. We
model ToM by giving the speaker agent an internal listener model that is
trained alongside the speaker and used to rerank potential utterances. We
experiment with varying task difficulty, hypothesizing that models will acquire
more complex language to adapt to stronger environmental pressures. We find
that training speakers with a highly weighted ToM listener component leads to
performance gains in our image referential game setting. We also find some
evidence that increasing task difficulty in the training process results in
more fluent and precise utterances in evaluation. This suggests the potential
utility of further incorporating ToM, as well as other insights from child
language acquisition, into computational models of language acquisition.
- Abstract(参考訳): 現在の最先端の言語モデルとは異なり、幼児は周囲の環境や介護者との交流を通じて積極的に言語を習得する。
言語学習に批判的であると論じられた1つのメカニズムは、社会環境における他のエージェントの精神状態を推測する能力である、とpremack & woodruff (1978) が提唱した「心の理論」(tom) である。
我々は,Rabinowitz et al. (2018) とZhu et al. (2021) で実装された現代のToMからインスピレーションを得て,ToMを組み込んだ言語学習エージェントを構築し,その学習プロセスへの影響を測定した。
我々は、話者エージェントに話者と一緒に訓練され、潜在的な発話を再現するために使用される内部リスナーモデルを与えることで、ToMをモデル化する。
我々は、モデルがより複雑な言語を取得し、より強い環境圧力に適応すると仮定して、様々なタスク困難を実験する。
高度に重み付けされたtom listenerコンポーネントを持つトレーニングスピーカーは、イメージ参照ゲーム設定のパフォーマンス向上につながることが分かりました。
また,学習過程におけるタスクの難易度が高まると,より流動的で正確な発話が得られた。
このことは、ToMをさらに活用し、児童言語習得の他の洞察を言語習得の計算モデルに組み込む可能性を示している。
関連論文リスト
- SIFToM: Robust Spoken Instruction Following through Theory of Mind [51.326266354164716]
本稿では,認知にインスパイアされた音声指導モデルであるSIFToMを提案し,多様な音声条件下でロボットが人間の指示を実践的に追従できるようにする。
結果から,SIFToMモデルは現状の音声モデルや言語モデルよりも優れており,課題に追従する音声命令に対する人間レベルの精度に近づいていることがわかった。
論文 参考訳(メタデータ) (2024-09-17T02:36:10Z) - Speaking the Language of Your Listener: Audience-Aware Adaptation via
Plug-and-Play Theory of Mind [4.052000839878213]
我々は、より限られた視覚的・言語的経験を持つ、知識のある話者と聞き手の間の視覚的接地型参照ゲームをモデル化する。
我々は,提案する話者に対して,聴取者の視点から予測された発話の有効性をモニタするシミュレーションモジュールを用いて,参照表現を適応する能力を与える。
論文 参考訳(メタデータ) (2023-05-31T15:17:28Z) - Unsupervised Improvement of Factual Knowledge in Language Models [4.5788796239850225]
マスケッド言語モデリングは、大規模言語モデルの事前訓練において重要な役割を果たす。
本稿では,様々な知識集約型タスクにおいて,言語モデルの性能を向上させる方法として,事前学習に影響を与えるアプローチを提案する。
論文 参考訳(メタデータ) (2023-04-04T07:37:06Z) - Communication Drives the Emergence of Language Universals in Neural
Agents: Evidence from the Word-order/Case-marking Trade-off [3.631024220680066]
ニューラルエージェント言語学習通信フレームワーク(NeLLCom)を提案する。
我々はエージェントに特定のバイアスをハードコーディングすることなく、新しいフレームワークでトレードオフを複製することに成功しました。
論文 参考訳(メタデータ) (2023-01-30T17:22:33Z) - Improving Policy Learning via Language Dynamics Distillation [87.27583619910338]
本稿では,言語記述による実演を前提とした環境動態予測モデルであるLanguage Dynamics Distillation(LDD)を提案する。
実演における言語記述は,環境全体にわたるサンプル効率と一般化を改善することを示す。
論文 参考訳(メタデータ) (2022-09-30T19:56:04Z) - Inner Monologue: Embodied Reasoning through Planning with Language
Models [81.07216635735571]
大規模言語モデル(LLM)は自然言語処理以外の領域に適用できる。
具体化された環境でのLLMの計画には、何をすべきかだけでなく、どのように、いつ行うべきかを考える必要がある。
環境フィードバックを活用することで、LLMはロボット制御シナリオにおいてよりリッチな処理と計画を行うことができる内部モノローグを形成することができる。
論文 参考訳(メタデータ) (2022-07-12T15:20:48Z) - Towards Language Modelling in the Speech Domain Using Sub-word
Linguistic Units [56.52704348773307]
音節や音素を含む言語単位に基づくLSTMに基づく新しい生成音声LMを提案する。
限られたデータセットでは、現代の生成モデルで要求されるものよりも桁違いに小さいので、我々のモデルはバブリング音声を近似する。
補助的なテキストLM,マルチタスク学習目標,補助的な調音特徴を用いた訓練の効果を示す。
論文 参考訳(メタデータ) (2021-10-31T22:48:30Z) - Few-shot Language Coordination by Modeling Theory of Mind [95.54446989205117]
我々は、数ショット$textit language coordinate$のタスクについて研究する。
リードエージェントは、言語能力の異なるエージェントの$textitpopulation$と調整する必要があります。
これは、人間のコミュニケーションの重要な構成要素であるパートナーの信念をモデル化する能力を必要とする。
論文 参考訳(メタデータ) (2021-07-12T19:26:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。