論文の概要: Simulating the Emergence of Differential Case Marking with Communicating Neural-Network Agents
- arxiv url: http://arxiv.org/abs/2502.04038v1
- Date: Thu, 06 Feb 2025 13:00:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-07 14:33:03.536950
- Title: Simulating the Emergence of Differential Case Marking with Communicating Neural-Network Agents
- Title(参考訳): ニューラルネットワークエージェントを用いた識別ケースマーキングの創発のシミュレーション
- Authors: Yuchen Lian, Arianna Bisazza, Tessa Verhoef,
- Abstract要約: ディファレンシャル・ケースマーキング(英: Differential Case Marking、DCM)は、文法的ケースマーキングが意味、実用的、その他の要因に基づいて選択的に適用される現象である。
本研究では, エージェントがまず人工言語を習得し, コミュニケーションを行うための枠組みを提案する。
言語やセマンティックな嗜好を事前に経験していない,非常に汎用的なコミュニケーション最適化アルゴリズムとニューラルネットワーク学習者を用いて,学習だけではDCMに結びつかないことを示す。
- 参考スコア(独自算出の注目度): 2.184775414778289
- License:
- Abstract: Differential Case Marking (DCM) refers to the phenomenon where grammatical case marking is applied selectively based on semantic, pragmatic, or other factors. The emergence of DCM has been studied in artificial language learning experiments with human participants, which were specifically aimed at disentangling the effects of learning from those of communication (Smith & Culbertson, 2020). Multi-agent reinforcement learning frameworks based on neural networks have gained significant interest to simulate the emergence of human-like linguistic phenomena. In this study, we employ such a framework in which agents first acquire an artificial language before engaging in communicative interactions, enabling direct comparisons to human result. Using a very generic communication optimization algorithm and neural-network learners that have no prior experience with language or semantic preferences, our results demonstrate that learning alone does not lead to DCM, but when agents communicate, differential use of markers arises. This supports Smith and Culbertson (2020)'s findings that highlight the critical role of communication in shaping DCM and showcases the potential of neural-agent models to complement experimental research on language evolution.
- Abstract(参考訳): ディファレンシャル・ケースマーキング(英: Differential Case Marking、DCM)とは、文法的ケースマーキングが意味、実用的、その他の要因に基づいて選択的に適用される現象である。
DCMの出現は、人間の参加者による人工言語学習実験において研究されており、コミュニケーションから学習の効果を遠ざけることを目的としている(Smith & Culbertson, 2020)。
ニューラルネットワークに基づく多エージェント強化学習フレームワークは、人間の言語現象の出現をシミュレートするために大きな関心を集めている。
本研究では, エージェントがまず人工言語を習得し, コミュニケーションに携わる上で, 人的結果と直接比較できる枠組みを用いる。
言語やセマンティックな嗜好を事前に経験していない,非常に汎用的なコミュニケーション最適化アルゴリズムとニューラルネットワーク学習者を用いて,学習だけがDCMに結びつくのではなく,エージェントが通信する場合,マーカーの差分利用が発生することを示す。
これはSmith and Culbertson (2020) の発見を支持し、DCMを形成する際のコミュニケーションの重要な役割を強調し、言語進化に関する実験的研究を補完する神経エージェントモデルの可能性を示している。
関連論文リスト
- Developmental Predictive Coding Model for Early Infancy Mono and Bilingual Vocal Continual Learning [69.8008228833895]
本稿では,連続学習機構を備えた小型生成ニューラルネットワークを提案する。
我々のモデルは解釈可能性を重視し,オンライン学習の利点を実証する。
論文 参考訳(メタデータ) (2024-12-23T10:23:47Z) - NeLLCom-X: A Comprehensive Neural-Agent Framework to Simulate Language Learning and Group Communication [2.184775414778289]
最近導入されたNeLLComフレームワークにより、エージェントはまず人工言語を学習し、次にそれを通信に使用することができる。
より現実的な役割交代エージェントとグループコミュニケーションを導入することで、このフレームワークを拡張します。
論文 参考訳(メタデータ) (2024-07-19T03:03:21Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
社会実践, 一貫性, 動的発達という, 心理学に根ざした個性の原則を統合したPersLLMを提案する。
モデルパラメータに直接パーソナリティ特性を組み込み、誘導に対するモデルの抵抗性を高め、一貫性を高め、パーソナリティの動的進化を支援する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - Brain-Like Language Processing via a Shallow Untrained Multihead Attention Network [16.317199232071232]
大規模言語モデル(LLM)は、人間の言語システムの効果的なモデルであることが示されている。
本研究では、未学習モデルの驚くほどのアライメントを駆動する重要なアーキテクチャコンポーネントについて検討する。
論文 参考訳(メタデータ) (2024-06-21T12:54:03Z) - Learning and communication pressures in neural networks: Lessons from emergent communication [5.371337604556311]
ニューラルエージェントの言語行動と人間とのミスマッチが解決された3症例について検討した。
我々は、コミュニケーションの成功、生産努力、学習可能性、その他の心理・社会言語学的要因といった、言語学習と台頭のための重要なプレッシャーを識別する。
論文 参考訳(メタデータ) (2024-03-21T14:33:34Z) - Language Generation from Brain Recordings [68.97414452707103]
本稿では,大言語モデルと意味脳デコーダの容量を利用した生成言語BCIを提案する。
提案モデルでは,視覚的・聴覚的言語刺激のセマンティック内容に整合したコヒーレントな言語系列を生成することができる。
本研究は,直接言語生成におけるBCIの活用の可能性と可能性を示すものである。
論文 参考訳(メタデータ) (2023-11-16T13:37:21Z) - Communication Drives the Emergence of Language Universals in Neural
Agents: Evidence from the Word-order/Case-marking Trade-off [3.631024220680066]
ニューラルエージェント言語学習通信フレームワーク(NeLLCom)を提案する。
我々はエージェントに特定のバイアスをハードコーディングすることなく、新しいフレームワークでトレードオフを複製することに成功しました。
論文 参考訳(メタデータ) (2023-01-30T17:22:33Z) - Channel-aware Decoupling Network for Multi-turn Dialogue Comprehension [81.47133615169203]
本稿では,PrLMの逐次文脈化を超えて,発話間の包括的相互作用のための合成学習を提案する。
私たちは、モデルが対話ドメインに適応するのを助けるために、ドメイン適応型トレーニング戦略を採用しています。
実験の結果,提案手法は4つの公開ベンチマークデータセットにおいて,強力なPrLMベースラインを著しく向上させることがわかった。
論文 参考訳(メタデータ) (2023-01-10T13:18:25Z) - Mechanisms for Handling Nested Dependencies in Neural-Network Language
Models and Humans [75.15855405318855]
我々は,「深層学習」手法で訓練された現代人工ニューラルネットワークが,人間の文処理の中心的な側面を模倣するかどうかを検討した。
ネットワークは、大きなコーパスで次の単語を予測するためにのみ訓練されたが、分析の結果、局所的および長距離の構文合意をうまく処理する特別なユニットが出現した。
我々は,複数の名詞の単数/複数状態における体系的な変化を伴う文中の数一致の違反を人間が検出する行動実験において,モデルの予測を検証した。
論文 参考訳(メタデータ) (2020-06-19T12:00:05Z) - On the interaction between supervision and self-play in emergent
communication [82.290338507106]
本研究は,2つのカテゴリの学習信号と,サンプル効率の向上を目標とする学習信号の関係について検討する。
人間のデータに基づく教師付き学習による初等訓練エージェントが,自己演奏が会話に優れていることが判明した。
論文 参考訳(メタデータ) (2020-02-04T02:35:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。