論文の概要: Searching for the Most Human-like Emergent Language
- arxiv url: http://arxiv.org/abs/2510.03467v1
- Date: Fri, 03 Oct 2025 19:45:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.058067
- Title: Searching for the Most Human-like Emergent Language
- Title(参考訳): 最も人間らしい創発的言語を探す
- Authors: Brendon Boldt, David Mortensen,
- Abstract要約: 我々は、人間の言語と類似性の観点から、最先端の創発言語を生成する。
XferBenchは、人間の言語へのディープラーニング学習の適性を測定する。
- 参考スコア(独自算出の注目度): 2.1700203922407497
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we design a signalling game-based emergent communication environment to generate state-of-the-art emergent languages in terms of similarity to human language. This is done with hyperparameter optimization, using XferBench as the objective function. XferBench quantifies the statistical similarity of emergent language to human language by measuring its suitability for deep transfer learning to human language. Additionally, we demonstrate the predictive power of entropy on the transfer learning performance of emergent language as well as corroborate previous results on the entropy-minimization properties of emergent communication systems. Finally, we report generalizations regarding what hyperparameters produce more realistic emergent languages, that is, ones which transfer better to human language.
- Abstract(参考訳): 本稿では,人間の言語との類似性から最先端の創発的言語を生成するための,シグナリングゲームに基づく創発的コミュニケーション環境を設計する。
これは、XferBenchを目的関数として用いたハイパーパラメータ最適化によって実現される。
XferBenchは、人間の言語への深い翻訳学習の適性を測定することによって、創発言語と人間の言語との統計的類似性を定量化する。
さらに,創発的言語の伝達学習性能に対するエントロピーの予測力と,創発的通信システムのエントロピー最小化特性に関する先行結果の相関性を示す。
最後に、ハイパーパラメーターがより現実的な創発的言語、つまり、人間の言語により良く移行する言語を生成するものについて、一般化を報告する。
関連論文リスト
- Investigating and Scaling up Code-Switching for Multilingual Language Model Pre-Training [58.696660064190475]
コンテクスト内の異なる言語間を交互に交換するコードスイッチの存在が、多言語機能の鍵であることに気付きました。
事前学習における言語アライメントのためのコードスイッチングのパワーをよりよく探求するために,合成コードスイッチングの戦略について検討する。
論文 参考訳(メタデータ) (2025-04-02T15:09:58Z) - Searching for Structure: Investigating Emergent Communication with Large Language Models [0.10923877073891446]
我々は,大規模言語モデルが人工言語を学習し,使用する古典的参照ゲームについてシミュレートする。
この結果から, 当初構造化されていない全体言語は, 2つのLLMエージェントが正常に通信できるような構造的特性を持つことが明らかとなった。
論文 参考訳(メタデータ) (2024-12-10T16:32:19Z) - Learning and communication pressures in neural networks: Lessons from emergent communication [5.371337604556311]
ニューラルエージェントの言語行動と人間とのミスマッチが解決された3症例について検討した。
我々は、コミュニケーションの成功、生産努力、学習可能性、その他の心理・社会言語学的要因といった、言語学習と台頭のための重要なプレッシャーを識別する。
論文 参考訳(メタデータ) (2024-03-21T14:33:34Z) - Soft Language Clustering for Multilingual Model Pre-training [57.18058739931463]
本稿では,インスタンスを条件付きで符号化するためのフレキシブルガイダンスとして,コンテキスト的にプロンプトを検索するXLM-Pを提案する。
我々のXLM-Pは、(1)言語間における言語不変および言語固有知識の軽量なモデリングを可能にし、(2)他の多言語事前学習手法との容易な統合を可能にする。
論文 参考訳(メタデータ) (2023-06-13T08:08:08Z) - Linking Emergent and Natural Languages via Corpus Transfer [98.98724497178247]
創発言語と自然言語のコーパス転送によるリンクを確立する新しい方法を提案する。
このアプローチでは,言語モデリングとイメージキャプションという,2つの異なるタスクに対して,非自明な転送メリットを示す。
また,同一画像に基づく自然言語キャプションに創発的メッセージを翻訳することで,創発的言語の伝達可能性を予測する新しい指標を提案する。
論文 参考訳(メタデータ) (2022-03-24T21:24:54Z) - Towards Zero-shot Language Modeling [90.80124496312274]
人間の言語学習に誘導的に偏りを持つニューラルモデルを構築した。
類型的に多様な訓練言語のサンプルからこの分布を推測する。
我々は、保留言語に対する遠隔監視として、追加の言語固有の側情報を利用する。
論文 参考訳(メタデータ) (2021-08-06T23:49:18Z) - Emergent Communication Pretraining for Few-Shot Machine Translation [66.48990742411033]
我々は、参照ゲームからの創発的コミュニケーションを介してニューラルネットワークを事前訓練する。
私たちの重要な前提は、実世界の環境の粗悪な近似として、画像に基づくコミュニケーションを基盤にすることで、帰納的に自然言語学習のモデルに偏りが生じる、ということです。
論文 参考訳(メタデータ) (2020-11-02T10:57:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。