論文の概要: Re-conceptualising the Language Game Paradigm in the Framework of
Multi-Agent Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2004.04722v1
- Date: Thu, 9 Apr 2020 17:55:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 01:53:04.071567
- Title: Re-conceptualising the Language Game Paradigm in the Framework of
Multi-Agent Reinforcement Learning
- Title(参考訳): マルチエージェント強化学習フレームワークにおける言語ゲームパラダイムの再概念化
- Authors: Paul Van Eecke (1 and 2), Katrien Beuls (1) ((1) Artificial
Intelligence Laboratory, Vrije Universiteit Brussel, Brussels, Belgium, (2)
ITEC, imec research group at KU Leuven, Kortrijk, Belgium)
- Abstract要約: マルチエージェント強化学習(MARL)の枠組みにおける言語ゲーム実験パラダイムの再概念化
もし成功すれば、将来の言語ゲーム実験は、MARLコミュニティの迅速かつ有望な方法論的進歩の恩恵を受けるだろう。
我々は、このクロスポリン化が、マルチエージェントシステムにおいて、人間のような言語がどのように出現し進化するかのモデリングにおいて、大きなブレークスルーをもたらす可能性があると強く信じている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we formulate the challenge of re-conceptualising the language
game experimental paradigm in the framework of multi-agent reinforcement
learning (MARL). If successful, future language game experiments will benefit
from the rapid and promising methodological advances in the MARL community,
while future MARL experiments on learning emergent communication will benefit
from the insights and results gained from language game experiments. We
strongly believe that this cross-pollination has the potential to lead to major
breakthroughs in the modelling of how human-like languages can emerge and
evolve in multi-agent systems.
- Abstract(参考訳): 本稿では,マルチエージェント強化学習(MARL)の枠組みにおいて,言語ゲーム実験パラダイムの再概念化の課題を定式化する。
もし成功したら、将来の言語ゲーム実験は、MARLコミュニティの迅速かつ有望な方法論的進歩の恩恵を受けるだろう。
このクロスポリン化は、マルチエージェントシステムにおいて、人間のような言語がどのように出現し進化するかのモデリングにおいて、大きなブレークスルーをもたらす可能性があると強く信じている。
関連論文リスト
- MoE-CT: A Novel Approach For Large Language Models Training With Resistance To Catastrophic Forgetting [53.77590764277568]
ベースモデルの学習を多言語拡張プロセスから分離する新しいMoE-CTアーキテクチャを提案する。
我々の設計では、元のLLMパラメータを凍結し、高リソース言語のパフォーマンスを保護しますが、様々な言語データセットに基づいてトレーニングされたMoEモジュールは、低リソース言語の習熟度を向上します。
論文 参考訳(メタデータ) (2024-06-25T11:03:45Z) - A Survey on Large Language Models with Multilingualism: Recent Advances and New Frontiers [48.314619377988436]
LLM(Large Language Models)の急速な開発は、自然言語処理における顕著な多言語機能を示している。
LLMのブレークスルーにもかかわらず、多言語シナリオの研究は依然として不十分である。
本調査は,多言語問題に対する研究コミュニティの取り組みを支援することを目的としており,LLMに基づく多言語自然言語処理における中核概念,鍵技術,最新の発展の包括的理解を提供する。
論文 参考訳(メタデータ) (2024-05-17T17:47:39Z) - Language-Specific Neurons: The Key to Multilingual Capabilities in Large Language Models [117.20416338476856]
大規模言語モデル(LLM)は、特別にキュレートされた多言語並列コーパスで事前訓練されることなく、顕著な多言語機能を示す。
LLM内の言語特異的ニューロンを識別するための新しい検出手法である言語アクティベーション確率エントロピー(LAPE)を提案する。
以上の結果から,LLMが特定の言語を処理できる能力は,神経細胞のサブセットが少なすぎるためであることが示唆された。
論文 参考訳(メタデータ) (2024-02-26T09:36:05Z) - Let Models Speak Ciphers: Multiagent Debate through Embeddings [84.20336971784495]
この問題を解決するためにCIPHER(Communicative Inter-Model Protocol Through Embedding Representation)を導入する。
自然言語から逸脱することで、CIPHERはモデルの重みを変更することなく、より広い範囲の情報を符号化する利点を提供する。
このことは、LLM間の通信における代替の"言語"としての埋め込みの優越性と堅牢性を示している。
論文 参考訳(メタデータ) (2023-10-10T03:06:38Z) - Improving Factuality and Reasoning in Language Models through Multiagent
Debate [95.10641301155232]
複数の言語モデルインスタンスが共通の最終回答に到達するために、複数のラウンドで個別の応答と推論プロセスを提案し、議論する言語応答を改善するための補完的なアプローチを提案する。
以上の結果から,本手法は様々なタスクにおける数学的・戦略的推論を著しく向上させることが示唆された。
我々のアプローチは、既存のブラックボックスモデルに直接適用され、調査するすべてのタスクに対して、同じ手順とプロンプトを使用することができる。
論文 参考訳(メタデータ) (2023-05-23T17:55:11Z) - On the cross-lingual transferability of multilingual prototypical models
across NLU tasks [2.44288434255221]
教師付きディープラーニングベースのアプローチはタスク指向のダイアログに適用され、限られたドメインや言語アプリケーションに有効であることが証明されている。
実際には、これらのアプローチはドメイン駆動設計とアンダーリソース言語の欠点に悩まされている。
本稿では,原型ニューラルネットワークと多言語トランスフォーマーモデルを用いた相乗的少数ショット学習の言語間変換可能性について検討する。
論文 参考訳(メタデータ) (2022-07-19T09:55:04Z) - Cross-lingual Lifelong Learning [53.06904052325966]
本稿では,言語間連続学習(CCL)の評価パラダイムを提案する。
マルチリンガルなシーケンシャルな学習を特に難しいものにするための洞察を提供する。
この分析の意味は、異なる言語間連続学習のデシダータを測り、バランスをとる方法のレシピを含む。
論文 参考訳(メタデータ) (2022-05-23T09:25:43Z) - Overcoming Language Disparity in Online Content Classification with
Multimodal Learning [22.73281502531998]
大規模言語モデルは、テキスト検出と分類タスクのための最先端のソリューションを開発するための標準となっている。
高度な計算技術と資源の開発は、英語に不相応に焦点が当てられている。
マルチモーダル機械学習を用いて画像に含まれる情報を統合するという約束を探求する。
論文 参考訳(メタデータ) (2022-05-19T17:56:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。