論文の概要: Language Games as the Pathway to Artificial Superhuman Intelligence
- arxiv url: http://arxiv.org/abs/2501.18924v1
- Date: Fri, 31 Jan 2025 07:10:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-03 14:03:13.158961
- Title: Language Games as the Pathway to Artificial Superhuman Intelligence
- Title(参考訳): 人工超人的知能の道としての言語ゲーム
- Authors: Ying Wen, Ziyu Wan, Shao Zhang,
- Abstract要約: データ再生を拡大するための経路として,言語ゲームを提案する。
言語ゲームをグローバルな社会技術エコシステムにスケールすることで、人間とAIの共進化は超人的なデータストリームを生成する。
- 参考スコア(独自算出の注目度): 16.037232801828843
- License:
- Abstract: The evolution of large language models (LLMs) toward artificial superhuman intelligence (ASI) hinges on data reproduction, a cyclical process in which models generate, curate and retrain on novel data to refine capabilities. Current methods, however, risk getting stuck in a data reproduction trap: optimizing outputs within fixed human-generated distributions in a closed loop leads to stagnation, as models merely recombine existing knowledge rather than explore new frontiers. In this paper, we propose language games as a pathway to expanded data reproduction, breaking this cycle through three mechanisms: (1) \textit{role fluidity}, which enhances data diversity and coverage by enabling multi-agent systems to dynamically shift roles across tasks; (2) \textit{reward variety}, embedding multiple feedback criteria that can drive complex intelligent behaviors; and (3) \textit{rule plasticity}, iteratively evolving interaction constraints to foster learnability, thereby injecting continual novelty. By scaling language games into global sociotechnical ecosystems, human-AI co-evolution generates unbounded data streams that drive open-ended exploration. This framework redefines data reproduction not as a closed loop but as an engine for superhuman intelligence.
- Abstract(参考訳): 大規模言語モデル(LLM)から人工超人的知能(ASI)への進化は、新しいデータを生成し、キュレートし、再訓練するサイクルプロセスである。
しかし、現在の方法では、データ複製トラップで立ち往生するリスクがある: クローズドループで固定された人為的な分布内で出力を最適化することは、新しいフロンティアを探索するのではなく、単に既存の知識を再結合するだけであるため、停滞につながる。
本稿では,(1)マルチエージェントシステムによるタスク間の役割の動的シフトを可能にすることによるデータ多様性とカバレッジの向上,(2)複雑なインテリジェントな振る舞いを駆動できる複数のフィードバック基準を組み込むこと,(3)対話制約を反復的に進化させて学習性を高め,継続的ノベルティを注入すること,という3つのメカニズムを通じて,このサイクルを破る言語ゲームを提案する。
言語ゲームをグローバルな社会技術エコシステムにスケールすることで、人間とAIの共進化は、オープンエンド探索を促進する無制限のデータストリームを生成する。
このフレームワークは、データをクローズドループではなく、スーパーヒューマンインテリジェンスのエンジンとして再定義する。
関連論文リスト
- Text2Data: Low-Resource Data Generation with Textual Control [100.5970757736845]
Text2Dataは、ラベルのないデータを使って基盤となるデータ配布を理解する新しいアプローチである。
制御性を確保し、破滅的な忘れを効果的に防止する、制約最適化に基づく新たな学習目標を通じて微調整を行う。
論文 参考訳(メタデータ) (2024-02-08T03:41:39Z) - In-Context Language Learning: Architectures and Algorithms [73.93205821154605]
我々は、文脈言語学習(ICLL)において、私たちが用語する新しいモデル問題群(英語版)のレンズを通してICLを研究する。
我々は,通常のICLLタスクにおいて,多種多様なニューラルシーケンスモデルを評価する。
論文 参考訳(メタデータ) (2024-01-23T18:59:21Z) - PlayFusion: Skill Acquisition via Diffusion from Language-Annotated Play [47.052953955624886]
構造化されていない、未計算のデータから学ぶことは、言語とビジョンにおける生成的アプローチの主要なパラダイムとなっている。
本研究では,非構造化プレイデータからゴール指向スキルポリシーを学習する問題について検討する。
具体的には、拡散モデルの進歩を活用してマルチタスク拡散モデルを学び、プレイデータからロボットスキルを抽出する。
論文 参考訳(メタデータ) (2023-12-07T18:59:14Z) - Large Language Models for Information Retrieval: A Survey [58.30439850203101]
情報検索は、項ベースの手法から高度なニューラルモデルとの統合へと進化してきた。
近年の研究では、大規模言語モデル(LLM)を活用してIRシステムの改善が試みられている。
LLMとIRシステムの合流点を探索し、クエリリライト、リトリバー、リランカー、リーダーといった重要な側面を含む。
論文 参考訳(メタデータ) (2023-08-14T12:47:22Z) - Visual Chain of Thought: Bridging Logical Gaps with Multimodal
Infillings [61.04460792203266]
本稿では, 逐次データ内の論理的ギャップを埋めるために, 視覚言語による接地を促進させる, チェーン・オブ・シントを利用する新しい手法であるVCoTを紹介する。
本手法は,下流タスクの論理的ギャップを低減するために,一貫した情報と新しい情報を加える合成マルチモーダル埋め込みを生成するために視覚誘導を用いる。
論文 参考訳(メタデータ) (2023-05-03T17:58:29Z) - Towards Large-Scale Simulations of Open-Ended Evolution in Continuous
Cellular Automata [0.0]
並列計算フレームワーク JAX を用いた大規模進化シミュレーションを構築した。
遺伝子操作子を暗黙的に実装するなど、システム設計の選択肢を多数報告する。
オープンエンド進化を促進する要因をいくつか提案する。
論文 参考訳(メタデータ) (2023-04-12T06:40:11Z) - Deep Latent-Variable Models for Text Generation [7.119436003155924]
ディープニューラルネットワークベースのエンドツーエンドアーキテクチャが広く採用されている。
エンドツーエンドのアプローチは、以前は複雑な手作りのルールで設計されていたすべてのサブモジュールを、全体的なエンコード・デコードアーキテクチャに融合させる。
この論文は、テキスト生成のための標準エンコーダデコーダモデルよりも、潜伏変数の深いモデルがいかに改善できるかを示す。
論文 参考訳(メタデータ) (2022-03-03T23:06:39Z) - Cetacean Translation Initiative: a roadmap to deciphering the
communication of sperm whales [97.41394631426678]
最近の研究では、非ヒト種における音響コミュニケーションを分析するための機械学習ツールの約束を示した。
マッコウクジラの大量生物音響データの収集と処理に必要な重要な要素について概説する。
開発された技術能力は、非人間コミュニケーションと動物行動研究を研究する幅広いコミュニティにおいて、クロス応用と進歩をもたらす可能性が高い。
論文 参考訳(メタデータ) (2021-04-17T18:39:22Z) - Unsupervised Paraphrasing with Pretrained Language Models [85.03373221588707]
教師なし環境で,事前学習した言語モデルを用いて高品質なパラフレーズを生成する訓練パイプラインを提案する。
提案手法は,タスク適応,自己スーパービジョン,動的ブロッキング(Dynamic Blocking)という新しい復号アルゴリズムから構成される。
提案手法は,Quora Question PairとParaNMTの両方のデータセット上で,最先端の性能を達成できることを示す。
論文 参考訳(メタデータ) (2020-10-24T11:55:28Z) - Unnatural Language Processing: Bridging the Gap Between Synthetic and
Natural Language Data [37.542036032277466]
本稿では,言語理解問題における-simulation-to-real'転送手法を提案する。
我々のアプローチは、いくつかのドメインで自然言語データに基づいて訓練された最先端のモデルと一致または性能を向上する。
論文 参考訳(メタデータ) (2020-04-28T16:41:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。