論文の概要: Dynamics of Human-AI Collective Knowledge on the Web: A Scalable Model and Insights for Sustainable Growth
- arxiv url: http://arxiv.org/abs/2601.20099v1
- Date: Tue, 27 Jan 2026 22:36:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-29 15:46:06.683256
- Title: Dynamics of Human-AI Collective Knowledge on the Web: A Scalable Model and Insights for Sustainable Growth
- Title(参考訳): Web上の人間-AI集合的知識のダイナミクス: スケーラブルなモデルと持続可能な成長への展望
- Authors: Buddhika Nettasinghe, Kang Zhao,
- Abstract要約: 人間と大規模言語モデル(LLM)は、ウェブの共有知識アーカイブを共同制作し、共同構築する。
本稿では,アーカイブサイズ,アーカイブ品質,モデル(LLM)スキル,人的スキル,クエリボリュームの共進化の最小限の動的モデルを提案する。
- 参考スコア(独自算出の注目度): 4.1535473744557905
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Humans and large language models (LLMs) now co-produce and co-consume the web's shared knowledge archives. Such human-AI collective knowledge ecosystems contain feedback loops with both benefits (e.g., faster growth, easier learning) and systemic risks (e.g., quality dilution, skill reduction, model collapse). To understand such phenomena, we propose a minimal, interpretable dynamical model of the co-evolution of archive size, archive quality, model (LLM) skill, aggregate human skill, and query volume. The model captures two content inflows (human, LLM) controlled by a gate on LLM-content admissions, two learning pathways for humans (archive study vs. LLM assistance), and two LLM-training modalities (corpus-driven scaling vs. learning from human feedback). Through numerical experiments, we identify different growth regimes (e.g., healthy growth, inverted flow, inverted learning, oscillations), and show how platform and policy levers (gate strictness, LLM training, human learning pathways) shift the system across regime boundaries. Two domain configurations (PubMed, GitHub and Copilot) illustrate contrasting steady states under different growth rates and moderation norms. We also fit the model to Wikipedia's knowledge flow during pre-ChatGPT and post-ChatGPT eras separately. We find a rise in LLM additions with a concurrent decline in human inflow, consistent with a regime identified by the model. Our model and analysis yield actionable insights for sustainable growth of human-AI collective knowledge on the Web.
- Abstract(参考訳): 人間と大規模言語モデル(LLM)は、ウェブの共有知識アーカイブを共同制作し、共同構築する。
このようなAIの集合的知識エコシステムには、フィードバックループ(例えば、成長速度の向上、学習の容易化)とシステム的リスク(例えば、品質の希釈、スキルの縮小、モデルの崩壊)の両方がある。
このような現象を理解するために,アーカイブサイズ,アーカイブ品質,モデル(LLM)スキル,人的スキルの集約,クエリボリュームの共進化の最小限の動的モデルを提案する。
このモデルは、LLMの入場口で制御される2つのコンテンツインフロー(人間、LLM)と、LLMの学習経路(アーキテクチャ研究対LLM援助)と、2つのLLM学習モード(企業主導のスケーリング対人間のフィードバックからの学習)をキャプチャする。
数値実験により, 異なる成長体制(例えば, 健全な成長, 逆流, 逆流, 逆学習, 振動)を同定し, プラットフォームと政策レバー(ゲート厳密性, LLM トレーニング, ヒューマンラーニングパス)が, 制度の境界を越えてシステムをどのようにシフトするかを示す。
2つのドメイン構成(PubMed、GitHub、Copilot)は、異なる成長率とモデレーション規範の下での安定した状態の対比を示している。
また,前ChatGPT時代と後ChatGPT時代のウィキペディアの知識フローを別々に比較した。
ヒトの流入が同時に減少するLLM付加物の増加は、モデルによって同定された体制と一致している。
我々のモデルと分析は、Web上での人間とAIの集合的知識の持続的な成長に有効な洞察をもたらす。
関連論文リスト
- TimeHC-RL: Temporal-aware Hierarchical Cognitive Reinforcement Learning for Enhancing LLMs' Social Intelligence [62.21106561772784]
時空間認識型階層型認知強化学習(TimeHC-RL)を導入し,大規模言語モデルの社会的知性を高める。
実験の結果, 広く採用されているSystem 2 RL法と比較して, 提案したTimeHC-RL法の方が優れていることがわかった。
7Bのバックボーンモデルウィングが提供され、DeepSeek-R1やOpenAI-O3といった高度なモデルのパフォーマンスに匹敵する。
論文 参考訳(メタデータ) (2025-05-30T12:01:06Z) - From Tokens to Thoughts: How LLMs and Humans Trade Compression for Meaning [63.25540801694765]
大きな言語モデル (LLMs) は言語能力を示すが、同じバランスをとれるかどうかは不明だ。
本稿では,LLMと人間を定量的に比較するために,Information Bottleneckの原理を適用した。
論文 参考訳(メタデータ) (2025-05-21T16:29:00Z) - If an LLM Were a Character, Would It Know Its Own Story? Evaluating Lifelong Learning in LLMs [55.8331366739144]
大規模言語モデル(LLM)における生涯学習評価のためのベンチマークであるLIFESTATE-BENCHを紹介する。
我々の事実チェック評価は、パラメトリックと非パラメトリックの両方のアプローチで、モデルの自己認識、エピソードメモリ検索、関係追跡を探索する。
論文 参考訳(メタデータ) (2025-03-30T16:50:57Z) - Refine Knowledge of Large Language Models via Adaptive Contrastive Learning [54.61213933999464]
方法の主流は、大規模言語モデルの知識表現を最適化することで幻覚を減らすことである。
知識を精錬するモデルのプロセスは、人間の学習方法から大きな恩恵を受けることができると私たちは信じています。
人間の学習過程を模倣することで,適応的コントラスト学習戦略を設計する。
論文 参考訳(メタデータ) (2025-02-11T02:19:13Z) - One fish, two fish, but not the whole sea: Alignment reduces language models' conceptual diversity [2.5975241792179378]
研究者は大規模言語モデル(LLM)を人間の行動研究の代替として使用することを提案した。
トレーニング後のアライメント(RLHFまたはRLAIF)がモデルの内部多様性に影響を及ぼすかどうかが議論されている。
我々は、シミュレーションされた個体の内部変動と集団レベルの変動を関連づけることで、合成合成LLMの「人口」の概念的多様性を測定する新しい方法を用いる。
論文 参考訳(メタデータ) (2024-11-07T04:38:58Z) - Long Term Memory: The Foundation of AI Self-Evolution [48.39506286931116]
GPTのような大規模な言語モデル(LLM)は、膨大なデータセットに基づいてトレーニングされており、言語理解、推論、計画において印象的な能力を示している。
ほとんどの研究は、より強力な基盤モデルを構築するために、より大規模なデータセットをトレーニングすることで、これらのモデルを強化することに重点を置いている。
大規模なトレーニングとは異なり、推論中にモデルを進化させることは、AIの自己進化(self-evolution)と呼ばれるプロセスと同等に重要である。
論文 参考訳(メタデータ) (2024-10-21T06:09:30Z) - A Survey on Self-Evolution of Large Language Models [116.54238664264928]
大規模言語モデル(LLM)は、様々な分野やインテリジェントエージェントアプリケーションにおいて大きく進歩している。
この問題に対処するために、LLMが自律的に獲得し、洗練し、モデル自身によって生成された経験から学ぶことができる自己進化的アプローチが急速に成長している。
論文 参考訳(メタデータ) (2024-04-22T17:43:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。