論文の概要: Position: Model Collapse Does Not Mean What You Think
- arxiv url: http://arxiv.org/abs/2503.03150v2
- Date: Tue, 18 Mar 2025 03:48:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-19 14:13:47.567697
- Title: Position: Model Collapse Does Not Mean What You Think
- Title(参考訳): モデル崩壊は、あなたが考えるものではありません
- Authors: Rylan Schaeffer, Joshua Kazdan, Alvan Caleb Arulandu, Sanmi Koyejo,
- Abstract要約: モデル崩壊の研究は、実際には8つの異なるモデル崩壊の定義に矛盾することがあると論じる。
モデル崩壊の予測された主張は、現実の条件に合わない仮定や条件に依存すると結論付けている。
- 参考スコア(独自算出の注目度): 14.623741848860037
- License:
- Abstract: The proliferation of AI-generated content online has fueled concerns over \emph{model collapse}, a degradation in future generative models' performance when trained on synthetic data generated by earlier models. Industry leaders, premier research journals and popular science publications alike have prophesied catastrophic societal consequences stemming from model collapse. In this position piece, we contend this widespread narrative fundamentally misunderstands the scientific evidence. We highlight that research on model collapse actually encompasses eight distinct and at times conflicting definitions of model collapse, and argue that inconsistent terminology within and between papers has hindered building a comprehensive understanding of model collapse. To assess how significantly different interpretations of model collapse threaten future generative models, we posit what we believe are realistic conditions for studying model collapse and then conduct a rigorous assessment of the literature's methodologies through this lens. While we leave room for reasonable disagreement, our analysis of research studies, weighted by how faithfully each study matches real-world conditions, leads us to conclude that certain predicted claims of model collapse rely on assumptions and conditions that poorly match real-world conditions, and in fact several prominent collapse scenarios are readily avoidable. Altogether, this position paper argues that model collapse has been warped from a nuanced multifaceted consideration into an oversimplified threat, and that the evidence suggests specific harms more likely under society's current trajectory have received disproportionately less attention.
- Abstract(参考訳): オンラインのAI生成コンテンツの拡散は、以前のモデルによって生成された合成データに基づいてトレーニングされた場合、将来の生成モデルのパフォーマンスが低下する、‘emph{model collapse}’という懸念を喚起した。
業界リーダー、主要な研究雑誌、大衆科学出版物も、モデル崩壊に起因する破滅的な社会的な結果を予言している。
本稿では、この広範な物語が科学的証拠を根本的に誤解していると論じる。
モデル崩壊に関する研究は8つの異なる定義を実際に含み、時にはモデル崩壊の定義に矛盾するものであることを強調し、論文内および論文間の矛盾した用語が、モデル崩壊に関する包括的理解の構築を妨げると主張している。
モデル崩壊の解釈がいかにして将来の生成モデルを脅かすかを評価するため、我々はモデル崩壊を研究するための現実的な条件であると信じ、このレンズを通して文学の方法論を厳密に評価する。
我々は合理的な意見の相違の余地を残しているが、我々の研究分析は、各研究が現実世界の条件にどの程度忠実に一致するかによって重み付けされ、ある予測されたモデル崩壊の主張は、現実の条件に合わない仮定や条件に依存しており、実際にいくつかの顕著な崩壊シナリオは容易に避けられると結論付けている。
さらに、このポジションペーパーは、モデル崩壊は、過度に単純化された脅威への、微妙な多面的考慮から警告されたものであり、この証拠は、社会の現在の軌道下での特定の害よりも、不当に少ない注意を払われたことを示唆していると主張している。
関連論文リスト
- Causality can systematically address the monsters under the bench(marks) [64.36592889550431]
ベンチマークはさまざまなバイアス、アーティファクト、リークに悩まされている。
モデルは、調査の不十分な障害モードのため、信頼できない振る舞いをする可能性がある。
因果関係はこれらの課題を体系的に解決するための 理想的な枠組みを提供します
論文 参考訳(メタデータ) (2025-02-07T17:01:37Z) - Reply to "Comment on 'Experimentally adjudicating between different causal accounts of Bell-inequality violations via statistical model selection'" [0.0]
Hance と Hossenfelder はコメントの中で、超決定論的モデルの目的を誤って表現したと主張している。
本稿で定義した超決定論的モデルの異なるクラスと、これらのどれが実験結果に嫌われているのかという結論を思い出すことで、この主張に異議を唱える。
論文 参考訳(メタデータ) (2024-12-03T20:47:47Z) - Bias Amplification: Large Language Models as Increasingly Biased Media [12.376194654498383]
大規模言語モデル(LLM)における既存社会バイアスの進行的強化について検討する。
右利きバイアスは徐々に増大している。
機械学的解釈は、モデル崩壊とバイアス増幅の原因となるニューロンの異なる集合を識別し、それらが異なる基盤機構から生じることを示唆している。
論文 参考訳(メタデータ) (2024-10-19T22:53:27Z) - Super(ficial)-alignment: Strong Models May Deceive Weak Models in Weak-to-Strong Generalization [68.62228569439478]
弱い着想の問題が存在するかどうかを考察する。
弱いモデルと強いモデルの間の能力ギャップが増大するにつれて、偽造は増大する。
私たちの研究は、スーパーアライメントの真の信頼性にもっと注意を払う必要があることを強調します。
論文 参考訳(メタデータ) (2024-06-17T11:36:39Z) - How Bad is Training on Synthetic Data? A Statistical Analysis of Language Model Collapse [9.59833542807268]
モデル崩壊は、以前に訓練されたモデルから生成された合成データに基づいて新しいモデルが訓練されたときに起こる。
合成データのみを用いたトレーニングでは,モデル崩壊は回避できないことを示す。
モデル崩壊を回避できる合成データの最大量を推定する。
論文 参考訳(メタデータ) (2024-04-07T22:15:13Z) - Is Model Collapse Inevitable? Breaking the Curse of Recursion by Accumulating Real and Synthetic Data [49.73114504515852]
各世代の合成データによって元の実データを置き換えることは、モデル崩壊の傾向にあることを示す。
生成した実データと連続する合成データの蓄積は,モデル崩壊を回避することを実証する。
論文 参考訳(メタデータ) (2024-04-01T18:31:24Z) - Model Collapse Demystified: The Case of Regression [12.115359951879462]
大規模言語や画像生成モデルの普及期における「モデル崩壊」現象について検討する。
我々は、この現象を幅広い状況で定量的に概説する分析式を得る。
モデル崩壊を緩和する適応正則化に基づく簡単な戦略を提案する。
論文 参考訳(メタデータ) (2024-02-12T15:26:01Z) - The Essential Role of Causality in Foundation World Models for Embodied AI [102.75402420915965]
身体的なAIエージェントは、さまざまな現実世界環境で新しいタスクを実行する能力を必要とします。
現在の基礎モデルは物理的相互作用を正確にモデル化することができないため、Embodied AIには不十分である。
因果関係の研究は、検証世界モデルの構築に寄与する。
論文 参考訳(メタデータ) (2024-02-06T17:15:33Z) - Achieving Counterfactual Fairness with Imperfect Structural Causal Model [11.108866104714627]
対実フェアネスのためのミニマックスゲーム理論モデルを提案する。
また,提案したミニマックスモデルの誤差境界を理論的に証明する。
複数の実世界のデータセットに関する実証実験は、正確性と公正性の両方において、私たちの優れたパフォーマンスを示しています。
論文 参考訳(メタデータ) (2023-03-26T09:37:29Z) - Fairness Increases Adversarial Vulnerability [50.90773979394264]
フェアネスとロバストネスの間に二分法が存在することを示し、フェアネスを達成するとモデルロバストネスを減少させる。
非線形モデルと異なるアーキテクチャの実験は、複数の視覚領域における理論的発見を検証する。
フェアネスとロバストネスの良好なトレードオフを達成するためのモデルを構築するための,シンプルで効果的なソリューションを提案する。
論文 参考訳(メタデータ) (2022-11-21T19:55:35Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。