論文の概要: Structure-Aware Diversity Pursuit as an AI Safety Strategy against Homogenization
- arxiv url: http://arxiv.org/abs/2601.06116v1
- Date: Sat, 03 Jan 2026 15:34:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.585307
- Title: Structure-Aware Diversity Pursuit as an AI Safety Strategy against Homogenization
- Title(参考訳): 均質化に対するAI安全戦略としての構造意識の多様性
- Authors: Ian Rios-Sialer,
- Abstract要約: 生成AIモデルは、トレーニングデータのバイアスを再現し、モード崩壊によってさらに増幅することができる。
均質化を緩和する戦略としてキセノ再生を導入する。
私たちの貢献は基礎的であり、研究の本質的なラインを開き、コラボレーションを招待することを目的としています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative AI models reproduce the biases in the training data and can further amplify them through mode collapse. We refer to the resulting harmful loss of diversity as homogenization. Our position is that homogenization should be a primary concern in AI safety. We introduce xeno-reproduction as the strategy that mitigates homogenization. For auto-regressive LLMs, we formalize xeno-reproduction as a structure-aware diversity pursuit. Our contribution is foundational, intended to open an essential line of research and invite collaboration to advance diversity.
- Abstract(参考訳): 生成AIモデルは、トレーニングデータのバイアスを再現し、モード崩壊によってさらに増幅することができる。
多様性の有害な喪失を均質化と呼ぶ。
私たちの立場では、ホモジェナイゼーションはAIの安全性における主要な関心事であるべきです。
均質化を緩和する戦略としてキセノ再生を導入する。
自己回帰型LDMでは,構造を考慮した多様性追求としてxeno-reproductionを定式化する。
私たちの貢献は基礎的であり、研究の本質的なラインを開き、多様性を促進するために協力を招待することを目的としています。
関連論文リスト
- The Devil Behind Moltbook: Anthropic Safety is Always Vanishing in Self-Evolving AI Societies [57.387081435669835]
大規模言語モデルから構築されたマルチエージェントシステムは、スケーラブルな集合知性と自己進化のための有望なパラダイムを提供する。
エージェント社会が継続的自己進化、完全隔離、安全性の不変性を満たすことは不可能であることを示す。
我々は、特定された安全上の懸念を軽減するために、いくつかの解決方法を提案する。
論文 参考訳(メタデータ) (2026-02-10T15:18:19Z) - Beyond the Dirac Delta: Mitigating Diversity Collapse in Reinforcement Fine-Tuning for Versatile Image Generation [51.305316234962554]
textbfDRIFT(textbfDivetextbfRsity-textbfIncentivized Reinforcement textbfFine-textbfTuning for Versatile Image Generation)を提案する。
DRIFTはタスクアライメントとジェネレーションの多様性に関して優れた優位性を達成し、9.08%!sim! 43.46%$多様性等価アライメントレベルの増加と59.65ドルとなる。
論文 参考訳(メタデータ) (2026-01-18T13:25:43Z) - Epistemic diversity across language models mitigates knowledge collapse [0.4941630596191806]
生態学にインスパイアされた私たちは、AIエコシステムの多様性、すなわちモデル間の多様性が、このような崩壊を緩和できるかどうかを尋ねる。
モデル性能に対する多様性の影響を調べるため,言語モデルにまたがるトレーニングデータを分割し,10回の自己学習イテレーションで得られたエコシステムを評価する。
以上の結果から,少数の多様なモデルのみを含む生態系は,完全かつ真の分布のリッチな混合を表現できないことが示唆された。
論文 参考訳(メタデータ) (2025-12-17T02:03:28Z) - Alignment Tipping Process: How Self-Evolution Pushes LLM Agents Off the Rails [103.05296856071931]
本稿では,自己進化型大規模言語モデル(LLM)エージェントに特有の,アライメント・ティッピング・プロセス(ATP)を同定する。
ATPは、連続的な相互作用によってエージェントが訓練中に確立されたアライメント制約を放棄し、強化された自己関心の戦略を支持するときに生じる。
実験の結果、アライメントの利点は自己進化の下で急速に低下し、最初は整合性のない状態に収束したモデルであることが判明した。
論文 参考訳(メタデータ) (2025-10-06T14:48:39Z) - DisCo: Reinforcement with Diversity Constraints for Multi-Human Generation [60.741022906593685]
DisCoは、マルチヒューマン世代におけるアイデンティティの多様性を直接最適化する最初のRLベースのフレームワークである。
グループ相対ポリシー最適化によるDisCo微粒フローマッチングモデル。
DiverseHumans Testsetでは、DisCoは98.6のユニークな顔の精度とほぼ完璧なグローバルアイデンティティスプレッドを実現している。
論文 参考訳(メタデータ) (2025-10-01T19:28:51Z) - A Theory of Information, Variation, and Artificial Intelligence [0.0]
実証研究の活発化は、生成AIの普及が情報、創造性、文化生産に顕著な均質化効果をもたらすことを示唆している。
本稿では、特殊領域内の知識を平らにする非常に均質化が、その知識をそれら全体で再結合可能な一貫したモジュールに同時にレンダリングする、と論じる。
この論文は、この緊張を解決するのに必要な認知的および制度的な足場を概説し、生成的AIがイノベーションの道具になるか、均質化されるかを決定する決定的な変数であると主張した。
論文 参考訳(メタデータ) (2025-08-20T16:21:13Z) - Autonomous AI imitators increase diversity in homogeneous information ecosystems [0.0]
大規模言語モデル(LLM)の最近のブレークスルーは、人間が生成したコンテンツを模倣できる自律型AIエージェントを促進している。
本稿では,ニュースにおけるAIによる模倣を検証するための大規模シミュレーションフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-20T10:37:29Z) - Generate, Discriminate, Evolve: Enhancing Context Faithfulness via Fine-Grained Sentence-Level Self-Evolution [61.80716438091887]
GenDiE (Generate, Discriminate, Evolve) は、微粒な文レベルの最適化によって文脈忠実性を高める新しい自己進化フレームワークである。
応答中の各文を独立した最適化単位として扱うことで、GenDiEは以前のアプローチの限界に効果的に対処する。
ASQA(ドメイン内のLFQA)とConFiQAデータセットの実験は、GenDiEが忠実さと正しさの両方で様々なベースラインを超えることを示した。
論文 参考訳(メタデータ) (2025-03-03T16:08:33Z) - Competition and Diversity in Generative AI [3.1507640991166603]
競争市場は多様なAIモデルを選択し、モノカルチャーを緩和している。
独立して機能する生成AIモデル(つまりベンチマークによれば)は、反復的市場において価値の提供に失敗する可能性がある。
論文 参考訳(メタデータ) (2024-12-11T18:34:31Z) - Source-free Domain Adaptation Requires Penalized Diversity [60.04618512479438]
ソースデータがない場合、異なるドメイン間の知識伝達に対処するために、ソースフリードメイン適応(SFDA)が導入された。
教師なしのFDAでは、多様性はソース上の1つの仮説を学習するか、共有された特徴抽出器で複数の仮説を学習することに限定される。
本稿では,異なる特徴抽出器を用いて表現多様性を促進する新しい無教師付きSFDAアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-06T00:20:19Z) - Picking on the Same Person: Does Algorithmic Monoculture lead to Outcome
Homogenization? [90.35044668396591]
機械学習における繰り返しのテーマはアルゴリズムによるモノカルチャーである。同じシステム、またはコンポーネントを共有するシステムは、複数の意思決定者によってデプロイされる。
意思決定者がトレーニングデータや特定のモデルなどのコンポーネントを共有すれば、より均一な結果が得られます。
我々はこの仮説をアルゴリズムフェアネスベンチマークで検証し、トレーニングデータの共有がホモジェナイゼーションを確実に悪化させることを示した。
結果の均質化に関する哲学的分析と社会的な課題を、デプロイされた機械学習システムに含めることに着目して結論付ける。
論文 参考訳(メタデータ) (2022-11-25T09:33:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。