論文の概要: Structure-Aware Diversity Pursuit as an AI Safety Strategy against Homogenization
- arxiv url: http://arxiv.org/abs/2601.06116v1
- Date: Sat, 03 Jan 2026 15:34:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.585307
- Title: Structure-Aware Diversity Pursuit as an AI Safety Strategy against Homogenization
- Title(参考訳): 均質化に対するAI安全戦略としての構造意識の多様性
- Authors: Ian Rios-Sialer,
- Abstract要約: 生成AIモデルは、トレーニングデータのバイアスを再現し、モード崩壊によってさらに増幅することができる。
均質化を緩和する戦略としてキセノ再生を導入する。
私たちの貢献は基礎的であり、研究の本質的なラインを開き、コラボレーションを招待することを目的としています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative AI models reproduce the biases in the training data and can further amplify them through mode collapse. We refer to the resulting harmful loss of diversity as homogenization. Our position is that homogenization should be a primary concern in AI safety. We introduce xeno-reproduction as the strategy that mitigates homogenization. For auto-regressive LLMs, we formalize xeno-reproduction as a structure-aware diversity pursuit. Our contribution is foundational, intended to open an essential line of research and invite collaboration to advance diversity.
- Abstract(参考訳): 生成AIモデルは、トレーニングデータのバイアスを再現し、モード崩壊によってさらに増幅することができる。
多様性の有害な喪失を均質化と呼ぶ。
私たちの立場では、ホモジェナイゼーションはAIの安全性における主要な関心事であるべきです。
均質化を緩和する戦略としてキセノ再生を導入する。
自己回帰型LDMでは,構造を考慮した多様性追求としてxeno-reproductionを定式化する。
私たちの貢献は基礎的であり、研究の本質的なラインを開き、多様性を促進するために協力を招待することを目的としています。
関連論文リスト
- Epistemic diversity across language models mitigates knowledge collapse [0.4941630596191806]
生態学にインスパイアされた私たちは、AIエコシステムの多様性、すなわちモデル間の多様性が、このような崩壊を緩和できるかどうかを尋ねる。
モデル性能に対する多様性の影響を調べるため,言語モデルにまたがるトレーニングデータを分割し,10回の自己学習イテレーションで得られたエコシステムを評価する。
以上の結果から,少数の多様なモデルのみを含む生態系は,完全かつ真の分布のリッチな混合を表現できないことが示唆された。
論文 参考訳(メタデータ) (2025-12-17T02:03:28Z) - Alignment Tipping Process: How Self-Evolution Pushes LLM Agents Off the Rails [103.05296856071931]
本稿では,自己進化型大規模言語モデル(LLM)エージェントに特有の,アライメント・ティッピング・プロセス(ATP)を同定する。
ATPは、連続的な相互作用によってエージェントが訓練中に確立されたアライメント制約を放棄し、強化された自己関心の戦略を支持するときに生じる。
実験の結果、アライメントの利点は自己進化の下で急速に低下し、最初は整合性のない状態に収束したモデルであることが判明した。
論文 参考訳(メタデータ) (2025-10-06T14:48:39Z) - DisCo: Reinforcement with Diversity Constraints for Multi-Human Generation [60.741022906593685]
DisCoは、マルチヒューマン世代におけるアイデンティティの多様性を直接最適化する最初のRLベースのフレームワークである。
グループ相対ポリシー最適化によるDisCo微粒フローマッチングモデル。
DiverseHumans Testsetでは、DisCoは98.6のユニークな顔の精度とほぼ完璧なグローバルアイデンティティスプレッドを実現している。
論文 参考訳(メタデータ) (2025-10-01T19:28:51Z) - Autonomous AI imitators increase diversity in homogeneous information ecosystems [0.0]
大規模言語モデル(LLM)の最近のブレークスルーは、人間が生成したコンテンツを模倣できる自律型AIエージェントを促進している。
本稿では,ニュースにおけるAIによる模倣を検証するための大規模シミュレーションフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-20T10:37:29Z) - Generate, Discriminate, Evolve: Enhancing Context Faithfulness via Fine-Grained Sentence-Level Self-Evolution [61.80716438091887]
GenDiE (Generate, Discriminate, Evolve) は、微粒な文レベルの最適化によって文脈忠実性を高める新しい自己進化フレームワークである。
応答中の各文を独立した最適化単位として扱うことで、GenDiEは以前のアプローチの限界に効果的に対処する。
ASQA(ドメイン内のLFQA)とConFiQAデータセットの実験は、GenDiEが忠実さと正しさの両方で様々なベースラインを超えることを示した。
論文 参考訳(メタデータ) (2025-03-03T16:08:33Z) - Competition and Diversity in Generative AI [3.1507640991166603]
競争市場は多様なAIモデルを選択し、モノカルチャーを緩和している。
独立して機能する生成AIモデル(つまりベンチマークによれば)は、反復的市場において価値の提供に失敗する可能性がある。
論文 参考訳(メタデータ) (2024-12-11T18:34:31Z) - Source-free Domain Adaptation Requires Penalized Diversity [60.04618512479438]
ソースデータがない場合、異なるドメイン間の知識伝達に対処するために、ソースフリードメイン適応(SFDA)が導入された。
教師なしのFDAでは、多様性はソース上の1つの仮説を学習するか、共有された特徴抽出器で複数の仮説を学習することに限定される。
本稿では,異なる特徴抽出器を用いて表現多様性を促進する新しい無教師付きSFDAアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-06T00:20:19Z) - Picking on the Same Person: Does Algorithmic Monoculture lead to Outcome
Homogenization? [90.35044668396591]
機械学習における繰り返しのテーマはアルゴリズムによるモノカルチャーである。同じシステム、またはコンポーネントを共有するシステムは、複数の意思決定者によってデプロイされる。
意思決定者がトレーニングデータや特定のモデルなどのコンポーネントを共有すれば、より均一な結果が得られます。
我々はこの仮説をアルゴリズムフェアネスベンチマークで検証し、トレーニングデータの共有がホモジェナイゼーションを確実に悪化させることを示した。
結果の均質化に関する哲学的分析と社会的な課題を、デプロイされた機械学習システムに含めることに着目して結論付ける。
論文 参考訳(メタデータ) (2022-11-25T09:33:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。