論文の概要: Competition and Diversity in Generative AI
- arxiv url: http://arxiv.org/abs/2412.08610v1
- Date: Wed, 11 Dec 2024 18:34:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-12 23:20:26.785742
- Title: Competition and Diversity in Generative AI
- Title(参考訳): ジェネレーティブAIの競争と多様性
- Authors: Manish Raghavan,
- Abstract要約: 我々は、生産者が生成AIを使って互いに競合するときに、コンテンツ均質性の下流の結果を探索するゲーム理論モデルを開発した。
我々は、独立して機能する生成AIモデル(例えば、ベンチマークによると)は、競合に直面すると失敗し、その逆も失敗する可能性があることを示す。
コンペティションと均質性の間の相互作用が、生成AIの開発、評価、利用にどのように影響するかについて議論する。
- 参考スコア(独自算出の注目度): 2.2590064835234913
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent evidence suggests that the use of generative artificial intelligence reduces the diversity of content produced. In this work, we develop a game-theoretic model to explore the downstream consequences of content homogeneity when producers use generative AI to compete with one another. At equilibrium, players indeed produce content that is less diverse than optimal. However, stronger competition mitigates homogeneity and induces more diverse production. Perhaps more surprisingly, we show that a generative AI model that performs well in isolation (i.e., according to a benchmark) may fail to do so when faced with competition, and vice versa. We validate our results empirically by using language models to play Scattergories, a word game in which players are rewarded for producing answers that are both correct and unique. We discuss how the interplay between competition and homogeneity has implications for the development, evaluation, and use of generative AI.
- Abstract(参考訳): 近年の証拠は、生成的人工知能の使用は、生成されたコンテンツの多様性を減らすことを示唆している。
本研究では,生産者が生成AIを用いて互いに競合するときのコンテンツ均質性の下流の結果を探索するゲーム理論モデルを開発する。
均衡において、プレイヤーは明らかに最適な内容よりも多様性の低いコンテンツを制作する。
しかし、強い競争は均質性を緩和し、より多様な生産を引き起こす。
おそらく意外なことに、独立して機能する生成AIモデル(ベンチマークによると)は、競合に直面すると失敗し、その逆も失敗する可能性がある。
Scattergories(Scattergories)は,プレイヤーが正確かつ独特な回答を得られるワードゲームである。
コンペティションと均質性の間の相互作用が、生成AIの開発、評価、利用にどのように影響するかについて議論する。
関連論文リスト
- Group Selection as a Safeguard Against AI Substitution [0.28029990367346164]
生成AIへの信頼は、特に創造的な仕事において、文化的分散と多様性を減らすことができる。
この分散の減少は、モデル崩壊や幻覚を含むモデル性能の問題を既に引き起こしている。
エージェントベースのモデルと進化ゲーム理論を用いて、補完と置換の2種類のAI使用の比較を行う。
論文 参考訳(メタデータ) (2026-02-03T13:56:47Z) - Gaming the Arena: AI Model Evaluation and the Viral Capture of Attention [0.0]
剣術的な「浴場」に着目してAIモデルを評価するいわゆる「アリーナ」の台頭について検討する。
私は、アリーナ化はAIコミュニティの中と外の両方の注目を集めたいという'ウイルス'の欲求に支えられていると論じます。
論文 参考訳(メタデータ) (2025-12-17T09:50:13Z) - Epistemic diversity across language models mitigates knowledge collapse [0.4941630596191806]
生態学にインスパイアされた私たちは、AIエコシステムの多様性、すなわちモデル間の多様性が、このような崩壊を緩和できるかどうかを尋ねる。
モデル性能に対する多様性の影響を調べるため,言語モデルにまたがるトレーニングデータを分割し,10回の自己学習イテレーションで得られたエコシステムを評価する。
以上の結果から,少数の多様なモデルのみを含む生態系は,完全かつ真の分布のリッチな混合を表現できないことが示唆された。
論文 参考訳(メタデータ) (2025-12-17T02:03:28Z) - Artificial Hivemind: The Open-Ended Homogeneity of Language Models (and Beyond) [90.45301024940329]
言語モデル(LM)は、多様で人間らしい創造的コンテンツを生成するのに苦労することが多い。
Infinity-Chatは26万の多様な実世界のオープンエンドユーザクエリからなる大規模データセットである。
本研究では, LMのモード崩壊について大規模に検討し, 人工Hivemind効果が明らかとなった。
論文 参考訳(メタデータ) (2025-10-27T03:16:21Z) - A Theory of Information, Variation, and Artificial Intelligence [0.0]
実証研究の活発化は、生成AIの普及が情報、創造性、文化生産に顕著な均質化効果をもたらすことを示唆している。
本稿では、特殊領域内の知識を平らにする非常に均質化が、その知識をそれら全体で再結合可能な一貫したモジュールに同時にレンダリングする、と論じる。
この論文は、この緊張を解決するのに必要な認知的および制度的な足場を概説し、生成的AIがイノベーションの道具になるか、均質化されるかを決定する決定的な変数であると主張した。
論文 参考訳(メタデータ) (2025-08-20T16:21:13Z) - SPARTA ALIGNMENT: Collectively Aligning Multiple Language Models through Combat [73.529925653031]
SPARTA ALIGNMENT(SPARTA ALIGNMENT)を提案する。
各イテレーションにおいて、1つの命令と2つのモデルがデュエルのために選択され、他のモデルが2つのレスポンスを評価し、それらの評価スコアは、適応されたエロランクベースの評価システムを介して集約される。
ピア評価された戦闘結果は、敗戦よりも勝利の反応が優先される選好ペアとなり、各イテレーションの最後にこれらの選好からすべてのモデルが学習される。
論文 参考訳(メタデータ) (2025-06-05T07:51:23Z) - Psittacines of Innovation? Assessing the True Novelty of AI Creations [0.26107298043931204]
我々は、仮説的なクラウドファンディングキャンペーンのために、AIにプロジェクトタイトルの生成を任せる。
AI生成したプロジェクトタイトルで比較し、繰り返しと複雑さを測定します。
結果は、タスクの複雑さが増大しても、AIがユニークなコンテンツを生成することを示唆している。
論文 参考訳(メタデータ) (2024-03-17T13:08:11Z) - Stimulate the Potential of Robots via Competition [60.69068909395984]
本稿では,個々のロボットが競技者から知識を得るのに役立つ,競争力のある学習フレームワークを提案する。
具体的には、競合相手間の競合情報を、有利な行動を学ぶための補助信号として導入する。
さらに,Multiagent-Race環境を構築し,競争環境において訓練されたロボットが,単一ロボット環境でのSoTAアルゴリズムで訓練されたロボットよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-03-15T17:21:39Z) - Can AI Be as Creative as Humans? [84.43873277557852]
理論的には、AIは人間の創造者によって生成されたデータに適切に適合できるという条件の下で、人間と同じくらい創造的になれることを証明しています。
AIの創造性に関する議論は、十分な量のデータに適合する能力の問題に縮小されている。
論文 参考訳(メタデータ) (2024-01-03T08:49:12Z) - The Impact of Generative Artificial Intelligence on Market Equilibrium: Evidence from a Natural Experiment [19.963531237647103]
生成人工知能(AI)は、人間の出力に似た創造的なコンテンツをより効率よく、コストを削減できる能力を示す。
本稿では,中国の主要なアートアウトソーシングプラットフォームにおいて,生成AIが市場均衡に与える影響を実証的に検討する。
我々の分析によると、生成AIの出現は平均価格を64%引き下げる結果となったが、同時に注文量が121%増加し、全体の売上が56%増加した。
論文 参考訳(メタデータ) (2023-11-13T04:31:53Z) - Human-AI Interactions and Societal Pitfalls [1.6413583085553642]
生成人工知能(AI)を利用すると、ユーザーは生産性が向上するかもしれないが、AI生成コンテンツは好みと正確に一致しないかもしれない。
個人レベルの意思決定とAIトレーニングの相互作用が社会的課題を引き起こす可能性があることを示す。
均質化とバイアス問題の解決策は、生産性を犠牲にすることなく、パーソナライズされたアウトプットを可能にする、人間とAIのインタラクションを改善することである。
論文 参考訳(メタデータ) (2023-09-19T09:09:59Z) - Discriminatory or Samaritan -- which AI is needed for humanity? An
Evolutionary Game Theory Analysis of Hybrid Human-AI populations [0.5308606035361203]
我々は,AIの異なる形態が,一発の囚人のジレンマゲームをする人間の集団における協力の進化にどのように影響するかを研究する。
障害者を含む全員を無条件で支援するサマリア人のAIエージェントは、差別的AIよりも高いレベルの協力を促進することができることがわかった。
論文 参考訳(メタデータ) (2023-06-30T15:56:26Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Picking on the Same Person: Does Algorithmic Monoculture lead to Outcome
Homogenization? [90.35044668396591]
機械学習における繰り返しのテーマはアルゴリズムによるモノカルチャーである。同じシステム、またはコンポーネントを共有するシステムは、複数の意思決定者によってデプロイされる。
意思決定者がトレーニングデータや特定のモデルなどのコンポーネントを共有すれば、より均一な結果が得られます。
我々はこの仮説をアルゴリズムフェアネスベンチマークで検証し、トレーニングデータの共有がホモジェナイゼーションを確実に悪化させることを示した。
結果の均質化に関する哲学的分析と社会的な課題を、デプロイされた機械学習システムに含めることに着目して結論付ける。
論文 参考訳(メタデータ) (2022-11-25T09:33:11Z) - Modeling Content Creator Incentives on Algorithm-Curated Platforms [76.53541575455978]
本研究では,アルゴリズムの選択が露出ゲームにおける(ナッシュ)平衡の存在と性格にどのように影響するかを検討する。
本研究では、露出ゲームにおける平衡を数値的に見つけるためのツールを提案し、MovieLensとLastFMデータセットの監査結果を示す。
論文 参考訳(メタデータ) (2022-06-27T08:16:59Z) - WenLan 2.0: Make AI Imagine via a Multimodal Foundation Model [74.4875156387271]
我々は,膨大なマルチモーダル(視覚的・テキスト的)データを事前学習した新しい基礎モデルを開発する。
そこで本研究では,様々な下流タスクにおいて,最先端の成果が得られることを示す。
論文 参考訳(メタデータ) (2021-10-27T12:25:21Z) - Competing Bandits: The Perils of Exploration Under Competition [99.68537519404727]
オンラインプラットフォーム上での探索と競争の相互作用について検討する。
私たちは、スタークコンペティションが企業に対して、低福祉につながる「欲張り」バンディットアルゴリズムにコミットするよう促すことに気付きました。
競争を弱めるための2つのチャンネルについて検討する。
論文 参考訳(メタデータ) (2020-07-20T14:19:08Z) - AvgOut: A Simple Output-Probability Measure to Eliminate Dull Responses [97.50616524350123]
機能エンジニアリングなしで、どの発話やトークンが退屈であるかを動的に認識する対話モデルを構築します。
最初のモデルMinAvgOutは、各バッチの出力分布を通して、ダイバーシティスコアを直接最大化する。
第2のモデルであるラベルファインチューニング(LFT)は、多様性スコアによって連続的にスケールされたラベルをソースシーケンスにプリペイドし、多様性レベルを制御する。
3つ目のモデルであるRLは強化学習を採用し、多様性スコアを報奨信号として扱う。
論文 参考訳(メタデータ) (2020-01-15T18:32:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。