論文の概要: Competition and Diversity in Generative AI
- arxiv url: http://arxiv.org/abs/2412.08610v1
- Date: Wed, 11 Dec 2024 18:34:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-12 14:00:14.179350
- Title: Competition and Diversity in Generative AI
- Title(参考訳): ジェネレーティブAIの競争と多様性
- Authors: Manish Raghavan,
- Abstract要約: 我々は、生産者が生成AIを使って互いに競合するときに、コンテンツ均質性の下流の結果を探索するゲーム理論モデルを開発した。
我々は、独立して機能する生成AIモデル(例えば、ベンチマークによると)は、競合に直面すると失敗し、その逆も失敗する可能性があることを示す。
コンペティションと均質性の間の相互作用が、生成AIの開発、評価、利用にどのように影響するかについて議論する。
- 参考スコア(独自算出の注目度): 2.2590064835234913
- License:
- Abstract: Recent evidence suggests that the use of generative artificial intelligence reduces the diversity of content produced. In this work, we develop a game-theoretic model to explore the downstream consequences of content homogeneity when producers use generative AI to compete with one another. At equilibrium, players indeed produce content that is less diverse than optimal. However, stronger competition mitigates homogeneity and induces more diverse production. Perhaps more surprisingly, we show that a generative AI model that performs well in isolation (i.e., according to a benchmark) may fail to do so when faced with competition, and vice versa. We validate our results empirically by using language models to play Scattergories, a word game in which players are rewarded for producing answers that are both correct and unique. We discuss how the interplay between competition and homogeneity has implications for the development, evaluation, and use of generative AI.
- Abstract(参考訳): 近年の証拠は、生成的人工知能の使用は、生成されたコンテンツの多様性を減らすことを示唆している。
本研究では,生産者が生成AIを用いて互いに競合するときのコンテンツ均質性の下流の結果を探索するゲーム理論モデルを開発する。
均衡において、プレイヤーは明らかに最適な内容よりも多様性の低いコンテンツを制作する。
しかし、強い競争は均質性を緩和し、より多様な生産を引き起こす。
おそらく意外なことに、独立して機能する生成AIモデル(ベンチマークによると)は、競合に直面すると失敗し、その逆も失敗する可能性がある。
Scattergories(Scattergories)は,プレイヤーが正確かつ独特な回答を得られるワードゲームである。
コンペティションと均質性の間の相互作用が、生成AIの開発、評価、利用にどのように影響するかについて議論する。
関連論文リスト
- Psittacines of Innovation? Assessing the True Novelty of AI Creations [0.26107298043931204]
我々は、仮説的なクラウドファンディングキャンペーンのために、AIにプロジェクトタイトルの生成を任せる。
AI生成したプロジェクトタイトルで比較し、繰り返しと複雑さを測定します。
結果は、タスクの複雑さが増大しても、AIがユニークなコンテンツを生成することを示唆している。
論文 参考訳(メタデータ) (2024-03-17T13:08:11Z) - Stimulate the Potential of Robots via Competition [60.69068909395984]
本稿では,個々のロボットが競技者から知識を得るのに役立つ,競争力のある学習フレームワークを提案する。
具体的には、競合相手間の競合情報を、有利な行動を学ぶための補助信号として導入する。
さらに,Multiagent-Race環境を構築し,競争環境において訓練されたロボットが,単一ロボット環境でのSoTAアルゴリズムで訓練されたロボットよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-03-15T17:21:39Z) - Can AI Be as Creative as Humans? [84.43873277557852]
理論的には、AIは人間の創造者によって生成されたデータに適切に適合できるという条件の下で、人間と同じくらい創造的になれることを証明しています。
AIの創造性に関する議論は、十分な量のデータに適合する能力の問題に縮小されている。
論文 参考訳(メタデータ) (2024-01-03T08:49:12Z) - The Impact of Generative Artificial Intelligence on Market Equilibrium: Evidence from a Natural Experiment [19.963531237647103]
生成人工知能(AI)は、人間の出力に似た創造的なコンテンツをより効率よく、コストを削減できる能力を示す。
本稿では,中国の主要なアートアウトソーシングプラットフォームにおいて,生成AIが市場均衡に与える影響を実証的に検討する。
我々の分析によると、生成AIの出現は平均価格を64%引き下げる結果となったが、同時に注文量が121%増加し、全体の売上が56%増加した。
論文 参考訳(メタデータ) (2023-11-13T04:31:53Z) - Human-AI Interactions and Societal Pitfalls [1.6413583085553642]
生成人工知能(AI)を利用すると、ユーザーは生産性が向上するかもしれないが、AI生成コンテンツは好みと正確に一致しないかもしれない。
個人レベルの意思決定とAIトレーニングの相互作用が社会的課題を引き起こす可能性があることを示す。
均質化とバイアス問題の解決策は、生産性を犠牲にすることなく、パーソナライズされたアウトプットを可能にする、人間とAIのインタラクションを改善することである。
論文 参考訳(メタデータ) (2023-09-19T09:09:59Z) - Discriminatory or Samaritan -- which AI is needed for humanity? An
Evolutionary Game Theory Analysis of Hybrid Human-AI populations [0.5308606035361203]
我々は,AIの異なる形態が,一発の囚人のジレンマゲームをする人間の集団における協力の進化にどのように影響するかを研究する。
障害者を含む全員を無条件で支援するサマリア人のAIエージェントは、差別的AIよりも高いレベルの協力を促進することができることがわかった。
論文 参考訳(メタデータ) (2023-06-30T15:56:26Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Picking on the Same Person: Does Algorithmic Monoculture lead to Outcome
Homogenization? [90.35044668396591]
機械学習における繰り返しのテーマはアルゴリズムによるモノカルチャーである。同じシステム、またはコンポーネントを共有するシステムは、複数の意思決定者によってデプロイされる。
意思決定者がトレーニングデータや特定のモデルなどのコンポーネントを共有すれば、より均一な結果が得られます。
我々はこの仮説をアルゴリズムフェアネスベンチマークで検証し、トレーニングデータの共有がホモジェナイゼーションを確実に悪化させることを示した。
結果の均質化に関する哲学的分析と社会的な課題を、デプロイされた機械学習システムに含めることに着目して結論付ける。
論文 参考訳(メタデータ) (2022-11-25T09:33:11Z) - Modeling Content Creator Incentives on Algorithm-Curated Platforms [76.53541575455978]
本研究では,アルゴリズムの選択が露出ゲームにおける(ナッシュ)平衡の存在と性格にどのように影響するかを検討する。
本研究では、露出ゲームにおける平衡を数値的に見つけるためのツールを提案し、MovieLensとLastFMデータセットの監査結果を示す。
論文 参考訳(メタデータ) (2022-06-27T08:16:59Z) - Competing Bandits: The Perils of Exploration Under Competition [99.68537519404727]
オンラインプラットフォーム上での探索と競争の相互作用について検討する。
私たちは、スタークコンペティションが企業に対して、低福祉につながる「欲張り」バンディットアルゴリズムにコミットするよう促すことに気付きました。
競争を弱めるための2つのチャンネルについて検討する。
論文 参考訳(メタデータ) (2020-07-20T14:19:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。