論文の概要: Can Generative AI be Egalitarian?
- arxiv url: http://arxiv.org/abs/2502.07790v1
- Date: Mon, 20 Jan 2025 15:40:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-16 05:32:53.036233
- Title: Can Generative AI be Egalitarian?
- Title(参考訳): 生成AIは平等か?
- Authors: Philip Feldman, James R. Foulds, Shimei Pan,
- Abstract要約: 創発的AIモデルは、しばしば対応する相反なしに、オンラインソースから価値を広範囲に抽出した上で構築される。
本稿では、ユーザが積極的に協調的に提供するコンテンツに依存したモデルの開発について考察する。
このようなアプローチは倫理的に健全であり、ユーザのニーズに応答しやすく、トレーニングデータに多様性があり、究極的には社会的価値に適合するモデルにつながる可能性がある、と私たちは主張する。
- 参考スコア(独自算出の注目度): 6.893551641325889
- License:
- Abstract: The recent explosion of "foundation" generative AI models has been built upon the extensive extraction of value from online sources, often without corresponding reciprocation. This pattern mirrors and intensifies the extractive practices of surveillance capitalism, while the potential for enormous profit has challenged technology organizations' commitments to responsible AI practices, raising significant ethical and societal concerns. However, a promising alternative is emerging: the development of models that rely on content willingly and collaboratively provided by users. This article explores this "egalitarian" approach to generative AI, taking inspiration from the successful model of Wikipedia. We explore the potential implications of this approach for the design, development, and constraints of future foundation models. We argue that such an approach is not only ethically sound but may also lead to models that are more responsive to user needs, more diverse in their training data, and ultimately more aligned with societal values. Furthermore, we explore potential challenges and limitations of this approach, including issues of scalability, quality control, and potential biases inherent in volunteer-contributed content.
- Abstract(参考訳): 近年の「境界」生成型AIモデルの爆発は、しばしば対応する相反なしに、オンラインソースから価値を広範囲に抽出することに基づいている。
このパターンは、監視資本主義の抽出的実践を反映し、強化する一方で、巨大な利益のポテンシャルは、IT組織がAIプラクティスに責任を負うことへのコミットメントに挑戦し、重大な倫理的・社会的懸念を提起している。
しかし、有望な代替手段が生まれつつある。ユーザーが積極的に協力して提供したコンテンツに依存するモデルの開発だ。
この記事では、ウィキペディアの成功モデルからインスピレーションを得て、生成AIに対するこの「平等主義的」アプローチを探求する。
今後の基盤モデルの設計,開発,制約に対するこのアプローチの潜在的影響について検討する。
このようなアプローチは倫理的に健全なだけでなく、ユーザのニーズに応答しやすく、トレーニングデータに多様性があり、最終的には社会的価値に適合するモデルにもつながります。
さらに、スケーラビリティ、品質管理、ボランティアによるコンテンツ固有の潜在的なバイアスなど、このアプローチの潜在的な課題と制限についても検討する。
関連論文リスト
- AI Scaling: From Up to Down and Out [23.65115295537283]
本稿では、Scaling Up、Scaling Down、Scaling Outを含む、AIスケーリングのための総合的なフレームワークを提案する。
モデルのスケールアップは固有のボトルネックに直面しているが、AIスケーリングの今後の軌道はスケールダウンとスケーリングアウトにある、と氏は主張する。
我々は、医療、スマートマニュファクチャリング、コンテンツ作成における変革的なアプリケーションについて検討し、AI Scalingがいかに効率、パーソナライゼーション、グローバル接続のブレークスルーを可能にするかを実証する。
論文 参考訳(メタデータ) (2025-02-02T02:14:00Z) - On the Challenges and Opportunities in Generative AI [135.2754367149689]
現在の大規模生成AIモデルは、ドメイン間で広く採用されるのを妨げるいくつかの基本的な問題に十分対応していない、と我々は主張する。
本研究は、現代の生成型AIパラダイムにおける重要な未解決課題を特定し、その能力、汎用性、信頼性をさらに向上するために取り組まなければならない。
論文 参考訳(メタデータ) (2024-02-28T15:19:33Z) - Evolving AI Collectives to Enhance Human Diversity and Enable Self-Regulation [40.763340315488406]
大きな言語モデルの振る舞いは、相互作用する言語の言語によって形作られます。
この能力とその増加傾向は、意図的または意図的に相互に「プログラム」する、というオンラインポータビリティを増大させます。
我々は、AIのクロスモーダル化の機会について議論し、自由なAI集団の作成と維持に関連する倫理的問題と設計上の課題に対処する。
論文 参考訳(メタデータ) (2024-02-19T22:59:43Z) - Modelling Human Values for AI Reasoning [2.320648715016106]
我々は,その明示的な計算表現のために,人間の値の形式モデルを詳述する。
我々は、このモデルが、価値に対するAIベースの推論の基礎となる装置をいかに提供できるかを示す。
我々は、AIにおける人間の価値を統合し、学際的に研究するためのロードマップを提案する。
論文 参考訳(メタデータ) (2024-02-09T12:08:49Z) - Exploration with Principles for Diverse AI Supervision [88.61687950039662]
次世代の予測を用いた大規模トランスフォーマーのトレーニングは、AIの画期的な進歩を生み出した。
この生成AIアプローチは印象的な結果をもたらしたが、人間の監督に大きく依存している。
この人間の監視への強い依存は、AIイノベーションの進歩に重大なハードルをもたらす。
本稿では,高品質なトレーニングデータを自律的に生成することを目的とした,探索型AI(EAI)という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-13T07:03:39Z) - Causal Reasoning: Charting a Revolutionary Course for Next-Generation
AI-Native Wireless Networks [63.246437631458356]
次世代無線ネットワーク(例:6G)は人工知能(AI)ネイティブである。
本稿では、新たな因果推論分野を基盤として、AIネイティブな無線ネットワークを構築するための新しいフレームワークを紹介する。
因果発見と表現によって対処できる無線ネットワークの課題をいくつか挙げる。
論文 参考訳(メタデータ) (2023-09-23T00:05:39Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Predictability and Surprise in Large Generative Models [8.055204456718576]
大規模プレトレーニングは、有能で汎用的な生成モデルを作成するための技術として登場した。
本稿では,そのようなモデルの直観的特性を強調し,この特性の政策的含意について論じる。
論文 参考訳(メタデータ) (2022-02-15T23:21:23Z) - WenLan 2.0: Make AI Imagine via a Multimodal Foundation Model [74.4875156387271]
我々は,膨大なマルチモーダル(視覚的・テキスト的)データを事前学習した新しい基礎モデルを開発する。
そこで本研究では,様々な下流タスクにおいて,最先端の成果が得られることを示す。
論文 参考訳(メタデータ) (2021-10-27T12:25:21Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。