論文の概要: Evolving AI Collectives to Enhance Human Diversity and Enable
Self-Regulation
- arxiv url: http://arxiv.org/abs/2402.12590v1
- Date: Mon, 19 Feb 2024 22:59:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 17:45:30.294462
- Title: Evolving AI Collectives to Enhance Human Diversity and Enable
Self-Regulation
- Title(参考訳): 人類の多様性を高め、自己統制を可能にするai集団の進化
- Authors: Shiyang Lai, Yujin Potter, Junsol Kim, Richard Zhuang, Dawn Song,
James Evans
- Abstract要約: 大規模言語モデルは、他者が生成したテキストに基づいて、その振る舞いを操縦する。
この能力は、意図的または意図的に相互に「プログラム」し、創発的なAIの主観、関係、集団を形成するものである。
我々は、このような創発的で分散化されたAI集団が、人間の多様性の境界を広げ、有害で反社会的行動のリスクをオンラインで減らす方法を説明するために、シンプルなモデルとその出力を使用します。
- 参考スコア(独自算出の注目度): 43.19348032815066
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models steer their behaviors based on texts generated by
others. This capacity and their increasing prevalence in online settings
portend that they will intentionally or unintentionally "program" one another
and form emergent AI subjectivities, relationships, and collectives. Here, we
call upon the research community to investigate these "society-like" properties
of interacting artificial intelligences to increase their rewards and reduce
their risks for human society and the health of online environments. We use a
simple model and its outputs to illustrate how such emergent, decentralized AI
collectives can expand the bounds of human diversity and reduce the risk of
toxic, anti-social behavior online. Finally, we discuss opportunities for AI
self-moderation and address ethical issues and design challenges associated
with creating and maintaining decentralized AI collectives.
- Abstract(参考訳): 大規模言語モデルは、他者が生成したテキストに基づいて行動する。
この能力とオンライン設定におけるその普及傾向は、意図的または意図的に相互に"プログラム"し、創発的なAIの主観、関係、集団を形成することを後押しします。
ここでは研究コミュニティに対して,人間社会やオンライン環境の健全性に対するリスクを軽減するために,対話型人工知能の「社会的な」特性を調査するよう呼びかける。
我々は、このような創発的で分散化されたAI集団が人間の多様性の境界を広げ、有害で反社会的行動のリスクをオンラインで減らす方法を説明するために、シンプルなモデルとその出力を使用します。
最後に、AIの自己修正の機会について議論し、分散化されたAI集団の作成と維持に関連する倫理的問題と設計上の課題に対処する。
関連論文リスト
- Artificial Theory of Mind and Self-Guided Social Organisation [1.8434042562191815]
人工知能(AI)が直面する課題の1つは、エージェントの集合が、単一のエージェントが到達できない目標を達成するために、どのように行動を調整するかである。
我々は、ニューラルネットワークにおける単一ニューロンの複雑さによる最近の研究に基づいて、一般的な設定での集合的知能について論じる。
社会構造が神経生理学、心理学、言語にどのように影響されているかを示す。
論文 参考訳(メタデータ) (2024-11-14T04:06:26Z) - AI-enhanced Collective Intelligence [2.5063318977668465]
人間とAIは、人間またはAIの集団的知性を単独で超越できる補完的能力を持っている。
このレビューでは、複雑なネットワーク科学からの視点を取り入れ、人間-AI集団知能の多層表現を概念化する。
エージェントの多様性と相互作用がシステムの集合知にどのように影響するかを探求し、AIによって強化された集合知の実例を分析する。
論文 参考訳(メタデータ) (2024-03-15T16:11:15Z) - On the Emergence of Symmetrical Reality [51.21203247240322]
物理仮想アマルガメーションの様々な形態を包含した統一表現を提供する対称現実感フレームワークを導入する。
我々は、対称現実の潜在的な応用を示すAI駆動型アクティブアシストサービスの例を提案する。
論文 参考訳(メタデータ) (2024-01-26T16:09:39Z) - Human-AI Interactions and Societal Pitfalls [1.6413583085553642]
生成人工知能(AI)を利用すると、ユーザーは生産性が向上するかもしれないが、AI生成コンテンツは好みと正確に一致しないかもしれない。
個人レベルの意思決定とAIトレーニングの相互作用が社会的課題を引き起こす可能性があることを示す。
均質化とバイアス問題の解決策は、生産性を犠牲にすることなく、パーソナライズされたアウトプットを可能にする、人間とAIのインタラクションを改善することである。
論文 参考訳(メタデータ) (2023-09-19T09:09:59Z) - Human-AI Coevolution [48.74579595505374]
Coevolution AIは、人間とAIアルゴリズムが相互に連続的に影響を及ぼすプロセスである。
本稿では,AIと複雑性科学の交点における新たな研究分野の基盤として,Coevolution AIを紹介した。
論文 参考訳(メタデータ) (2023-06-23T18:10:54Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - A Mental-Model Centric Landscape of Human-AI Symbiosis [31.14516396625931]
我々は、GHAI(Generalized Human-Aware Interaction)と呼ばれる、ヒューマン・アウェア・AIインタラクション・スキームの極めて一般的なバージョンを導入する。
この新しいフレームワークによって、人間とAIのインタラクションの空間で達成されたさまざまな作業が捕捉され、これらの作業によって支えられる基本的な行動パターンが特定できるかどうかを確認します。
論文 参考訳(メタデータ) (2022-02-18T22:08:08Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Adversarial Interaction Attack: Fooling AI to Misinterpret Human
Intentions [46.87576410532481]
現在の大きな成功にもかかわらず、ディープラーニングベースのAIシステムは、微妙な敵対的ノイズによって容易に騙されることを示した。
骨格に基づくヒトの相互作用のケーススタディに基づき、相互作用に対する新しい敵対的攻撃を提案する。
本研究では、安全クリティカルなアプリケーションにAIシステムをデプロイする際に慎重に対処する必要があるAIと人間との相互作用ループにおける潜在的なリスクを強調します。
論文 参考訳(メタデータ) (2021-01-17T16:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。