論文の概要: Frontier AI Ethics: Anticipating and Evaluating the Societal Impacts of Generative Agents
- arxiv url: http://arxiv.org/abs/2404.06750v1
- Date: Wed, 10 Apr 2024 05:34:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-11 15:29:37.735452
- Title: Frontier AI Ethics: Anticipating and Evaluating the Societal Impacts of Generative Agents
- Title(参考訳): フロンティアAI倫理 : 生成エージェントの社会的影響予測と評価
- Authors: Seth Lazar,
- Abstract要約: 一部の者は、すでに広くデプロイされているAIシステムのよく知られた病理を複製したとして、ジェネレーティブAIシステムを批判している。
私はこれらの特定のシステムを区別する点に注意を払っています。
私は「世代エージェント」の略奪的展望がもたらす社会的影響と規範的疑問について考察する
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Some have criticised Generative AI Systems for replicating the familiar pathologies of already widely-deployed AI systems. Other critics highlight how they foreshadow vastly more powerful future systems, which might threaten humanity's survival. The first group says there is nothing new here; the other looks through the present to a perhaps distant horizon. In this paper, I instead pay attention to what makes these particular systems distinctive: both their remarkable scientific achievement, and the most likely and consequential ways in which they will change society over the next five to ten years. In particular, I explore the potential societal impacts and normative questions raised by the looming prospect of 'Generative Agents', in which multimodal large language models (LLMs) form the executive centre of complex, tool-using AI systems that can take unsupervised sequences of actions towards some goal.
- Abstract(参考訳): 一部の者は、すでに広くデプロイされているAIシステムのよく知られた病理を複製したとして、ジェネレーティブAIシステムを批判している。
他の批評家は、人類の生存を脅かすかもしれない、より強力な未来のシステムをいかに先導するかを強調している。
最初のグループは、ここでは何も新しいものはなく、もう1つはおそらく遠くの地平線に現在を通して見えると言っている。
この論文では、これらのシステムに際し、その顕著な科学的成果と、それらが今後5年から10年の間に社会を変えるであろう最もありそうな方法の両方に、どのような特徴があるのかに注意を払っています。
特に、マルチモーダルな大規模言語モデル(LLM)が複雑なツールを使用するAIシステムの実行中心を形成し、ある目標に向けて、教師なしのアクションのシーケンスを実行できる、という「ジェネレーティブエージェント(Generative Agents)」の略奪的展望によって引き起こされる潜在的な社会的影響と規範的疑問について考察する。
関連論文リスト
- Near to Mid-term Risks and Opportunities of Open Source Generative AI [94.06233419171016]
Generative AIの応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の影響の可能性は、潜在的なリスクに関する活発な議論を引き起こし、より厳格な規制を要求した。
この規制は、オープンソースのGenerative AIの誕生する分野を危険にさらしている可能性が高い。
論文 参考訳(メタデータ) (2024-04-25T21:14:24Z) - Now, Later, and Lasting: Ten Priorities for AI Research, Policy, and Practice [63.20307830884542]
今後数十年は、産業革命に匹敵する人類の転換点になるかもしれない。
10年前に立ち上げられたこのプロジェクトは、複数の専門分野の専門家による永続的な研究にコミットしている。
AI技術の短期的および長期的影響の両方に対処する、アクションのための10のレコメンデーションを提供します。
論文 参考訳(メタデータ) (2024-04-06T22:18:31Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - Artificial Intelligence: Arguments for Catastrophic Risk [0.0]
我々は、AIが破滅的なリスクにどう影響するかを示すために、2つの影響力ある議論をレビューする。
電力探究の問題の最初の議論は、先進的なAIシステムが危険な電力探究行動に関与する可能性が高いと主張している。
第2の主張は、人間レベルのAIの開発が、さらなる進歩を早めるだろう、というものである。
論文 参考訳(メタデータ) (2024-01-27T19:34:13Z) - AI Deception: A Survey of Examples, Risks, and Potential Solutions [20.84424818447696]
本稿は、現在のAIシステムが人間を騙す方法を学んだことを論じる。
我々は虚偽を、真理以外の結果の追求において、虚偽の信念を体系的に誘導するものとして定義する。
論文 参考訳(メタデータ) (2023-08-28T17:59:35Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Examining the Differential Risk from High-level Artificial Intelligence
and the Question of Control [0.0]
将来のAI能力の範囲と範囲は、依然として重要な不確実性である。
AIの不透明な意思決定プロセスの統合と監視の程度には懸念がある。
本研究では、AIリスクをモデル化し、代替先分析のためのテンプレートを提供する階層的な複雑なシステムフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-06T15:46:02Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Thinking Fast and Slow in AI: the Role of Metacognition [35.114607887343105]
最先端のAIには、(人間)インテリジェンスの概念に自然に含まれる多くの能力がない。
私たちは、人間がこれらの能力を持つことができるメカニズムをよりよく研究することで、これらの能力でAIシステムを構築する方法を理解するのに役立ちます。
論文 参考訳(メタデータ) (2021-10-05T06:05:38Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。