論文の概要: Possibilities and Implications of the Multi-AI Competition
- arxiv url: http://arxiv.org/abs/2209.00509v1
- Date: Thu, 1 Sep 2022 14:54:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-02 14:07:07.343883
- Title: Possibilities and Implications of the Multi-AI Competition
- Title(参考訳): マルチAIコンペティションの可能性と意義
- Authors: Jialin Wu
- Abstract要約: 本稿では,スーパーAIのパワーを前提として,マルチAIコンペティションのシナリオに焦点を当てる。
記事は、マルチAI競争状況は無視できない可能性である、と結論付けている。
複数のAIのベストケースシナリオの形成に関連する要因を考慮して、この記事では、AI開発における現在のイニシアティブについていくつか提案する。
- 参考スコア(独自算出の注目度): 7.005458308454871
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The possibility of super-AIs taking over the world has been intensively
studied by numerous scholars. This paper focuses on the multi-AI competition
scenario under the premise of super-AIs in power. Firstly, the article points
out the defects of existing arguments supporting single-AI domination and
presents arguments in favour of multi-AI competition. Then the article
concludes that the multi-AI competition situation is a non-negligible
possibility. Attention then turns to whether multi-AI competition is better for
the overall good of humanity than a situation where a single AI is in power.
After analysing the best, worst, and intermediate scenarios, the article
concludes that multi-AI competition is better for humanity. Finally,
considering the factors related to the formation of the best-case scenario of
multiple AIs, the article gives some suggestions for current initiatives in AI
development.
- Abstract(参考訳): スーパーAIが世界を支配する可能性については、多くの学者が集中的に研究している。
本稿では,スーパーAIのパワーを前提としたマルチAI競争シナリオに焦点を当てる。
まず、単AI支配を支持する既存の議論の欠陥を指摘し、マルチAI競争に有利な議論を提示する。
記事は、マルチAI競争状況は無視できない可能性である、と結論付けている。
そして、マルチAIコンペティションが、単一のAIが力を持っている状況よりも、人類全体の利益にとって良いかどうかに注意が向けられる。
ベスト、ワースト、中間のシナリオを分析した後、記事はマルチaiコンペティションは人類にとってより良いと結論付けている。
最後に、複数のAIのベストケースシナリオの形成に関連する要因を考慮して、この記事では、AI開発における現在のイニシアティブについて提案する。
関連論文リスト
- Hype, Sustainability, and the Price of the Bigger-is-Better Paradigm in AI [67.58673784790375]
AIパラダイムは、科学的に脆弱なだけでなく、望ましくない結果をもたらすものだ、と私たちは主張する。
第一に、計算要求がモデルの性能よりも早く増加し、不合理な経済要求と不均等な環境フットプリントにつながるため、持続可能ではない。
第二に、健康、教育、気候などの重要な応用は別として、他人を犠牲にして特定の問題に焦点をあてることである。
論文 参考訳(メタデータ) (2024-09-21T14:43:54Z) - Contestable AI needs Computational Argumentation [15.15970495693702]
最先端のアプローチは、AIシステムが競合する必要性をほとんど無視する。
競合可能なAIには、動的(ヒューマンマシンおよび/またはマシンマシン)の説明可能性と意思決定プロセスが必要である、と我々は主張する。
論文 参考訳(メタデータ) (2024-05-17T12:23:18Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Competent but Rigid: Identifying the Gap in Empowering AI to Participate
Equally in Group Decision-Making [25.913473823070863]
人間とAIの協調的な意思決定に関する既存の研究は、主にAIと個々の意思決定者との相互作用に焦点を当てている。
本稿では、2人の参加者と1人のAIが3つの英語エッセイをランク付けする委員会を結成するウィザード・オブ・オズ(Wizard-of-oz)研究について述べる。
論文 参考訳(メタデータ) (2023-02-17T11:07:17Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - On the Effect of Information Asymmetry in Human-AI Teams [0.0]
我々は、人間とAIの相補的ポテンシャルの存在に焦点を当てる。
具体的には、情報非対称性を相補性ポテンシャルの必須源とみなす。
オンライン実験を行うことで、人間がそのような文脈情報を使ってAIの決定を調整できることを実証する。
論文 参考訳(メタデータ) (2022-05-03T13:02:50Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Explainable Artificial Intelligence Approaches: A Survey [0.22940141855172028]
人工知能ベースの「ブラックボックス」システム/モデルからの決定の説明力の欠如は、ハイステークアプリケーションでAIを採用するための重要な障害です。
相互ケーススタディ/タスクにより、一般的なXAI(Explainable Artificial Intelligence)手法を実証します。
競争優位性を多角的に分析します。
我々はXAIを媒体として、責任や人間中心のAIへの道を推奨する。
論文 参考訳(メタデータ) (2021-01-23T06:15:34Z) - Is the Most Accurate AI the Best Teammate? Optimizing AI for Teamwork [54.309495231017344]
AIシステムは人間中心の方法でトレーニングされ、チームのパフォーマンスに直接最適化されるべきである、と私たちは主張する。
我々は,AIレコメンデーションを受け入れるか,あるいはタスク自体を解決するかを選択する,特定のタイプのAIチームを提案する。
実世界の高精度データセット上での線形モデルと非線形モデルによる実験は、AIが最も正確であることは、最高のチームパフォーマンスに繋がらないことを示している。
論文 参考訳(メタデータ) (2020-04-27T19:06:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。