論文の概要: Can apparent bystanders distinctively shape an outcome? Global south
countries and global catastrophic risk-focused governance of artificial
intelligence
- arxiv url: http://arxiv.org/abs/2312.04616v1
- Date: Thu, 7 Dec 2023 18:54:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-11 17:28:48.230186
- Title: Can apparent bystanders distinctively shape an outcome? Global south
countries and global catastrophic risk-focused governance of artificial
intelligence
- Title(参考訳): 明らかな傍観者は明確な結果を形成することができるか?
グローバル・サウス・ネイションズと世界大惨事的リスク中心の人工知能ガバナンス
- Authors: Cecil Abungu, Michelle Malonza and Sumaya Nur Adan
- Abstract要約: 私たちは、インドやシンガポールのようなグローバルな南欧諸国が、AIの破滅的なリスクに焦点を絞った世界的ガバナンスにおいて、かなり重要かもしれないと論じています。
我々はまた、グローバルな南欧諸国が、世界的な破滅的なリスクに焦点を当てたAIガバナンスを設計、強化、運用する上で、肯定的な役割を果たすいくつかの方法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Increasingly, there is well-grounded concern that through perpetual
scaling-up of computation power and data, current deep learning techniques will
create highly capable artificial intelligence that could pursue goals in a
manner that is not aligned with human values. In turn, such AI could have the
potential of leading to a scenario in which there is serious global-scale
damage to human wellbeing. Against this backdrop, a number of researchers and
public policy professionals have been developing ideas about how to govern AI
in a manner that reduces the chances that it could lead to a global
catastrophe. The jurisdictional focus of a vast majority of their assessments
so far has been the United States, China, and Europe. That preference seems to
reveal an assumption underlying most of the work in this field: That global
south countries can only have a marginal role in attempts to govern AI
development from a global catastrophic risk -focused perspective. Our paper
sets out to undermine this assumption. We argue that global south countries
like India and Singapore (and specific coalitions) could in fact be fairly
consequential in the global catastrophic risk-focused governance of AI. We
support our position using 4 key claims. 3 are constructed out of the current
ways in which advanced foundational AI models are built and used while one is
constructed on the strategic roles that global south countries and coalitions
have historically played in the design and use of multilateral rules and
institutions. As each claim is elaborated, we also suggest some ways through
which global south countries can play a positive role in designing,
strengthening and operationalizing global catastrophic risk-focused AI
governance.
- Abstract(参考訳): 計算能力とデータの永続的なスケールアップを通じて、現在のディープラーニング技術は、人間の価値観にマッチしない方法で目標を追求する能力の高い人工知能を創造する、という懸念がますます高まっている。
逆に、このようなaiは、人間の健康に深刻な世界規模のダメージを与えるシナリオにつながる可能性がある。
こうした背景から、多くの研究者や公共政策の専門家が、AIを世界的大惨事に繋がる可能性を減らす方法で統治する方法のアイデアを開発してきた。
彼らの評価の大多数の管轄的焦点は、米国、中国、ヨーロッパである。
グローバルな南欧諸国は、世界的な破滅的なリスク-焦点の視点からAI開発を管理する試みにおいて、限界的な役割しか持たない。
私たちの論文は、この仮定を台無しにする。
私たちは、インドやシンガポールのような世界各国(そして特定の連立)は、aiの世界的な破滅的なリスクに焦点を当てた統治において、かなり適していると論じています。
私たちは4つの重要な主張を使って立場を支持します。
先進的な基本的AIモデルの構築と使用の現在の方法から、グローバルな南方諸国や連立政権が歴史的に多国間ルールや機関の設計と利用に果たした戦略的役割に基づいて構築されている。
それぞれの主張が詳しく述べられているように、我々はまた、グローバルな南欧諸国がグローバルな破滅的なリスクに焦点を当てたAIガバナンスを設計、強化、運用する上で、ポジティブな役割を果たすいくつかの方法を提案する。
関連論文リスト
- Computing Power and the Governance of Artificial Intelligence [51.967584623262674]
政府や企業は、AIを管理する手段として計算を活用し始めている。
計算ベースのポリシーと技術は、これらの領域を補助する可能性があるが、実装の準備ができている点で大きなバリエーションがある。
プライバシーや経済的影響、権力の中央集権化といった分野において、ガバナンスの計算方法の素早い、あるいは不十分なアプローチは重大なリスクを伴います。
論文 参考訳(メタデータ) (2024-02-13T21:10:21Z) - Ten Hard Problems in Artificial Intelligence We Must Get Right [76.13992275864176]
AIの約束を阻止し、AIのリスクを引き起こすAI2050の「ハード問題」について検討する。
それぞれの問題について、その領域を概説し、最近の重要な作業を特定し、今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-06T23:16:41Z) - Taking control: Policies to address extinction risks from AI [0.0]
AI企業からの自発的なコミットメントは不適切で不十分な反応である、と私たちは主張する。
先進的なAIの脅威に有意義に対処する3つの政策提案について述べる。
論文 参考訳(メタデータ) (2023-10-31T15:53:14Z) - Managing AI Risks in an Era of Rapid Progress [147.61764296776164]
我々は、大規模社会被害と悪用、および自律型AIシステムに対する人間の制御の不可逆的喪失について検討する。
迅速かつ継続的なAIの進歩を踏まえ、我々はAI研究開発とガバナンスの緊急優先事項を提案する。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Social AI and the Challenges of the Human-AI Ecosystem [60.26761762025781]
社会AIにおける主要なオープンな質問について論じ、技術的および科学的課題を概説する。
我々は,複雑システム,ネットワーク科学,AIの交差点にソーシャルAIの基礎を構築することを提案する。
論文 参考訳(メタデータ) (2023-06-23T18:10:54Z) - An Overview of Catastrophic AI Risks [38.84933208563934]
本稿では,破滅的なAIリスクの主な要因について概説し,その要因を4つのカテゴリに分類する。
個人やグループが意図的にAIを使用して危害を及ぼす悪用; 競争環境がアクターに安全でないAIを配置させたり、AIに制御を強制するAIレース。
組織的リスクは 人的要因と複雑なシステムが 破滅的な事故の 可能性を高めることを示しています
不正なAIは、人間よりもはるかにインテリジェントなエージェントを制御することの難しさを説明する。
論文 参考訳(メタデータ) (2023-06-21T03:35:06Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Artificial Intelligence in the Global South (AI4D): Potential and Risks [0.0]
人工知能は世界中のあらゆる地域で利用できるようになった。
本稿では,AI4D(グローバル開発のためのAI)の新たなサブ分野における課題と課題について考察する。
我々は、AIの使用にまつわる多くのリスクがあるが、その潜在的な利点は、グローバル・サウスにおいてそのような技術を設計、開発、実装、使用するための最も適切で効果的な方法に関する詳細な研究と調査を保証するのに十分である、と提案する。
論文 参考訳(メタデータ) (2021-08-23T11:48:31Z) - Artificial Intelligence Ethics: An Inclusive Global Discourse? [0.9208007322096533]
本研究は,AI倫理に関するドキュメンテーションの台頭について考察する。
グローバル・サウスの両国と女性がこの議論で過小評価されているかどうかを調査している。
発見は、AI倫理文書におけるこれらの両方のテーマへの言及の欠如を示している。
グローバル・サウスの両国や女性からの十分なインプットがなければ、そのような倫理的枠組みや基準は差別的であるかもしれない。
論文 参考訳(メタデータ) (2021-08-23T06:08:00Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - AI in the "Real World": Examining the Impact of AI Deployment in
Low-Resource Contexts [1.90365714903665]
本稿では,低リソース環境における大規模産業ラボによるAIの展開について検討する。
予想外のデプロイメントに影響を与える要因を強調し、グローバルサウスにおけるAIデプロイメントの状況を反映する。
論文 参考訳(メタデータ) (2020-11-28T01:49:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。