論文の概要: Can apparent bystanders distinctively shape an outcome? Global south
countries and global catastrophic risk-focused governance of artificial
intelligence
- arxiv url: http://arxiv.org/abs/2312.04616v1
- Date: Thu, 7 Dec 2023 18:54:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-11 17:28:48.230186
- Title: Can apparent bystanders distinctively shape an outcome? Global south
countries and global catastrophic risk-focused governance of artificial
intelligence
- Title(参考訳): 明らかな傍観者は明確な結果を形成することができるか?
グローバル・サウス・ネイションズと世界大惨事的リスク中心の人工知能ガバナンス
- Authors: Cecil Abungu, Michelle Malonza and Sumaya Nur Adan
- Abstract要約: 私たちは、インドやシンガポールのようなグローバルな南欧諸国が、AIの破滅的なリスクに焦点を絞った世界的ガバナンスにおいて、かなり重要かもしれないと論じています。
我々はまた、グローバルな南欧諸国が、世界的な破滅的なリスクに焦点を当てたAIガバナンスを設計、強化、運用する上で、肯定的な役割を果たすいくつかの方法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Increasingly, there is well-grounded concern that through perpetual
scaling-up of computation power and data, current deep learning techniques will
create highly capable artificial intelligence that could pursue goals in a
manner that is not aligned with human values. In turn, such AI could have the
potential of leading to a scenario in which there is serious global-scale
damage to human wellbeing. Against this backdrop, a number of researchers and
public policy professionals have been developing ideas about how to govern AI
in a manner that reduces the chances that it could lead to a global
catastrophe. The jurisdictional focus of a vast majority of their assessments
so far has been the United States, China, and Europe. That preference seems to
reveal an assumption underlying most of the work in this field: That global
south countries can only have a marginal role in attempts to govern AI
development from a global catastrophic risk -focused perspective. Our paper
sets out to undermine this assumption. We argue that global south countries
like India and Singapore (and specific coalitions) could in fact be fairly
consequential in the global catastrophic risk-focused governance of AI. We
support our position using 4 key claims. 3 are constructed out of the current
ways in which advanced foundational AI models are built and used while one is
constructed on the strategic roles that global south countries and coalitions
have historically played in the design and use of multilateral rules and
institutions. As each claim is elaborated, we also suggest some ways through
which global south countries can play a positive role in designing,
strengthening and operationalizing global catastrophic risk-focused AI
governance.
- Abstract(参考訳): 計算能力とデータの永続的なスケールアップを通じて、現在のディープラーニング技術は、人間の価値観にマッチしない方法で目標を追求する能力の高い人工知能を創造する、という懸念がますます高まっている。
逆に、このようなaiは、人間の健康に深刻な世界規模のダメージを与えるシナリオにつながる可能性がある。
こうした背景から、多くの研究者や公共政策の専門家が、AIを世界的大惨事に繋がる可能性を減らす方法で統治する方法のアイデアを開発してきた。
彼らの評価の大多数の管轄的焦点は、米国、中国、ヨーロッパである。
グローバルな南欧諸国は、世界的な破滅的なリスク-焦点の視点からAI開発を管理する試みにおいて、限界的な役割しか持たない。
私たちの論文は、この仮定を台無しにする。
私たちは、インドやシンガポールのような世界各国(そして特定の連立)は、aiの世界的な破滅的なリスクに焦点を当てた統治において、かなり適していると論じています。
私たちは4つの重要な主張を使って立場を支持します。
先進的な基本的AIモデルの構築と使用の現在の方法から、グローバルな南方諸国や連立政権が歴史的に多国間ルールや機関の設計と利用に果たした戦略的役割に基づいて構築されている。
それぞれの主張が詳しく述べられているように、我々はまた、グローバルな南欧諸国がグローバルな破滅的なリスクに焦点を当てたAIガバナンスを設計、強化、運用する上で、ポジティブな役割を果たすいくつかの方法を提案する。
関連論文リスト
- Risks and Opportunities of Open-Source Generative AI [64.86989162783648]
Generative AI(Gen AI)の応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の変化の可能性は、この技術の潜在的なリスクについて活発に議論を巻き起こし、より厳格な規制を要求した。
この規制は、オープンソースの生成AIの誕生する分野を危険にさらす可能性がある。
論文 参考訳(メタデータ) (2024-05-14T13:37:36Z) - Near to Mid-term Risks and Opportunities of Open-Source Generative AI [94.06233419171016]
Generative AIの応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の影響の可能性は、潜在的なリスクに関する活発な議論を引き起こし、より厳格な規制を要求した。
この規制は、オープンソースのジェネレーティブAIの誕生する分野を危険にさらしている可能性が高い。
論文 参考訳(メタデータ) (2024-04-25T21:14:24Z) - Computing Power and the Governance of Artificial Intelligence [51.967584623262674]
政府や企業は、AIを管理する手段として計算を活用し始めている。
計算ベースのポリシーと技術は、これらの領域を補助する可能性があるが、実装の準備ができている点で大きなバリエーションがある。
プライバシーや経済的影響、権力の中央集権化といった分野において、ガバナンスの計算方法の素早い、あるいは不十分なアプローチは重大なリスクを伴います。
論文 参考訳(メタデータ) (2024-02-13T21:10:21Z) - Ten Hard Problems in Artificial Intelligence We Must Get Right [72.99597122935903]
AIの約束を阻止し、AIのリスクを引き起こすAI2050の「ハード問題」について検討する。
それぞれの問題について、その領域を概説し、最近の重要な作業を特定し、今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-06T23:16:41Z) - Taking control: Policies to address extinction risks from AI [0.0]
AI企業からの自発的なコミットメントは不適切で不十分な反応である、と私たちは主張する。
先進的なAIの脅威に有意義に対処する3つの政策提案について述べる。
論文 参考訳(メタデータ) (2023-10-31T15:53:14Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - An Overview of Catastrophic AI Risks [38.84933208563934]
本稿では,破滅的なAIリスクの主な要因について概説し,その要因を4つのカテゴリに分類する。
個人やグループが意図的にAIを使用して危害を及ぼす悪用; 競争環境がアクターに安全でないAIを配置させたり、AIに制御を強制するAIレース。
組織的リスクは 人的要因と複雑なシステムが 破滅的な事故の 可能性を高めることを示しています
不正なAIは、人間よりもはるかにインテリジェントなエージェントを制御することの難しさを説明する。
論文 参考訳(メタデータ) (2023-06-21T03:35:06Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Artificial Intelligence in the Global South (AI4D): Potential and Risks [0.0]
人工知能は世界中のあらゆる地域で利用できるようになった。
本稿では,AI4D(グローバル開発のためのAI)の新たなサブ分野における課題と課題について考察する。
我々は、AIの使用にまつわる多くのリスクがあるが、その潜在的な利点は、グローバル・サウスにおいてそのような技術を設計、開発、実装、使用するための最も適切で効果的な方法に関する詳細な研究と調査を保証するのに十分である、と提案する。
論文 参考訳(メタデータ) (2021-08-23T11:48:31Z) - Artificial Intelligence Ethics: An Inclusive Global Discourse? [0.9208007322096533]
本研究は,AI倫理に関するドキュメンテーションの台頭について考察する。
グローバル・サウスの両国と女性がこの議論で過小評価されているかどうかを調査している。
発見は、AI倫理文書におけるこれらの両方のテーマへの言及の欠如を示している。
グローバル・サウスの両国や女性からの十分なインプットがなければ、そのような倫理的枠組みや基準は差別的であるかもしれない。
論文 参考訳(メタデータ) (2021-08-23T06:08:00Z) - AI in the "Real World": Examining the Impact of AI Deployment in
Low-Resource Contexts [1.90365714903665]
本稿では,低リソース環境における大規模産業ラボによるAIの展開について検討する。
予想外のデプロイメントに影響を与える要因を強調し、グローバルサウスにおけるAIデプロイメントの状況を反映する。
論文 参考訳(メタデータ) (2020-11-28T01:49:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。