論文の概要: Compromise in Multilateral Negotiations and the Global Regulation of
Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2309.17158v1
- Date: Fri, 29 Sep 2023 11:46:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-02 14:13:34.812766
- Title: Compromise in Multilateral Negotiations and the Global Regulation of
Artificial Intelligence
- Title(参考訳): 多国間交渉における妥協と人工知能のグローバル規制
- Authors: Michal Natorski
- Abstract要約: 2021年11月に採択されたユネスコの人工知能倫理勧告(Recommendation on the Ethics of Artificial Intelligence)は、AI開発とデプロイメントのための最初のグローバルな規範的フレームワークとして登場した。
本稿では,ユネスコ加盟国の多国籍にもかかわらず,AI規制の国際的妥協の達成について説明する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As artificial intelligence (AI) technologies spread worldwide, international
discussions have increasingly focused on their consequences for democracy,
human rights, fundamental freedoms, security, and economic and social
development. In this context, UNESCO's Recommendation on the Ethics of
Artificial Intelligence, adopted in November 2021, has emerged as the first
global normative framework for AI development and deployment. The intense
negotiations of every detail of the document brought forth numerous
controversies among UNESCO member states. Drawing on a unique set of primary
sources, including written positions and recorded deliberations, this paper
explains the achievement of global compromise on AI regulation despite the
multiplicity of UNESCO member-state positions representing a variety of liberal
and sovereignist preferences. Building upon Boltanski's pragmatic sociology, it
conceptualises the practice of multilateral negotiations and attributes the
multilateral compromise to two embedded therein mechanisms: Structural
normative hybridity and situated normative ambiguity allowed to accomplish a
compromise by linking macro-normative structures with situated debates of
multilateral negotiations.
- Abstract(参考訳): 人工知能(AI)技術が世界中に普及するにつれ、国際的議論は民主主義、人権、基本的自由、安全保障、経済・社会発展への影響にますます焦点を当てている。
この文脈で、2021年11月に採用されたユネスコの人工知能倫理勧告は、AI開発とデプロイメントのための最初のグローバルな規範的フレームワークとして登場した。
文書のあらゆる詳細に関する激しい交渉はユネスコ加盟国の間で多くの論争を引き起こした。
本稿では,ユネスコ加盟国の多様な自由主義的・主権主義的選好を代表する立場が多様であるにもかかわらず,ai規制における世界的妥協の達成について述べる。
ボルタンスキーのプラグマティックな社会学に基づいて、多角的交渉の実践を概念化し、多角的妥協を構造規範的ハイブリッド性(structure normative hybridity)と配置的規範的曖昧性( location normative ambiguity)の2つの組み込み機構に分類する。
関連論文リスト
- Towards a Privacy and Security-Aware Framework for Ethical AI: Guiding
the Development and Assessment of AI Systems [0.0]
本研究は2020年から2023年までの系統的な文献レビューを行う。
本研究は,SLRから抽出した知識の合成を通じて,プライバシとセキュリティを意識したAIシステムに適した概念的枠組みを提案する。
論文 参考訳(メタデータ) (2024-03-13T15:39:57Z) - Modelling Political Coalition Negotiations Using LLM-based Agents [53.934372246390495]
我々は、新しいNLPタスクとして連立交渉を導入し、それを大規模言語モデルに基づくエージェント間の交渉としてモデル化する。
我々は、欧州政党の宣言とこれらの国における多数の選挙に関する連立協定を含む多言語データセット「POLCA」を導入する。
本稿では、政党間の連立交渉の過程をシミュレートし、その結果を予測するために、階層的なマルコフ決定プロセスを提案する。
論文 参考訳(メタデータ) (2024-02-18T21:28:06Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Report of the 1st Workshop on Generative AI and Law [78.62063815165968]
本報告では、生成AIと法に関する第1回ワークショップ(GenLaw)の開催状況について述べる。
コンピュータサイエンスと法学の実践者や学者の学際的なグループが集まり、ジェネレーティブAI法がもたらす技術的、教義的、政策上の課題について議論した。
論文 参考訳(メタデータ) (2023-11-11T04:13:37Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Revisiting Conversation Discourse for Dialogue Disentanglement [88.3386821205896]
本稿では,対話談話特性を最大限に活用し,対話の絡み合いを高めることを提案する。
我々は,会話の意味的文脈をより良くモデル化するために,リッチな構造的特徴を統合する構造認識フレームワークを開発した。
我々の研究は、より広範なマルチスレッド対話アプリケーションを促進する大きな可能性を秘めている。
論文 参考訳(メタデータ) (2023-06-06T19:17:47Z) - Bridging the Global Divide in AI Regulation: A Proposal for a Contextual, Coherent, and Commensurable Framework [0.9622882291833615]
本稿では、人工知能(AI)を制御するための文脈的・一貫性的・包括的枠組み(3C)を提案する。
コンテキスト性を確保するため、このフレームワークはAIライフサイクルを、基礎や汎用モデルを定義するのではなく、特定のタスクの学習とデプロイという2つのフェーズに分岐させる。
コンメンサビリティを確保するため、この枠組みはリスクの測定と緩和のための国際標準の採用を促進する。
論文 参考訳(メタデータ) (2023-03-20T15:23:40Z) - The European AI Liability Directives -- Critique of a Half-Hearted
Approach and Lessons for the Future [0.0]
欧州委員会は2022年9月に、欧州のAI責任に対するアプローチを概説する2つの提案を推進した。
後者は、影響を受けた人の個人的権利を一切含んでおらず、前者は、AI開発と展開に関する特定の実質的なルールを欠いている。
これらの行為は、AI規制におけるブリュッセル効果を誘発する可能性がある。
我々は、AI法における持続可能性影響評価と、債務制度における持続可能な設計欠陥を通じて、持続可能なAI規制を飛躍的に開始することを提案する。
論文 参考訳(メタデータ) (2022-11-25T09:08:11Z) - Artificial intelligence in government: Concepts, standards, and a
unified framework [0.0]
人工知能(AI)の最近の進歩は、政府の変革を約束している。
新しいAIシステムは、社会の規範的な期待に沿うように振る舞うことが重要である。
論文 参考訳(メタデータ) (2022-10-31T10:57:20Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。