論文の概要: Navigating AI Policy Landscapes: Insights into Human Rights Considerations Across IEEE Regions
- arxiv url: http://arxiv.org/abs/2504.19264v1
- Date: Sun, 27 Apr 2025 14:44:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.205567
- Title: Navigating AI Policy Landscapes: Insights into Human Rights Considerations Across IEEE Regions
- Title(参考訳): AIポリシーのランドスケープをナビゲートする - IEEE領域全体での人権に関する考察
- Authors: Angel Mary John, Jerrin Thomas Panachakel, Anusha S. P,
- Abstract要約: 本稿では,異なるIEEE領域にわたるAI規制フレームワークへの人権配慮の統合について検討する。
米国は規制の少ないイノベーションを推進し、ヨーロッパは個人の権利に対する厳格な保護を誇示している。
中国はAI戦略において国家統制と社会秩序を強調し、シンガポールの諮問枠組みは自己規制を奨励している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper explores the integration of human rights considerations into AI regulatory frameworks across different IEEE regions - specifically the United States (Region 1-6), Europe (Region 8), China (part of Region 10), and Singapore (part of Region 10). While all acknowledge the transformative potential of AI and the necessity of ethical guidelines, their regulatory approaches significantly differ. Europe exhibits a rigorous framework with stringent protections for individual rights, while the U.S. promotes innovation with less restrictive regulations. China emphasizes state control and societal order in its AI strategies. In contrast, Singapore's advisory framework encourages self-regulation and aligns closely with international norms. This comparative analysis underlines the need for ongoing global dialogue to harmonize AI regulations that safeguard human rights while promoting technological advancement, reflecting the diverse perspectives and priorities of each region.
- Abstract(参考訳): 本稿では,米国(リージョン1-6),ヨーロッパ(リージョン8),中国(リージョン10),シンガポール(リージョン10)など,さまざまなIEEEリージョンにわたるAI規制フレームワークへの人権配慮の統合について検討する。
いずれもAIの変革の可能性と倫理的ガイドラインの必要性を認めているが、彼らの規制アプローチは著しく異なる。
ヨーロッパは個人の権利を厳格に保護する厳格な枠組みを示しており、アメリカは規制の少ないイノベーションを推進している。
中国はAI戦略において国家統制と社会秩序を強調している。
対照的に、シンガポールの諮問枠組みは自己規制を奨励し、国際基準と密接に一致している。
この比較分析は、技術進歩を推進しながら人権を保護し、各地域の様々な視点と優先順位を反映しながら、AI規制を調和させるために、進行中の国際対話の必要性を浮き彫りにしている。
関連論文リスト
- Enhancing Trust Through Standards: A Comparative Risk-Impact Framework for Aligning ISO AI Standards with Global Ethical and Regulatory Contexts [0.0]
ISO標準は、公正性、透明性、リスク管理をAIシステムに組み込むことで責任ある開発を促進することを目的としている。
それらの効果は、EUのリスクベースのAI法から中国の安定性にフォーカスした措置まで、さまざまな規制の状況によって異なる。
本稿では,ISO標準がいかに倫理的リスクに対処するかを評価するための,新たなリスク・即効性評価フレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-22T00:44:20Z) - Towards Adaptive AI Governance: Comparative Insights from the U.S., EU, and Asia [0.0]
本研究は、米国(米国)、欧州連合(EU)、アジアにおけるAIトレンドの比較分析を行う。
生成AI、倫理的監視、産業応用の3つの重要な側面に焦点を当てている。
米国は最小限の規制制約で市場主導のイノベーションを優先し、EUは倫理的保護を強調する予防的リスクベースのフレームワークを施行し、アジアは規制の監督と迅速な展開のバランスをとる国家主導のAI戦略を採用している。
論文 参考訳(メタデータ) (2025-04-01T11:05:47Z) - Ethical Implications of AI in Data Collection: Balancing Innovation with Privacy [0.0]
本稿では,2023年から2024年にかけてのAIによるデータ収集の倫理的・法的意義について考察する。
欧州連合、米国、中国の規制アプローチを比較して、グローバルに調和したAIガバナンスフレームワークを構築する上での課題を強調している。
この記事では、AI開発のグローバルな性質に対処するために、アダプティブガバナンスと国際協力の必要性を強調している。
論文 参考訳(メタデータ) (2025-03-17T14:15:59Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - Local Differences, Global Lessons: Insights from Organisation Policies for International Legislation [22.476305606415995]
本稿では、ボトムアップガバナンスアプローチがAIの利用と監視をいかに形成するかを理解するために、ニュース機関と大学という2つの領域におけるAIポリシーを検討する。
私たちは、バイアス、プライバシー、誤情報、説明責任といったリスクに対処する方法において、収束と分散の重要な領域を特定します。
ドメイン固有のAIポリシから学んだことは、グローバルレベルでより適応的で効果的なAIガバナンスに寄与する、と私たちは主張する。
論文 参考訳(メタデータ) (2025-02-19T15:59:09Z) - Technology as uncharted territory: Contextual integrity and the notion of AI as new ethical ground [55.2480439325792]
私は、責任と倫理的AIを促進する努力が、確立された文脈規範に対するこの軽視に必然的に貢献し、正当化することができると論じます。
私は、道徳的保護よりも道徳的革新のAI倫理における現在の狭い優先順位付けに疑問を呈する。
論文 参考訳(メタデータ) (2024-12-06T15:36:13Z) - The Fundamental Rights Impact Assessment (FRIA) in the AI Act: Roots, legal obligations and key elements for a model template [55.2480439325792]
基本権利影響評価(FRIA)の理論的・方法論的検討における既存のギャップを埋めることを目的とする。
この記事では、FRIAのモデルテンプレートの主要なビルディングブロックについて概説する。
これは、AIが人権と完全に整合していることを保証するために、他の国家および国際規制イニシアチブの青写真として機能する。
論文 参考訳(メタデータ) (2024-11-07T11:55:55Z) - Comparative Global AI Regulation: Policy Perspectives from the EU, China, and the US [0.0]
本稿は、EU、中国、米国による3つの異なるアプローチを比較した。
米国内では、連邦レベルでも州レベルでもAI規制を探求し、カリフォルニア州の差し迫った上院法案1047に焦点をあてています。
論文 参考訳(メタデータ) (2024-10-05T18:08:48Z) - Securing the Future of GenAI: Policy and Technology [50.586585729683776]
政府はGenAIを規制し、イノベーションと安全性のバランスをとるという課題に、世界中で不満を抱いている。
Google、ウィスコンシン大学、マディソン大学、スタンフォード大学が共同で行ったワークショップは、GenAIのポリシーとテクノロジーのギャップを埋めることを目的としていた。
本稿では,技術進歩を妨げることなく,どのように規制を設計できるか,といった問題に対処するワークショップの議論を要約する。
論文 参考訳(メタデータ) (2024-05-21T20:30:01Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - AI Alignment: A Comprehensive Survey [69.61425542486275]
AIアライメントは、AIシステムが人間の意図や価値観に沿って振る舞うようにすることを目的としている。
AIアライメントの重要な目的として、ロバストネス、解釈可能性、制御可能性、倫理という4つの原則を特定します。
我々は、現在のアライメント研究を、前方アライメントと後方アライメントの2つの重要なコンポーネントに分解する。
論文 参考訳(メタデータ) (2023-10-30T15:52:15Z) - Bridging the Global Divide in AI Regulation: A Proposal for a Contextual, Coherent, and Commensurable Framework [0.9622882291833615]
本稿では、人工知能(AI)を制御するための文脈的・一貫性的・包括的枠組み(3C)を提案する。
コンテキスト性を確保するため、このフレームワークはAIライフサイクルを、基礎や汎用モデルを定義するのではなく、特定のタスクの学習とデプロイという2つのフェーズに分岐させる。
コンメンサビリティを確保するため、この枠組みはリスクの測定と緩和のための国際標準の採用を促進する。
論文 参考訳(メタデータ) (2023-03-20T15:23:40Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。