論文の概要: Towards an Atomic Agency for Quantum-AI
- arxiv url: http://arxiv.org/abs/2505.11515v1
- Date: Tue, 06 May 2025 14:17:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-25 10:52:49.030226
- Title: Towards an Atomic Agency for Quantum-AI
- Title(参考訳): 量子AIのための原子力機関を目指して
- Authors: Mauritz Kop,
- Abstract要約: このエッセイは、米国、EU、中国の新興AIと量子技術(量子AIハイブリッドを含む)の規制、輸出管理、標準を分析します。
米国の「ワシントン効果」(不確実性の下での早期規制)と中国の「北京効果」(標準/デジタルシルク道路経由の専制規範の輸出)のリスクを示唆している。
基本基準とアジャイルの法的なガードレールを通じて、普遍的な価値("繋がるもの")に固定された、調和した量子獲得惑星への道を探っている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This essay analyzes emerging AI & quantum technology (incl. quantum-AI hybrids) regulation, export controls, and standards in the US, EU, & China, comparing legislative efforts anno 2025 to balance benefits/risks via their distinct innovation systems. While finding convergence on needing responsible governance despite differing philosophies, it posits risks from a US 'Washington effect' (premature regulation under uncertainty) and a Chinese 'Beijing effect' (exporting autocratic norms via standards/Digital Silk Road), exacerbated by export controls and decoupling. Faced with planetary challenges, it explores pathways toward a harmonized Quantum Acquis Planetaire, anchored in universal values ('what connects us') via foundational standards and agile legal guardrails. Smart regulation must incentivize responsible behavior (e.g., RQT by design) and ensure equitable benefit/risk distribution, requiring cooperative stewardship and strategic Sino-American recoupling. This could be coupled with collaborative research platforms for quantum and AI (which are increasingly interdependent) akin to CERN or ITER - emulating successful international resource pooling to foster coordinated responsible innovation. Realizing goals like fault tolerant quantum-centric supercomputing, algorithmic development and use case discovery requires such collective global expertise, challenging protectionist measures that stifle collaboration and supply chains. The Quantum Acquis Planetaire, envisioned as a global body of Quantum Law, could be codified via a UN Quantum Treaty inspired by precedents like the 2024 UN AI Resolution and 1968 Nuclear Non-Proliferation Treaty (NPT), designed to align quantum advancements with global imperatives such as the UN SDGs. To enforce it, manage arms race risks, and ensure non-proliferation, an 'Atomic Agency for Quantum-AI' (modeled on IAEA safeguards) warrants serious examination.
- Abstract(参考訳): このエッセイは、米国、EU、中国の新興AIと量子技術(量子AIハイブリッドを含む)の規制、輸出規制、標準を分析し、2025年の立法努力を比較して、独自のイノベーションシステムを通じて利益とリスクのバランスをとる。
異なる哲学にも拘わらず責任を負う統治の必要性の収束を見いだす一方で、輸出規制や切り離しによって悪化する米国の「ワシントン効果」(不確実性の下での早期規制)と中国の「北京効果」(標準/デジタルシルクロードを介して専制的な規範を輸出する)のリスクを示唆している。
惑星の課題に直面して、基本基準とアジャイルの法的なガードレールを通じて普遍的な価値(「我々を繋ぐもの」)に固定された、調和した量子獲得惑星への道を探る。
スマートレギュレーションは責任ある行動(例えば設計上のRQT)を動機付け、平等な利益/リスクの分配を確保し、協力的なスチュワードシップと戦略的中米再結合を必要とする。
これは、CERNやITERと同様、量子とAI(ますます相互依存している)のための共同研究プラットフォームと組み合わせて、コーディネートされた責任あるイノベーションを促進するために、成功している国際的なリソースプールをエミュレートする可能性がある。
フォールトトレラントな量子中心スーパーコンピュータ、アルゴリズム開発、ユースケース発見といった目標を実現するには、このようなグローバルな専門知識が必要である。
量子獲得惑星は、2024年の国連のAI決議や1968年の核拡散防止条約(NPT)のような先例に触発された国連量子条約によって、量子の進歩と、国連のSDGのようなグローバルな命令とを一致させることによって、国際量子法のグローバルな団体として構想された。
これを強制し、武器競争のリスクを管理し、非増殖を確保するため、IAEAの保護をモデルとした「量子AIの原子機関」は、真剣な検査を保証している。
関連論文リスト
- Enhancing Trust Through Standards: A Comparative Risk-Impact Framework for Aligning ISO AI Standards with Global Ethical and Regulatory Contexts [0.0]
ISO標準は、公正性、透明性、リスク管理をAIシステムに組み込むことで責任ある開発を促進することを目的としている。
それらの効果は、EUのリスクベースのAI法から中国の安定性にフォーカスした措置まで、さまざまな規制の状況によって異なる。
本稿では,ISO標準がいかに倫理的リスクに対処するかを評価するための,新たなリスク・即効性評価フレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-22T00:44:20Z) - Do LLMs trust AI regulation? Emerging behaviour of game-theoretic LLM agents [61.132523071109354]
本稿では、異なる規制シナリオ下での戦略選択をモデル化する、AI開発者、規制当局、ユーザ間の相互作用について検討する。
我々の研究は、純粋なゲーム理論エージェントよりも「悲観的」な姿勢を採用する傾向にある戦略的AIエージェントの出現する振る舞いを特定する。
論文 参考訳(メタデータ) (2025-04-11T15:41:21Z) - Cyber Threats in Financial Transactions -- Addressing the Dual Challenge of AI and Quantum Computing [0.0]
金融セクターは、人工知能(AI)と量子コンピューティングの出現によって増大するサイバー脅威に直面している。
レポートはこれらの脅威、関連するフレームワーク、量子暗号のような可能性のある対策を分析します。
金融業界はサイバーセキュリティに積極的に適応的なアプローチを採用しなければならない。
論文 参考訳(メタデータ) (2025-03-19T20:16:27Z) - Envisioning Responsible Quantum Software Engineering and Quantum Artificial Intelligence [7.827152992676682]
QC(Quantum Computing)、QSE(Quantum Software Engineering)、AI(Artificial Intelligence)の収束は、さまざまな領域にわたる変革的な機会を提供する。
既存の方法論は、この技術的な変化によって生じる倫理、セキュリティ、ガバナンスの課題に不十分に対処する。
我々はソフトウェアエンジニアリングコミュニティに、責任あるQSEとQAIが倫理的、説明責任、社会的に有益な技術進歩の基礎となる未来を積極的に形成するよう呼びかけます。
論文 参考訳(メタデータ) (2024-10-31T14:26:26Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Securing the Future of GenAI: Policy and Technology [50.586585729683776]
政府はGenAIを規制し、イノベーションと安全性のバランスをとるという課題に、世界中で不満を抱いている。
Google、ウィスコンシン大学、マディソン大学、スタンフォード大学が共同で行ったワークショップは、GenAIのポリシーとテクノロジーのギャップを埋めることを目的としていた。
本稿では,技術進歩を妨げることなく,どのように規制を設計できるか,といった問題に対処するワークショップの議論を要約する。
論文 参考訳(メタデータ) (2024-05-21T20:30:01Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Bridging the Global Divide in AI Regulation: A Proposal for a Contextual, Coherent, and Commensurable Framework [0.9622882291833615]
本稿では、人工知能(AI)を制御するための文脈的・一貫性的・包括的枠組み(3C)を提案する。
コンテキスト性を確保するため、このフレームワークはAIライフサイクルを、基礎や汎用モデルを定義するのではなく、特定のタスクの学習とデプロイという2つのフェーズに分岐させる。
コンメンサビリティを確保するため、この枠組みはリスクの測定と緩和のための国際標準の採用を促進する。
論文 参考訳(メタデータ) (2023-03-20T15:23:40Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。