論文の概要: Towards an AI Observatory for the Nuclear Sector: A tool for anticipatory governance
- arxiv url: http://arxiv.org/abs/2504.12358v1
- Date: Wed, 16 Apr 2025 03:43:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-18 14:39:11.418262
- Title: Towards an AI Observatory for the Nuclear Sector: A tool for anticipatory governance
- Title(参考訳): 原子力セクターのためのAI観測所を目指して--予測ガバナンスのためのツール
- Authors: Aditi Verma, Elizabeth Williams,
- Abstract要約: 我々は、原子力セクターにおけるAIのための予測的なガバナンスシステムの構築を要求します。
本稿は,原子力AI観測所の輪郭と,ガバナンスの予測システムについて考察する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: AI models are rapidly becoming embedded in all aspects of nuclear energy research and work but the safety, security, and safeguards consequences of this embedding are not well understood. In this paper, we call for the creation of an anticipatory system of governance for AI in the nuclear sector as well as the creation of a global AI observatory as a means for operationalizing anticipatory governance. The paper explores the contours of the nuclear AI observatory and an anticipatory system of governance by drawing on work in science and technology studies, public policy, and foresight studies.
- Abstract(参考訳): AIモデルは、原子力研究と仕事のあらゆる側面に急速に組み込まれつつあるが、この埋め込みによる安全性、セキュリティ、および保護の結果はよく理解されていない。
本稿では,原子力分野におけるAIの予測ガバナンスシステムの構築と,予測ガバナンスの運用手段としてのグローバルAI観測所の創設を求める。
本稿では, 科学技術研究, 公共政策, フォレスト研究の成果に基づいて, 原子力AI観測所の輪郭とガバナンスの予測システムについて考察する。
関連論文リスト
- Enabling External Scrutiny of AI Systems with Privacy-Enhancing Technologies [0.0]
この記事では、非営利のOpenMinedが開発した技術インフラが、センシティブな情報を妥協することなく、AIシステムの外部調査を可能にする方法について説明する。
実際には、外部の研究者は、セキュリティ、プライバシ、知的財産に関するAI企業の正当な懸念のために、AIシステムへのアクセスに苦労している。
OpenMinedが開発したエンドツーエンドの技術インフラは、いくつかのPETをさまざまなセットアップに統合し、AIシステムのプライバシー保護監査を可能にする。
論文 参考訳(メタデータ) (2025-02-05T15:31:11Z) - Securing the AI Frontier: Urgent Ethical and Regulatory Imperatives for AI-Driven Cybersecurity [0.0]
本稿では,サイバーセキュリティにおける人工知能の統合によって引き起こされる倫理的・規制上の課題について批判的に考察する。
我々は、1940年代の理論的議論から、欧州連合のAI法のような最近のグローバルなフレームワークの実装に至るまで、AI規制の歴史的発展を辿った。
バイアス、透明性、説明責任、プライバシ、人間の監視といった倫理的な懸念は、AI駆動のサイバーセキュリティシステムに影響を及ぼすとともに、深く調査されている。
論文 参考訳(メタデータ) (2025-01-15T18:17:37Z) - Strategic AI Governance: Insights from Leading Nations [0.0]
人工知能(AI)は、さまざまな分野に革命をもたらす可能性があるが、その採用は、データプライバシ、セキュリティ、AI能力の理解に関する懸念によって妨げられることが多い。
本稿では、先進国のAI戦略をレビューすることで、AIガバナンスのアプローチ、戦略的テーマ、AI導入に向けたイネーブラーと課題を合成する。
論文 参考訳(メタデータ) (2024-09-16T06:00:42Z) - Open Problems in Technical AI Governance [102.19067750759471]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - Responsible AI for Earth Observation [10.380878519901998]
私たちはAIとEOの交差点を体系的に定義し、責任あるAIプラクティスに重点を置いています。
学術と産業の両面からこの探究を導く重要な要素をいくつか挙げる。
本稿は、今後の研究成果に価値ある洞察を提供するとともに、今後の可能性と新たなトレンドを探求する。
論文 参考訳(メタデータ) (2024-05-31T14:47:27Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - A method for ethical AI in Defence: A case study on developing
trustworthy autonomous systems [0.0]
さまざまな協力者や利害関係者による、業界主導の政府主導のプロジェクトにおいて、信頼できる自律システム – Athena AI – を構築するためのケーススタディについて説明する。
我々は、責任ある研究とイノベーションに沿った倫理的アプローチを組み込むことの価値と影響について、教訓を導き出す。
論文 参考訳(メタデータ) (2022-06-21T23:17:17Z) - Trustworthy AI Inference Systems: An Industry Research View [58.000323504158054]
我々は、信頼できるAI推論システムの設計、展開、運用にアプローチするための業界調査ビューを提供する。
信頼された実行環境を用いたAIシステムの機会と課題を強調します。
我々は,産業,アカデミック,政府研究者のグローバルな集団的注意を必要とする,さらなる発展の分野を概説する。
論文 参考訳(メタデータ) (2020-08-10T23:05:55Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。