論文の概要: Being Accountable is Smart: Navigating the Technical and Regulatory Landscape of AI-based Services for Power Grid
- arxiv url: http://arxiv.org/abs/2408.01121v1
- Date: Fri, 2 Aug 2024 09:02:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-05 13:57:23.534329
- Title: Being Accountable is Smart: Navigating the Technical and Regulatory Landscape of AI-based Services for Power Grid
- Title(参考訳): 説明責任は賢明である - 電力グリッドのためのAIベースのサービスの技術的および規制的景観をナビゲートする
- Authors: Anna Volkova, Mahdieh Hatamian, Alina Anapyanova, Hermann de Meer,
- Abstract要約: 人工知能の出現と電力グリッドのデジタル化により、スマートグリッドのためのAIベースのサービスのための多くの効果的なアプリケーションシナリオが導入された。
しかし、重要なインフラにおけるAIの採用は、不明確な規制とリスク定量化テクニックの欠如による課題を提起する。
本稿では、説明責任を定義し、エネルギーセクターにおけるAIベースのサービスの重要性を強調することにより、この目的に寄与する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The emergence of artificial intelligence and digitization of the power grid introduced numerous effective application scenarios for AI-based services for the smart grid. Nevertheless, adopting AI in critical infrastructures presents challenges due to unclear regulations and lacking risk quantification techniques. Regulated and accountable approaches for integrating AI-based services into the smart grid could accelerate the adoption of innovative methods in daily practices and address society's general safety concerns. This paper contributes to this objective by defining accountability and highlighting its importance for AI-based services in the energy sector. It underlines the current shortcomings of the AI Act and proposes an approach to address these issues in a potential delegated act. The proposed technical approach for developing and operating accountable AI-based smart grid services allows for assessing different service life cycle phases and identifying related accountability risks.
- Abstract(参考訳): 人工知能の出現と電力グリッドのデジタル化により、スマートグリッドのためのAIベースのサービスのための多くの効果的なアプリケーションシナリオが導入された。
それでも、重要なインフラストラクチャにAIを採用することは、不明確な規制とリスク定量化テクニックの欠如による課題を提起する。
AIベースのサービスをスマートグリッドに統合するための規制された説明可能なアプローチは、日々のプラクティスにおける革新的な手法の採用を加速し、社会の一般的な安全上の懸念に対処する。
本稿では、説明責任を定義し、エネルギーセクターにおけるAIベースのサービスの重要性を強調することにより、この目的に寄与する。
AI法の現在の欠点を根底から説明し、これらの問題に潜在的に委譲された行為で対処するアプローチを提案する。
説明責任AIベースのスマートグリッドサービスの開発と運用のための技術アプローチでは、さまざまなサービスライフサイクルフェーズを評価し、関連する説明責任リスクを特定することができる。
関連論文リスト
- Automated Cybersecurity Compliance and Threat Response Using AI, Blockchain & Smart Contracts [0.36832029288386137]
人工知能(AI)、ブロックチェーン、スマートコントラクトを統合する新しいフレームワークを提案する。
本稿では,セキュリティポリシの実施を自動化し,手作業や潜在的なヒューマンエラーを減らすシステムを提案する。
論文 参考訳(メタデータ) (2024-09-12T20:38:14Z) - Open Problems in Technical AI Governance [93.89102632003996]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - GAN-GRID: A Novel Generative Attack on Smart Grid Stability Prediction [53.2306792009435]
我々は,現実の制約に合わせたスマートグリッドの安定性予測システムを対象とした,新たな敵攻撃GAN-GRIDを提案する。
以上の結果から,データやモデル知識を欠いた,安定度モデルのみに武装した敵が,攻撃成功率0.99の安定度でデータを作成できることが判明した。
論文 参考訳(メタデータ) (2024-05-20T14:43:46Z) - Computing Power and the Governance of Artificial Intelligence [51.967584623262674]
政府や企業は、AIを管理する手段として計算を活用し始めている。
計算ベースのポリシーと技術は、これらの領域を補助する可能性があるが、実装の準備ができている点で大きなバリエーションがある。
プライバシーや経済的影響、権力の中央集権化といった分野において、ガバナンスの計算方法の素早い、あるいは不十分なアプローチは重大なリスクを伴います。
論文 参考訳(メタデータ) (2024-02-13T21:10:21Z) - The AI Revolution: Opportunities and Challenges for the Finance Sector [12.486180180030964]
金融セクターにおけるAIの応用は、業界を変えつつある。
しかしながら、これらのメリットに加えて、AIはいくつかの課題も提示する。
これには透明性、解釈可能性、公正性、説明責任、信頼性に関する問題が含まれる。
金融セクターにおけるAIの使用は、データプライバシとセキュリティに関する重要な疑問をさらに引き起こす。
このニーズをグローバルに認識しているにもかかわらず、金融におけるAIの使用に関する明確なガイドラインや法律はいまだに存在しない。
論文 参考訳(メタデータ) (2023-08-31T08:30:09Z) - Trustworthy Artificial Intelligence Framework for Proactive Detection
and Risk Explanation of Cyber Attacks in Smart Grid [11.122588110362706]
分散型エネルギー資源(DER)の急速な成長は、グリッドコントローラに重大なサイバーセキュリティと信頼の課題をもたらす。
信頼性の高いスマートグリッドコントローラを実現するために,DERの制御・統計メッセージによって引き起こされるサイバーリスクを積極的に識別し,説明するための,信頼できる人工知能(AI)機構について検討する。
論文 参考訳(メタデータ) (2023-06-12T02:28:17Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。