論文の概要: Being Accountable is Smart: Navigating the Technical and Regulatory Landscape of AI-based Services for Power Grid
- arxiv url: http://arxiv.org/abs/2408.01121v1
- Date: Fri, 2 Aug 2024 09:02:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-05 13:57:23.534329
- Title: Being Accountable is Smart: Navigating the Technical and Regulatory Landscape of AI-based Services for Power Grid
- Title(参考訳): 説明責任は賢明である - 電力グリッドのためのAIベースのサービスの技術的および規制的景観をナビゲートする
- Authors: Anna Volkova, Mahdieh Hatamian, Alina Anapyanova, Hermann de Meer,
- Abstract要約: 人工知能の出現と電力グリッドのデジタル化により、スマートグリッドのためのAIベースのサービスのための多くの効果的なアプリケーションシナリオが導入された。
しかし、重要なインフラにおけるAIの採用は、不明確な規制とリスク定量化テクニックの欠如による課題を提起する。
本稿では、説明責任を定義し、エネルギーセクターにおけるAIベースのサービスの重要性を強調することにより、この目的に寄与する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The emergence of artificial intelligence and digitization of the power grid introduced numerous effective application scenarios for AI-based services for the smart grid. Nevertheless, adopting AI in critical infrastructures presents challenges due to unclear regulations and lacking risk quantification techniques. Regulated and accountable approaches for integrating AI-based services into the smart grid could accelerate the adoption of innovative methods in daily practices and address society's general safety concerns. This paper contributes to this objective by defining accountability and highlighting its importance for AI-based services in the energy sector. It underlines the current shortcomings of the AI Act and proposes an approach to address these issues in a potential delegated act. The proposed technical approach for developing and operating accountable AI-based smart grid services allows for assessing different service life cycle phases and identifying related accountability risks.
- Abstract(参考訳): 人工知能の出現と電力グリッドのデジタル化により、スマートグリッドのためのAIベースのサービスのための多くの効果的なアプリケーションシナリオが導入された。
それでも、重要なインフラストラクチャにAIを採用することは、不明確な規制とリスク定量化テクニックの欠如による課題を提起する。
AIベースのサービスをスマートグリッドに統合するための規制された説明可能なアプローチは、日々のプラクティスにおける革新的な手法の採用を加速し、社会の一般的な安全上の懸念に対処する。
本稿では、説明責任を定義し、エネルギーセクターにおけるAIベースのサービスの重要性を強調することにより、この目的に寄与する。
AI法の現在の欠点を根底から説明し、これらの問題に潜在的に委譲された行為で対処するアプローチを提案する。
説明責任AIベースのスマートグリッドサービスの開発と運用のための技術アプローチでは、さまざまなサービスライフサイクルフェーズを評価し、関連する説明責任リスクを特定することができる。
関連論文リスト
- Open Problems in Technical AI Governance [93.89102632003996]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - Computing Power and the Governance of Artificial Intelligence [51.967584623262674]
政府や企業は、AIを管理する手段として計算を活用し始めている。
計算ベースのポリシーと技術は、これらの領域を補助する可能性があるが、実装の準備ができている点で大きなバリエーションがある。
プライバシーや経済的影響、権力の中央集権化といった分野において、ガバナンスの計算方法の素早い、あるいは不十分なアプローチは重大なリスクを伴います。
論文 参考訳(メタデータ) (2024-02-13T21:10:21Z) - Green Edge AI: A Contemporary Survey [46.11332733210337]
AIの変換力は、ディープニューラルネットワーク(DNN)の利用から導かれる。
ディープラーニング(DL)は、エンドユーザーデバイス(EUD)に近い無線エッジネットワークに移行しつつある。
その可能性にもかかわらず、エッジAIは大きな課題に直面している。主な原因は、無線エッジネットワークのリソース制限と、DLのリソース集約的な性質の分離である。
論文 参考訳(メタデータ) (2023-12-01T04:04:37Z) - Predictable Artificial Intelligence [67.79118050651908]
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
本稿では,予測可能なAIに関する疑問,仮説,課題を解明することを目的とする。
論文 参考訳(メタデータ) (2023-10-09T21:36:21Z) - When to Trust AI: Advances and Challenges for Certification of Neural
Networks [26.890905486708117]
現実世界のアプリケーションにAI技術の早期採用は問題なく行われていない。
本稿では,AI決定の安全性を確保するために開発された技術の概要を紹介する。
論文 参考訳(メタデータ) (2023-09-20T10:31:09Z) - The AI Revolution: Opportunities and Challenges for the Finance Sector [12.486180180030964]
金融セクターにおけるAIの応用は、業界を変えつつある。
しかしながら、これらのメリットに加えて、AIはいくつかの課題も提示する。
これには透明性、解釈可能性、公正性、説明責任、信頼性に関する問題が含まれる。
金融セクターにおけるAIの使用は、データプライバシとセキュリティに関する重要な疑問をさらに引き起こす。
このニーズをグローバルに認識しているにもかかわらず、金融におけるAIの使用に関する明確なガイドラインや法律はいまだに存在しない。
論文 参考訳(メタデータ) (2023-08-31T08:30:09Z) - Trustworthy Artificial Intelligence Framework for Proactive Detection
and Risk Explanation of Cyber Attacks in Smart Grid [11.122588110362706]
分散型エネルギー資源(DER)の急速な成長は、グリッドコントローラに重大なサイバーセキュリティと信頼の課題をもたらす。
信頼性の高いスマートグリッドコントローラを実現するために,DERの制御・統計メッセージによって引き起こされるサイバーリスクを積極的に識別し,説明するための,信頼できる人工知能(AI)機構について検討する。
論文 参考訳(メタデータ) (2023-06-12T02:28:17Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。