論文の概要: Correct-by-Construction Runtime Enforcement in AI -- A Survey
- arxiv url: http://arxiv.org/abs/2208.14426v1
- Date: Tue, 30 Aug 2022 17:45:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-31 13:27:19.190355
- Title: Correct-by-Construction Runtime Enforcement in AI -- A Survey
- Title(参考訳): AIにおける正しい構成ランタイムの強化 - 調査
- Authors: Bettina K\"onighofer, Roderick Bloem, R\"udiger Ehlers, Christian Pek
- Abstract要約: 執行とは、実行時のシステムの正式な仕様に関して正しい振る舞いを強制する理論、技術、ツールを指す。
我々は、AIの分野で伝統的に安全がどのように扱われているか、そしてランタイムの執行機関を統合することで、自律学習エージェントの安全性に対するより正式な保証が与えられるかについて議論する。
- 参考スコア(独自算出の注目度): 3.509295509987626
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Runtime enforcement refers to the theories, techniques, and tools for
enforcing correct behavior with respect to a formal specification of systems at
runtime. In this paper, we are interested in techniques for constructing
runtime enforcers for the concrete application domain of enforcing safety in
AI. We discuss how safety is traditionally handled in the field of AI and how
more formal guarantees on the safety of a self-learning agent can be given by
integrating a runtime enforcer. We survey a selection of work on such
enforcers, where we distinguish between approaches for discrete and continuous
action spaces. The purpose of this paper is to foster a better understanding of
advantages and limitations of different enforcement techniques, focusing on the
specific challenges that arise due to their application in AI. Finally, we
present some open challenges and avenues for future work.
- Abstract(参考訳): 実行時執行(runtime enforcement)とは、実行時のシステムの正式な仕様に関して正しい動作を強制する理論、技術、ツールを指す。
本稿では,AIの安全性を強制する具体的なアプリケーション領域に対して,実行時執行器を構築する技術に興味がある。
本稿では,従来のai分野での安全性の扱い方と,ランタイム・インテンサを統合することで,自己学習エージェントの安全性に関するより形式的な保証が与えられるかについて議論する。
そこで我々は, 離散的行動空間と連続的行動空間のアプローチを区別する手法について検討した。
本稿の目的は,AIの応用によって生じる特定の課題に焦点をあて,異なる実施手法の利点と限界をより深く理解することである。
最後に,今後の課題と展望を紹介する。
関連論文リスト
- AuditNet: A Conversational AI-based Security Assistant [DEMO] [10.941722434218262]
我々は,Goのコンプライアンスチェックを容易にするために,多機能な対話型AIアシスタントフレームワークを提案する。
本フレームワークは,関連するコンテキスト認識情報のレビュー,インデックス作成,検索を自動化する。
このAIアシスタントは、コンプライアンスチェックに関わる手作業を削減するだけでなく、精度と効率を向上させる。
論文 参考訳(メタデータ) (2024-07-19T08:33:07Z) - Operationalizing the Blueprint for an AI Bill of Rights: Recommendations for Practitioners, Researchers, and Policy Makers [20.16404495546234]
世界の様々な国でいくつかの規制の枠組みが導入されている。
これらのフレームワークの多くは、AIツールの監査と信頼性向上の必要性を強調している。
これらの規制の枠組みは実施の必要性を強調しているが、実践者はしばしば実施に関する詳細なガイダンスを欠いている。
我々は、最先端の文献の分かりやすい要約を提供し、規制ガイドラインと既存のAI研究の間に存在する様々なギャップを強調します。
論文 参考訳(メタデータ) (2024-07-11T17:28:07Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - Inherent Diverse Redundant Safety Mechanisms for AI-based Software
Elements in Automotive Applications [1.6495054381576084]
本稿では,自律走行システムにおける人工知能(AI)アルゴリズムの役割と課題について考察する。
主な関心事は、AIモデルの初期のトレーニングデータを超えて一般化する能力(と必要性)に関連している。
本稿では、自律運転のような安全クリティカルなアプリケーションにおける過信AIモデルに関連するリスクについて検討する。
論文 参考訳(メタデータ) (2024-02-13T04:15:26Z) - Safeguarded Progress in Reinforcement Learning: Safe Bayesian
Exploration for Control Policy Synthesis [63.532413807686524]
本稿では、強化学習(RL)におけるトレーニング中の安全維持の問題に対処する。
探索中の効率的な進捗と安全性のトレードオフを扱う新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-12-18T16:09:43Z) - A Case for AI Safety via Law [0.0]
人工知能(AI)システムを安全にし、人間の価値と整合させるには、オープンな研究課題である。
提案された解決策は、不確実な状況における人間の介入に依存する傾向にある。
本稿では,AIの安全性に対処する上で,効果的な法体系が最善の方法であることを示す。
論文 参考訳(メタデータ) (2023-07-31T19:55:27Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z) - Constrained Reinforcement Learning for Robotics via Scenario-Based
Programming [64.07167316957533]
DRLをベースとしたエージェントの性能を最適化し,その動作を保証することが重要である。
本稿では,ドメイン知識を制約付きDRLトレーニングループに組み込む新しい手法を提案する。
我々の実験は、専門家の知識を活用するために我々のアプローチを用いることで、エージェントの安全性と性能が劇的に向上することを示した。
論文 参考訳(メタデータ) (2022-06-20T07:19:38Z) - Compliance Challenges in Forensic Image Analysis Under the Artificial
Intelligence Act [8.890638003061605]
法医学的画像解析における機械学習の利用が、なぜハイリスクに分類されるのかを概観する。
ドラフトAI法の下では、法執行機関で使用されるリスクの高いAIシステムは許可されるが、必須要件に従わなければならない。
論文 参考訳(メタデータ) (2022-03-01T14:03:23Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Multi-Agent Reinforcement Learning with Temporal Logic Specifications [65.79056365594654]
本研究では,時間論理仕様を満たすための学習課題を,未知の環境下でエージェントのグループで検討する。
我々は、時間論理仕様のための最初のマルチエージェント強化学習手法を開発した。
主アルゴリズムの正確性と収束性を保証する。
論文 参考訳(メタデータ) (2021-02-01T01:13:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。