論文の概要: Workflow for Safe-AI
- arxiv url: http://arxiv.org/abs/2503.14563v1
- Date: Tue, 18 Mar 2025 07:45:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-20 15:26:03.838544
- Title: Workflow for Safe-AI
- Title(参考訳): 安全なAIのためのワークフロー
- Authors: Suzana Veljanovska, Hans Dermot Doran,
- Abstract要約: 機能的安全性が重要な関心事であるアプリケーションにおいて、安全で信頼性の高いAIモデルの開発とデプロイが不可欠である。
この作業では、信頼性と質的可能性の両方を強調した、透明で、完全で、柔軟で、軽量なワークフローを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The development and deployment of safe and dependable AI models is crucial in applications where functional safety is a key concern. Given the rapid advancement in AI research and the relative novelty of the safe-AI domain, there is an increasing need for a workflow that balances stability with adaptability. This work proposes a transparent, complete, yet flexible and lightweight workflow that highlights both reliability and qualifiability. The core idea is that the workflow must be qualifiable, which demands the use of qualified tools. Tool qualification is a resource-intensive process, both in terms of time and cost. We therefore place value on a lightweight workflow featuring a minimal number of tools with limited features. The workflow is built upon an extended ONNX model description allowing for validation of AI algorithms from their generation to runtime deployment. This validation is essential to ensure that models are validated before being reliably deployed across different runtimes, particularly in mixed-criticality systems. Keywords-AI workflows, safe-AI, dependable-AI, functional safety, v-model development
- Abstract(参考訳): 機能的安全性が重要な関心事であるアプリケーションにおいて、安全で信頼性の高いAIモデルの開発とデプロイが不可欠である。
AI研究の急速な進歩とセーフAIドメインの相対的な新規性を考えると、安定性と適応性のバランスをとるワークフローの必要性が高まっている。
この作業では、信頼性と質的可能性の両方を強調した、透明で、完全で、柔軟で、軽量なワークフローを提案する。
中心となる考え方は、ワークフローが適格でなければならない、ということです。
ツールの資格は、時間とコストの両面で、リソース集約的なプロセスである。
そのため、限られた機能を備えた最小限のツールを備えた軽量なワークフローに価値を置いています。
ワークフローは拡張されたONNXモデル記述に基づいて構築されており、生成からランタイムデプロイメントまでのAIアルゴリズムの検証が可能になる。
この検証は、モデルが異なるランタイム、特に混合臨界システムに確実にデプロイされる前に、確実に検証されることを保証するために不可欠である。
キーワードAIワークフロー、セーフAI、信頼可能なAI、機能安全性、Vモデル開発
関連論文リスト
- Flow: Modularized Agentic Workflow Automation [53.073598156915615]
大規模言語モデル(LLM)を利用したマルチエージェントフレームワークは、自動計画とタスク実行において大きな成功を収めている。
しかし, 実行中のエージェントの効果的な調整は十分に研究されていない。
本稿では,エージェントによる継続的なワークフロー改善を可能にするアクティビティ・オン・頂点(AOV)グラフを定義する。
提案するマルチエージェントフレームワークは,サブタスクの効率的な同時実行,効果的なゴール達成,エラー耐性の向上を実現している。
論文 参考訳(メタデータ) (2025-01-14T04:35:37Z) - ActSafe: Active Exploration with Safety Constraints for Reinforcement Learning [48.536695794883826]
本稿では,安全かつ効率的な探索のためのモデルベースRLアルゴリズムであるActSafeを提案する。
本稿では,ActSafeが学習中の安全性を保証しつつ,有限時間で準最適政策を得ることを示す。
さらに,最新のモデルベースRLの進歩に基づくActSafeの実用版を提案する。
論文 参考訳(メタデータ) (2024-10-12T10:46:02Z) - Model Developmental Safety: A Retention-Centric Method and Applications in Vision-Language Models [75.8161094916476]
本稿では,事前学習された視覚言語モデル,特にCLIPモデルの開発手法について検討する。
自律走行とシーン認識データセットにおける視覚知覚能力の向上に関する実験は,提案手法の有効性を実証するものである。
論文 参考訳(メタデータ) (2024-10-04T22:34:58Z) - An Early-Stage Workflow Proposal for the Generation of Safe and Dependable AI Classifiers [0.0]
資格のある安全で信頼性の高いAIモデルの生成と実行は、透明で、完全で、適応可能で、好ましい軽量ワークフローの定義を必要とする。
この初期段階の研究は、拡張されたONNXモデル記述に基づいて、そのようなワークフローを提案する。
ユースケースは、他のサードパーティのユースケースによって拡張されると思われる、このボディの1つの基盤を提供します。
論文 参考訳(メタデータ) (2024-10-01T14:00:53Z) - Hybrid Convolutional Neural Networks with Reliability Guarantee [0.0]
我々は、AIモデルの信頼性を確保するために、よく知られた手法として冗長実行を提案する。
このジェネリックテクニックは、十分に文書化された安全性や信頼性を特徴としないAI加速器の応用範囲を拡張する。
論文 参考訳(メタデータ) (2024-05-08T15:39:38Z) - Science based AI model certification for untrained operational environments with application in traffic state estimation [1.2186759689780324]
さまざまなエンジニアリング領域における人工知能(AI)の役割の拡大は、AIモデルを新たな運用環境にデプロイする際の課題を強調している。
本稿では,未訓練の運用環境における事前学習データ駆動モデルの適用可能性を評価するための,科学ベースの認証手法を提案する。
論文 参考訳(メタデータ) (2024-03-21T03:01:25Z) - Inherent Diverse Redundant Safety Mechanisms for AI-based Software
Elements in Automotive Applications [1.6495054381576084]
本稿では,自律走行システムにおける人工知能(AI)アルゴリズムの役割と課題について考察する。
主な関心事は、AIモデルの初期のトレーニングデータを超えて一般化する能力(と必要性)に関連している。
本稿では、自律運転のような安全クリティカルなアプリケーションにおける過信AIモデルに関連するリスクについて検討する。
論文 参考訳(メタデータ) (2024-02-13T04:15:26Z) - Scaling #DNN-Verification Tools with Efficient Bound Propagation and
Parallel Computing [57.49021927832259]
ディープニューラルネットワーク(DNN)は多くのシナリオで異常な結果を示した強力なツールです。
しかし、それらの複雑な設計と透明性の欠如は、現実世界のアプリケーションに適用する際の安全性上の懸念を提起する。
DNNの形式的検証(FV)は、安全面の証明可能な保証を提供する貴重なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-12-10T13:51:25Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z) - Enabling Automated Machine Learning for Model-Driven AI Engineering [60.09869520679979]
モデル駆動型ソフトウェアエンジニアリングとモデル駆動型AIエンジニアリングを実現するための新しいアプローチを提案する。
特に、私たちはAutomated MLをサポートし、AI集約システムの開発において、AIの深い知識のないソフトウェアエンジニアを支援します。
論文 参考訳(メタデータ) (2022-03-06T10:12:56Z) - Tools and Practices for Responsible AI Engineering [0.5249805590164901]
我々は、責任あるAIエンジニアリングに対する重要なニーズに対処する2つの新しいソフトウェアライブラリを提示する。
hydra-zenは、複雑なAIアプリケーションとその振る舞いを再現するプロセスを劇的に単純化する。
rAI-toolboxは、AIモデルの堅牢性を評価し、拡張する方法を可能にするように設計されている。
論文 参考訳(メタデータ) (2022-01-14T19:47:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。