論文の概要: Using Behavior Trees in Risk Assessment
- arxiv url: http://arxiv.org/abs/2506.12089v1
- Date: Wed, 11 Jun 2025 13:07:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:45.092401
- Title: Using Behavior Trees in Risk Assessment
- Title(参考訳): リスクアセスメントにおける行動木の利用
- Authors: Razan Ghzouli, Atieh Hanna, Endre Erös, Rebekka Wohlrab,
- Abstract要約: 本稿では,開発中心の早期リスク評価のためのモデルに基づくアプローチを提案する。
本研究では,行動木モデルを用いてリスク評価活動を支援する。
本研究は,コード実装とリスク評価のアウトプットのギャップを埋める早期識別,可視化,支援における行動ツリーモデルの可能性を明らかにするものである。
- 参考スコア(独自算出の注目度): 1.3499500088995462
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cyber-physical production systems increasingly involve collaborative robotic missions, requiring more demand for robust and safe missions. Industries rely on risk assessments to identify potential failures and implement measures to mitigate their risks. Although it is recommended to conduct risk assessments early in the design of robotic missions, the state of practice in the industry is different. Safety experts often struggle to completely understand robotics missions at the early design stages of projects and to ensure that the output of risk assessments is adequately considered during implementation. This paper presents a design science study that conceived a model-based approach for early risk assessment in a development-centric way. Our approach supports risk assessment activities by using the behavior-tree model. We evaluated the approach together with five practitioners from four companies. Our findings highlight the potential of the behavior-tree model in supporting early identification, visualisation, and bridging the gap between code implementation and risk assessments' outputs. This approach is the first attempt to use the behavior-tree model to support risk assessment; thus, the findings highlight the need for further development.
- Abstract(参考訳): サイバー物理生産システムは、ますます協力的なロボティクスのミッションを伴い、より堅牢で安全なミッションを要求されるようになる。
産業は潜在的な失敗を特定し、リスクを軽減するための対策を実施するためにリスクアセスメントに依存している。
ロボットミッションの設計において早期にリスクアセスメントを行うことが推奨されているが、業界における実践状況は異なる。
安全の専門家は、プロジェクトの初期段階におけるロボティクスのミッションを完全に理解し、実装中にリスクアセスメントのアウトプットが適切に考慮されていることを保証するのに苦労することが多い。
本稿では,開発中心の早期リスク評価のためのモデルに基づくアプローチを考案したデザインサイエンス研究について述べる。
本研究では,行動木モデルを用いてリスク評価活動を支援する。
このアプローチを,4つの企業から5人の実践者とともに評価した。
本研究は,コード実装とリスク評価のアウトプットのギャップを埋める早期識別,可視化,支援における行動ツリーモデルの可能性を明らかにするものである。
このアプローチは、リスクアセスメントをサポートするために行動木モデルを使用する最初の試みである。
関連論文リスト
- Probabilistic modelling and safety assurance of an agriculture robot providing light-treatment [0.0]
農業ロボットの採用は、新しい技術の信頼性、堅牢性、安全性に対する農家の信頼を仮定している。
本稿では,早期開発段階における確率論的モデリングとリスク分析の枠組みについて考察する。
論文 参考訳(メタデータ) (2025-06-24T13:39:32Z) - Adapting Probabilistic Risk Assessment for AI [0.0]
汎用人工知能(AI)システムは、緊急リスク管理の課題を示す。
現在の手法は、しばしば選択的なテストとリスク優先順位に関する未文書の仮定に依存します。
本稿では,AIフレームワークの確率的リスクアセスメント(PRA)を紹介する。
論文 参考訳(メタデータ) (2025-04-25T17:59:14Z) - What Makes an Evaluation Useful? Common Pitfalls and Best Practices [3.4740704830599385]
本稿では、脅威モデリングと評価設計を結びつける初期思考プロセスのステップについて論じる。
評価に有用な特徴とパラメータを提供する。
論文 参考訳(メタデータ) (2025-03-30T12:51:47Z) - AILuminate: Introducing v1.0 of the AI Risk and Reliability Benchmark from MLCommons [62.374792825813394]
本稿ではAI製品リスクと信頼性を評価するための業界標準ベンチマークとして,AIluminate v1.0を紹介する。
このベンチマークは、危険、違法、または望ましくない行動を12の危険カテゴリーで引き起こすように設計されたプロンプトに対するAIシステムの抵抗を評価する。
論文 参考訳(メタデータ) (2025-02-19T05:58:52Z) - EARBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [53.717918131568936]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
本研究では,EAIシナリオにおける身体的リスクの自動評価のための新しいフレームワークEARBenchを紹介する。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z) - Evaluating Frontier Models for Dangerous Capabilities [59.129424649740855]
危険な能力」の評価プログラムを導入し、Gemini 1.0モデルで試行する。
評価対象は,(1)説得と騙し,(2)サイバーセキュリティ,(3)自己増殖,(4)自己推論の4分野である。
我々の目標は、将来のモデルに備えて、危険な能力評価の厳格な科学を前進させることです。
論文 参考訳(メタデータ) (2024-03-20T17:54:26Z) - Model evaluation for extreme risks [46.53170857607407]
AI開発のさらなる進歩は、攻撃的なサイバー能力や強力な操作スキルのような極端なリスクを引き起こす能力につながる可能性がある。
モデル評価が極端なリスクに対処するために重要である理由を説明します。
論文 参考訳(メタデータ) (2023-05-24T16:38:43Z) - Towards Safer Generative Language Models: A Survey on Safety Risks,
Evaluations, and Improvements [76.80453043969209]
本調査では,大規模モデルに関する安全研究の枠組みについて述べる。
まず、広範囲にわたる安全問題を導入し、その後、大型モデルの安全性評価手法を掘り下げる。
トレーニングからデプロイメントまで,大規模なモデルの安全性を高めるための戦略について検討する。
論文 参考訳(メタデータ) (2023-02-18T09:32:55Z) - Quantitative AI Risk Assessments: Opportunities and Challenges [7.35411010153049]
リスクを減らす最善の方法は、包括的なAIライフサイクルガバナンスを実装することです。
リスクは技術コミュニティのメトリクスを使って定量化できます。
本稿では,このようなアプローチの機会,課題,潜在的影響に焦点をあてて,これらの課題について考察する。
論文 参考訳(メタデータ) (2022-09-13T21:47:25Z) - Evaluating the Safety of Deep Reinforcement Learning Models using
Semi-Formal Verification [81.32981236437395]
本稿では,区間分析に基づく半形式的意思決定手法を提案する。
本手法は, 標準ベンチマークに比較して, 形式検証に対して比較結果を得る。
提案手法は, 意思決定モデルにおける安全性特性を効果的に評価することを可能にする。
論文 参考訳(メタデータ) (2020-10-19T11:18:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。