論文の概要: Product safety idioms: a method for building causal Bayesian networks
for product safety and risk assessment
- arxiv url: http://arxiv.org/abs/2206.02144v1
- Date: Sun, 5 Jun 2022 10:16:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-07 16:27:11.567480
- Title: Product safety idioms: a method for building causal Bayesian networks
for product safety and risk assessment
- Title(参考訳): 製品安全イディオム:製品安全性とリスク評価のための因果ベイズネットワーク構築方法
- Authors: Joshua Hunte, Martin Neil, Norman Fenton
- Abstract要約: 導入した特定の製品安全性イディオムは、幅広い製品の安全性とリスクを評価するために完全なBNモデルを構築するのに十分であることを示す。
結果のモデルは、限られた(あるいはない)製品テストデータがある場合でも、安全規制当局や製品メーカーによって使用することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Idioms are small, reusable Bayesian network (BN) fragments that represent
generic types of uncertain reasoning. This paper shows how idioms can be used
to build causal BNs for product safety and risk assessment that use a
combination of data and knowledge. We show that the specific product safety
idioms that we introduce are sufficient to build full BN models to evaluate
safety and risk for a wide range of products. The resulting models can be used
by safety regulators and product manufacturers even when there are limited (or
no) product testing data.
- Abstract(参考訳): イディオムは小さく再利用可能なベイズネットワーク(bn)フラグメントであり、不確定な推論のジェネリックタイプを表す。
本稿では,データと知識を組み合わせた製品安全性とリスク評価のための因果BNを構築するために,イディオムをどのように利用できるかを示す。
当社が導入する製品安全イディオムは、幅広い製品に対する安全性とリスクを評価するためのbnモデルを構築するのに十分であることを示す。
その結果得られたモデルは、限定された(あるいは全く)製品テストデータがある場合でも、安全規制当局や製品製造者が使用できる。
関連論文リスト
- Detectors for Safe and Reliable LLMs: Implementations, Uses, and
Limitations [75.62309487375126]
大規模言語モデル(LLM)は、不誠実なアウトプットからバイアスや有害な世代に至るまで、さまざまなリスクを受けやすい。
我々は,様々な害のラベルを提供するコンパクトで容易に構築できる分類モデルである,検出器のライブラリを作成し,展開する取り組みについて述べる。
論文 参考訳(メタデータ) (2024-03-09T21:07:16Z) - The Art of Defending: A Systematic Evaluation and Analysis of LLM
Defense Strategies on Safety and Over-Defensiveness [56.174255970895466]
大規模言語モデル(LLM)は、自然言語処理アプリケーションにおいて、ますます重要な役割を担っている。
本稿では,SODE(Safety and Over-Defensiveness Evaluation)ベンチマークを提案する。
論文 参考訳(メタデータ) (2023-12-30T17:37:06Z) - Ring-A-Bell! How Reliable are Concept Removal Methods for Diffusion
Models? [54.20337292389793]
Ring-A-Bellは、T2I拡散モデルのためのモデルに依存しないレッドチームツールである。
これは、不適切なコンテンツの生成に対応する拡散モデルに対する問題的プロンプトを特定する。
この結果から,安全プロンプトベンチマークの操作により,既存の安全メカニズムを回避できると考えられるプロンプトを変換できることが示唆された。
論文 参考訳(メタデータ) (2023-10-16T02:11:20Z) - Prompting4Debugging: Red-Teaming Text-to-Image Diffusion Models by
Finding Problematic Prompts [68.24640128324778]
テキストと画像の拡散モデルは、高品質なコンテンツ生成において顕著な能力を示している。
本研究では,拡散モデルの問題を自動検出するツールとして,Prompting4 Debugging (P4D)を提案する。
この結果から,従来のセーフプロンプトベンチマークの約半数は,本来 "セーフ" と考えられていたので,実際に多くのデプロイされた安全機構を回避できることがわかった。
論文 参考訳(メタデータ) (2023-09-12T11:19:36Z) - Online Safety Property Collection and Refinement for Safe Deep
Reinforcement Learning in Mapless Navigation [79.89605349842569]
オンラインプロパティのコレクション・リファインメント(CROP)フレームワークをトレーニング時にプロパティを設計するために導入する。
CROPは、安全でない相互作用を識別し、安全特性を形成するためにコストシグナルを使用する。
本手法をいくつかのロボットマップレスナビゲーションタスクで評価し,CROPで計算した違反量によって,従来のSafe DRL手法よりも高いリターンと低いリターンが得られることを示す。
論文 参考訳(メタデータ) (2023-02-13T21:19:36Z) - Foveate, Attribute, and Rationalize: Towards Physically Safe and
Trustworthy AI [76.28956947107372]
包括的不安全テキストは、日常的なシナリオから生じる可能性のある特定の関心領域であり、有害なテキストを検出するのが困難である。
安全の文脈において、信頼に値する合理的な生成のために外部知識を活用する新しいフレームワークであるFARMを提案する。
実験の結果,FARMはSafeTextデータセットの最先端結果を得ることができ,安全性の分類精度が5.9%向上したことがわかった。
論文 参考訳(メタデータ) (2022-12-19T17:51:47Z) - Enhancing Product Safety in E-Commerce with NLP [2.895747769560711]
本稿では,大規模多国籍eコマースプラットフォームであるZalandoが自然言語処理技術をどのように利用するかを示す。
Zalandoの顧客に関する安全問題の種類を体系的に説明します。
我々は、この中核となるビジネス問題を、高度に不均衡でノイズの多い多言語データを持つ教師付きテキスト分類問題にどのようにマッピングするかを実証する。
論文 参考訳(メタデータ) (2022-10-25T22:10:30Z) - Product risk assessment: a Bayesian network approach [0.0]
RAPEX(英: RAPEX)は、イギリスとEUの規制当局が使用する主要な方法である。
我々は、不確実性を扱うための限定的なアプローチを含む、RAPEXのいくつかの制限を識別する。
本稿では,製品リスク評価のための体系的手法を改良したBNモデルを提案する。
論文 参考訳(メタデータ) (2020-10-09T16:40:03Z) - Towards the Quantification of Safety Risks in Deep Neural Networks [9.161046484753841]
本稿では,ネットワークの判断と人間の知覚との整合性を求めることによって,安全性のリスクを定義する。
リスクの定量化には、安全リスクが存在しない安全な標準球の最大半径を取る。
この論文では、既知の敵の例、到達可能性の例、不変例に加えて、新しいタイプのリスク - 不確実な例を特定する。
論文 参考訳(メタデータ) (2020-09-13T23:30:09Z) - Towards Probability-based Safety Verification of Systems with Components
from Machine Learning [8.75682288556859]
現在、機械学習システムの安全性の検証は不可能か、少なくとも非常に難しいと考えられている。
i) ほとんどのMLアプローチは、そのパワーとエラーの原因の両方である帰納的です。
制御実験により推定された誤差の確率と帰納的学習自体による出力の確率に基づく検証を提案する。
論文 参考訳(メタデータ) (2020-03-02T19:31:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。