論文の概要: Product safety idioms: a method for building causal Bayesian networks
for product safety and risk assessment
- arxiv url: http://arxiv.org/abs/2206.02144v1
- Date: Sun, 5 Jun 2022 10:16:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-07 16:27:11.567480
- Title: Product safety idioms: a method for building causal Bayesian networks
for product safety and risk assessment
- Title(参考訳): 製品安全イディオム:製品安全性とリスク評価のための因果ベイズネットワーク構築方法
- Authors: Joshua Hunte, Martin Neil, Norman Fenton
- Abstract要約: 導入した特定の製品安全性イディオムは、幅広い製品の安全性とリスクを評価するために完全なBNモデルを構築するのに十分であることを示す。
結果のモデルは、限られた(あるいはない)製品テストデータがある場合でも、安全規制当局や製品メーカーによって使用することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Idioms are small, reusable Bayesian network (BN) fragments that represent
generic types of uncertain reasoning. This paper shows how idioms can be used
to build causal BNs for product safety and risk assessment that use a
combination of data and knowledge. We show that the specific product safety
idioms that we introduce are sufficient to build full BN models to evaluate
safety and risk for a wide range of products. The resulting models can be used
by safety regulators and product manufacturers even when there are limited (or
no) product testing data.
- Abstract(参考訳): イディオムは小さく再利用可能なベイズネットワーク(bn)フラグメントであり、不確定な推論のジェネリックタイプを表す。
本稿では,データと知識を組み合わせた製品安全性とリスク評価のための因果BNを構築するために,イディオムをどのように利用できるかを示す。
当社が導入する製品安全イディオムは、幅広い製品に対する安全性とリスクを評価するためのbnモデルを構築するのに十分であることを示す。
その結果得られたモデルは、限定された(あるいは全く)製品テストデータがある場合でも、安全規制当局や製品製造者が使用できる。
関連論文リスト
- Safety case template for frontier AI: A cyber inability argument [2.2628353000034065]
攻撃的サイバー能力のための安全ケーステンプレートを提案する。
リスクモデルを特定し、リスクモデルからプロキシタスクを導出し、プロキシタスクの評価設定を定義し、評価結果を結びつける。
論文 参考訳(メタデータ) (2024-11-12T18:45:08Z) - SafeBench: A Safety Evaluation Framework for Multimodal Large Language Models [75.67623347512368]
MLLMの安全性評価を行うための総合的なフレームワークであるツールンを提案する。
我々のフレームワークは、包括的な有害なクエリデータセットと自動評価プロトコルで構成されています。
本研究では,広く利用されている15のオープンソースMLLMと6つの商用MLLMの大規模実験を行った。
論文 参考訳(メタデータ) (2024-10-24T17:14:40Z) - What Makes and Breaks Safety Fine-tuning? A Mechanistic Study [64.9691741899956]
安全性の微調整は、大規模な言語モデル(LLM)を、安全なデプロイメントのための人間の好みに合わせるのに役立つ。
安全でない入力の健全な側面をキャプチャする合成データ生成フレームワークを設計する。
これを用いて,3つのよく知られた安全微調整手法について検討する。
論文 参考訳(メタデータ) (2024-07-14T16:12:57Z) - Detectors for Safe and Reliable LLMs: Implementations, Uses, and Limitations [76.19419888353586]
大規模言語モデル(LLM)は、不誠実なアウトプットからバイアスや有害な世代に至るまで、さまざまなリスクを受けやすい。
我々は,様々な害のラベルを提供するコンパクトで容易に構築できる分類モデルである,検出器のライブラリを作成し,展開する取り組みについて述べる。
論文 参考訳(メタデータ) (2024-03-09T21:07:16Z) - Ring-A-Bell! How Reliable are Concept Removal Methods for Diffusion Models? [52.238883592674696]
Ring-A-Bellは、T2I拡散モデルのためのモデルに依存しないレッドチームツールである。
これは、不適切なコンテンツの生成に対応する拡散モデルに対する問題的プロンプトを特定する。
この結果から,安全プロンプトベンチマークの操作により,既存の安全メカニズムを回避できると考えられるプロンプトを変換できることが示唆された。
論文 参考訳(メタデータ) (2023-10-16T02:11:20Z) - Online Safety Property Collection and Refinement for Safe Deep
Reinforcement Learning in Mapless Navigation [79.89605349842569]
オンラインプロパティのコレクション・リファインメント(CROP)フレームワークをトレーニング時にプロパティを設計するために導入する。
CROPは、安全でない相互作用を識別し、安全特性を形成するためにコストシグナルを使用する。
本手法をいくつかのロボットマップレスナビゲーションタスクで評価し,CROPで計算した違反量によって,従来のSafe DRL手法よりも高いリターンと低いリターンが得られることを示す。
論文 参考訳(メタデータ) (2023-02-13T21:19:36Z) - Foveate, Attribute, and Rationalize: Towards Physically Safe and
Trustworthy AI [76.28956947107372]
包括的不安全テキストは、日常的なシナリオから生じる可能性のある特定の関心領域であり、有害なテキストを検出するのが困難である。
安全の文脈において、信頼に値する合理的な生成のために外部知識を活用する新しいフレームワークであるFARMを提案する。
実験の結果,FARMはSafeTextデータセットの最先端結果を得ることができ,安全性の分類精度が5.9%向上したことがわかった。
論文 参考訳(メタデータ) (2022-12-19T17:51:47Z) - Enhancing Product Safety in E-Commerce with NLP [2.895747769560711]
本稿では,大規模多国籍eコマースプラットフォームであるZalandoが自然言語処理技術をどのように利用するかを示す。
Zalandoの顧客に関する安全問題の種類を体系的に説明します。
我々は、この中核となるビジネス問題を、高度に不均衡でノイズの多い多言語データを持つ教師付きテキスト分類問題にどのようにマッピングするかを実証する。
論文 参考訳(メタデータ) (2022-10-25T22:10:30Z) - Product risk assessment: a Bayesian network approach [0.0]
RAPEX(英: RAPEX)は、イギリスとEUの規制当局が使用する主要な方法である。
我々は、不確実性を扱うための限定的なアプローチを含む、RAPEXのいくつかの制限を識別する。
本稿では,製品リスク評価のための体系的手法を改良したBNモデルを提案する。
論文 参考訳(メタデータ) (2020-10-09T16:40:03Z) - Towards the Quantification of Safety Risks in Deep Neural Networks [9.161046484753841]
本稿では,ネットワークの判断と人間の知覚との整合性を求めることによって,安全性のリスクを定義する。
リスクの定量化には、安全リスクが存在しない安全な標準球の最大半径を取る。
この論文では、既知の敵の例、到達可能性の例、不変例に加えて、新しいタイプのリスク - 不確実な例を特定する。
論文 参考訳(メタデータ) (2020-09-13T23:30:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。