論文の概要: Exploring the Relationship Between "Positive Risk Balance" and "Absence
of Unreasonable Risk"
- arxiv url: http://arxiv.org/abs/2110.10566v1
- Date: Wed, 20 Oct 2021 13:52:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-11 00:00:57.586900
- Title: Exploring the Relationship Between "Positive Risk Balance" and "Absence
of Unreasonable Risk"
- Title(参考訳): 肯定的リスクバランス」と「不合理なリスクの排除」の関係を探る
- Authors: Francesca Favaro
- Abstract要約: 本稿は、PRBとAURの概念の概要から始まる。
そして、現在の議論の異なる立場を要約する。
PRBの2つの解釈は、実際には互いに補完することができるが、独立して考えることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: International discussions on the overarching topic of how to define and
quantify what a "safe enough" Automated Driving System (ADS) is are currently
hinged on the question of determining the relationship between "positive risk
balance" (PRB) and "absence of unreasonable risk" (AUR). In order to advance
the conversation on these important safety topics at the international level,
it is first important to start from a shared common understanding, grounded in
clear definitions and terminology. To that end, this paper will start with an
overview of the notions of PRB and AUR; it will then summarize different
positions of the present debate; finally, it will conclude that two possible
interpretations exist for PRB, and that failure to distinguish them can lead to
misunderstanding different parties' positions. The argumentation in this paper
is aimed at showing that the two interpretations for PRB can actually
complement each other, but can be considered independently, and can both be
subsumed within non-prescriptive guidelines toward ADS safety assurance.
- Abstract(参考訳): 安全十分(safe enough)な自動運転システム(ads)の定義と定量化に関する国際的な議論は、現在「ポジティブ・リスク・バランス(prb)」と「不合理なリスクの欠如(absence of unreasonable risk)」の関係を決定する問題にかかっている。
国際レベルでこれらの重要な安全トピックに関する会話を進めるためには、明確な定義と用語に基づく共通理解から始めることが第一に重要である。
そこで本論文は, PRB と AUR の概念の概要から始め, 議論の異なる立場を要約し, 最終的に PRB の解釈が2つあり, 両者を区別できないことは, 当事者の立場を誤解させる可能性があると結論付ける。
本論は, PRBの2つの解釈が相互に補完可能であるが, 独立して考えることが可能であり, ADSの安全性保証に対する非規範的ガイドラインの中で仮定可能であることを示すものである。
関連論文リスト
- Probabilistic Analysis of Copyright Disputes and Generative AI Safety [0.0]
この論文は、特に「逆比則」に重点を置き、重要な顕在的原則の構造化分析を提供する。
本稿では、生成AIによる著作権リスクの増大について検討し、生成モデルによる著作権物質へのアクセスが侵害のリスクを高めることを明らかにする。
この分析により、Near Access-Free (NAF) 条件はいくつかの侵害リスクを緩和するが、その正当性と有効性は特定の文脈で疑わしいことが判明した。
論文 参考訳(メタデータ) (2024-10-01T08:05:19Z) - Cross-Modality Safety Alignment [73.8765529028288]
我々は、モダリティ間の安全アライメントを評価するために、セーフインプットとアンセーフアウトプット(SIUO)と呼ばれる新しい安全アライメントの課題を導入する。
この問題を実証的に調査するため,我々はSIUOを作成した。SIUOは,自己修復,違法行為,プライバシー侵害など,9つの重要な安全領域を含むクロスモダリティベンチマークである。
以上の結果から, クローズドおよびオープンソース両方のLVLMの安全性上の重大な脆弱性が明らかとなり, 複雑で現実的なシナリオを確実に解釈し, 応答する上で, 現行モデルが不十分であることが示唆された。
論文 参考訳(メタデータ) (2024-06-21T16:14:15Z) - AI Risk Management Should Incorporate Both Safety and Security [185.68738503122114]
AIリスクマネジメントの利害関係者は、安全とセキュリティの間のニュアンス、シナジー、相互作用を意識すべきである、と私たちは主張する。
我々は、AIの安全性とAIのセキュリティの違いと相互作用を明らかにするために、統一された参照フレームワークを導入する。
論文 参考訳(メタデータ) (2024-05-29T21:00:47Z) - Auditing Fairness under Unobserved Confounding [56.61738581796362]
リスクファクターがすべて観察されているという仮定を完全に取り除いたり緩和したりしても、ハイリスクな個人に治療率に有意義な限界を与えることができることを示す。
既存の意思決定システムの不公平な結果を原則的に評価することができる。
論文 参考訳(メタデータ) (2024-03-18T21:09:06Z) - Disciplining deliberation: a sociotechnical perspective on machine
learning trade-offs [0.0]
本稿では、責任ある人工知能(AI)分野における2つの高度に公表された正式なトレードオフに焦点を当てる。
これらの考慮を無視することは、私たちの規範的熟考を歪め、費用がかかり、不一致の介入や正当化をもたらすことを示します。
最終的には、これらの考慮から生まれる規範的な機会と課題を抽出し、責任あるAIを育むための学際的なコラボレーションの衝動を強調します。
論文 参考訳(メタデータ) (2024-03-07T05:03:18Z) - A Systematic Review on Fostering Appropriate Trust in Human-AI
Interaction [19.137907393497848]
人工知能の適切な信頼(AI)システムは、研究者と実践者の両方にとって、急速に重要な領域になってきた。
信頼度スコア、説明、信頼度基準、不確実性通信など、様々なアプローチがそれを達成するために使われてきた。
本稿では、適切な信頼を構築するための現在の実践、それを測定するためのさまざまな方法、使用するタスクの種類、それに関連する潜在的な課題を特定するための体系的なレビューを示す。
論文 参考訳(メタデータ) (2023-11-08T12:19:58Z) - Evaluate Confidence Instead of Perplexity for Zero-shot Commonsense
Reasoning [85.1541170468617]
本稿では,コモンセンス推論の性質を再考し,新しいコモンセンス推論尺度であるNon-Replacement Confidence(NRC)を提案する。
提案手法は,2つのコモンセンス推論ベンチマークデータセットと,さらに7つのコモンセンス質問応答データセットに対してゼロショット性能を向上する。
論文 参考訳(メタデータ) (2022-08-23T14:42:14Z) - Towards Identifying Social Bias in Dialog Systems: Frame, Datasets, and
Benchmarks [95.29345070102045]
本稿では,ダイアログの安全性問題に対する社会的バイアス検出に焦点をあてる。
まず,会話における社会的バイアスを現実的に分析する新しいダイアルバイアスフレームを提案する。
中国初の社会バイアスダイアログデータセットであるCDail-Biasデータセットを紹介する。
論文 参考訳(メタデータ) (2022-02-16T11:59:29Z) - Integrating Testing and Operation-related Quantitative Evidences in
Assurance Cases to Argue Safety of Data-Driven AI/ML Components [2.064612766965483]
将来的には、AIは人間の身体に害を与える可能性のあるシステムに、ますます浸透していくだろう。
このような安全クリティカルなシステムでは、その残留リスクが許容範囲を超えないことが証明されなければならない。
本稿では,目標達成のためのより包括的な議論構造を提案する。
論文 参考訳(メタデータ) (2022-02-10T20:35:25Z) - Deep Context- and Relation-Aware Learning for Aspect-based Sentiment
Analysis [3.7175198778996483]
本研究では,深い文脈情報を持つサブタスク間での対話的関係を実現するディープ・コンテクスチュアライズド・リレーア・アウェア・ネットワーク(DCRAN)を提案する。
DCRANは3つの広く使用されているベンチマークにおいて、従来の最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2021-06-07T17:16:15Z) - Dive into Ambiguity: Latent Distribution Mining and Pairwise Uncertainty
Estimation for Facial Expression Recognition [59.52434325897716]
DMUE(DMUE)という,アノテーションのあいまいさを2つの視点から解決するソリューションを提案する。
前者に対しては,ラベル空間における潜伏分布をよりよく記述するために,補助的マルチブランチ学習フレームワークを導入する。
後者の場合、インスタンス間の意味的特徴のペアワイズ関係を完全に活用して、インスタンス空間のあいまいさの程度を推定する。
論文 参考訳(メタデータ) (2021-04-01T03:21:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。