論文の概要: The SET Perceptual Factors Framework: Towards Assured Perception for Autonomous Systems
- arxiv url: http://arxiv.org/abs/2508.10798v1
- Date: Thu, 14 Aug 2025 16:22:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-15 22:24:48.406894
- Title: The SET Perceptual Factors Framework: Towards Assured Perception for Autonomous Systems
- Title(参考訳): SET知覚因子フレームワーク - 自律システムに対する保証認識に向けて-
- Authors: Troi Williams,
- Abstract要約: 主な関心事は、ロボットの認識の信頼性を保証することだ。
SET (Self, Environment, and Target) Perceptual Factors Framework を導入する。
我々の枠組みは、厳格な安全保証の促進と、自律システムに対する国民の理解と信頼の向上を目的としている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Future autonomous systems promise significant societal benefits, yet their deployment raises concerns about safety and trustworthiness. A key concern is assuring the reliability of robot perception, as perception seeds safe decision-making. Failures in perception are often due to complex yet common environmental factors and can lead to accidents that erode public trust. To address this concern, we introduce the SET (Self, Environment, and Target) Perceptual Factors Framework. We designed the framework to systematically analyze how factors such as weather, occlusion, or sensor limitations negatively impact perception. To achieve this, the framework employs SET State Trees to categorize where such factors originate and SET Factor Trees to model how these sources and factors impact perceptual tasks like object detection or pose estimation. Next, we develop Perceptual Factor Models using both trees to quantify the uncertainty for a given task. Our framework aims to promote rigorous safety assurances and cultivate greater public understanding and trust in autonomous systems by offering a transparent and standardized method for identifying, modeling, and communicating perceptual risks.
- Abstract(参考訳): 将来の自律システムは大きな社会的利益を約束するが、その展開は安全性と信頼性に関する懸念を提起する。
重要な関心事は、ロボットの認識の信頼性を保証することである。
認識の失敗は、しばしば複雑なが一般的な環境要因によるものであり、公共の信頼を損なう事故につながる。
この問題に対処するため,SET (Self, Environment, and Target) Perceptual Factors Frameworkを紹介した。
天気・閉塞・センサ制限などの要因が知覚に悪影響を及ぼすのかを系統的に分析する枠組みを設計した。
これを実現するために、フレームワークはSET State Treesを使用して、そのような要因がどこから生まれたのかを分類し、SET Factor Treesを使用して、これらのソースとファクタがオブジェクトの検出やポーズ推定といった知覚的なタスクにどのように影響するかをモデル化する。
次に,両木を用いて知覚因子モデルを構築し,与えられたタスクの不確実性を定量化する。
本フレームワークは,自律システムに対する厳格な安全保証の促進と,知覚リスクを特定し,モデル化し,伝達するための透過的かつ標準化された方法を提供することにより,より公衆の理解と信頼を高めることを目的としている。
関連論文リスト
- Enhancing Uncertainty Quantification for Runtime Safety Assurance Using Causal Risk Analysis and Operational Design Domain [0.0]
本研究では,環境条件を明確に取り入れた従来の不確実性定量化の強化を提案する。
本研究では,ハザード解析・リスクアセスメント(HARA)とフォールトツリーモデリングを活用し,システム機能に影響を及ぼす重要な運用条件を特定する。
実行時に、このBNはリアルタイム環境観測を用いてインスタンス化され、安全推定よりも確率分布を推定する。
論文 参考訳(メタデータ) (2025-07-04T12:12:32Z) - Probabilistic modelling and safety assurance of an agriculture robot providing light-treatment [0.0]
農業ロボットの採用は、新しい技術の信頼性、堅牢性、安全性に対する農家の信頼を仮定している。
本稿では,早期開発段階における確率論的モデリングとリスク分析の枠組みについて考察する。
論文 参考訳(メタデータ) (2025-06-24T13:39:32Z) - Towards Responsible AI: Advances in Safety, Fairness, and Accountability of Autonomous Systems [0.0]
この論文は、AIシステムの安全性、公正性、透明性、説明責任に関する知識を前進させる。
我々は,古典的決定論的遮蔽技術を拡張し,遅延観測に対する耐性を高める。
我々は,グループフェアネスを逐次決定設定で強制するための,新しい後処理手法であるフェアネスシールドを導入する。
論文 参考訳(メタデータ) (2025-06-11T21:30:02Z) - On the Fairness, Diversity and Reliability of Text-to-Image Generative Models [68.62012304574012]
マルチモーダル生成モデルは 信頼性 公正性 誤用の可能性について 批判的な議論を巻き起こしました
埋め込み空間におけるグローバルおよびローカルな摂動に対する応答を解析し、モデルの信頼性を評価するための評価フレームワークを提案する。
提案手法は, 信頼できない, バイアス注入されたモデルを検出し, 組込みバイアスの証明をトレースするための基礎となる。
論文 参考訳(メタデータ) (2024-11-21T09:46:55Z) - Know Where You're Uncertain When Planning with Multimodal Foundation Models: A Formal Framework [54.40508478482667]
認識と計画生成の不確実性を解消し、定量化し、緩和する包括的枠組みを提案する。
本稿では,知覚と意思決定の独特な性質に合わせた手法を提案する。
この不確実性分散フレームワークは, 変動率を最大40%削減し, タスク成功率をベースラインに比べて5%向上させることを示した。
論文 参考訳(メタデータ) (2024-11-03T17:32:00Z) - Trustworthiness for an Ultra-Wideband Localization Service [2.4979362117484714]
本稿では,超広帯域自己ローカライゼーションのための総合的信頼性評価フレームワークを提案する。
我々の目標は、客観的な証拠に基づいてシステムの信頼性を評価するためのガイダンスを提供することである。
我々のアプローチは、結果の信頼性指標が、選択された現実世界の脅威に対応することを保証します。
論文 参考訳(メタデータ) (2024-08-10T11:57:10Z) - Grasping Causality for the Explanation of Criticality for Automated
Driving [0.0]
本研究では,自動走行における安全関連要因の因果的理解を促進する因果的クエリの形式化を提案する。
ジュデア・パールの因果論に基づいて、因果関係を文脈とともに因果構造として定義する。
因果クエリに対する応答を正当に推定するには,データの可用性と品質が不可欠であるため,実世界および合成データ取得の要件についても論じる。
論文 参考訳(メタデータ) (2022-10-27T12:37:00Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - Towards robust sensing for Autonomous Vehicles: An adversarial
perspective [82.83630604517249]
結果として得られる決定が摂動に対して堅牢であることは、最も重要なことです。
敵対的摂動は、意図的に環境や感覚測定の修正を施したものである。
より安全なシステムの構築とデプロイには,センサーシステムの脆弱性を慎重に評価する必要がある。
論文 参考訳(メタデータ) (2020-07-14T05:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。