論文の概要: On Specifying for Trustworthiness
- arxiv url: http://arxiv.org/abs/2206.11421v1
- Date: Wed, 22 Jun 2022 23:37:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-24 14:17:16.269234
- Title: On Specifying for Trustworthiness
- Title(参考訳): 信頼性の特定について
- Authors: Dhaminda B. Abeywickrama, Amel Bennaceur, Greg Chance, Yiannis
Demiris, Anastasia Kordoni, Mark Levine, Luke Moffat, Luc Moreau, Mohammad
Reza Mousavi, Bashar Nuseibeh, Subramanian Ramamoorthy, Jan Oliver Ringert,
James Wilson, Shane Windsor, Kerstin Eder
- Abstract要約: 私たちは、機能、安全性、セキュリティ、その他の機能的でない性質に制限されない、トップレベルの要件に集中して、幅広い仕様の見方を取ります。
本稿の主な貢献は、自律システムコミュニティにおける信頼性の特定に関連する、ハイレベルな知的課題の集合である。
- 参考スコア(独自算出の注目度): 33.9727512751834
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As autonomous systems are becoming part of our daily lives, ensuring their
trustworthiness is crucial. There are a number of techniques for demonstrating
trustworthiness. Common to all these techniques is the need to articulate
specifications. In this paper, we take a broad view of specification,
concentrating on top-level requirements including but not limited to
functionality, safety, security and other non-functional properties. The main
contribution of this article is a set of high-level intellectual challenges for
the autonomous systems community related to specifying for trustworthiness. We
also describe unique specification challenges concerning a number of
application domains for autonomous systems.
- Abstract(参考訳): 自律システムは私たちの日常生活の一部になりつつあるため、信頼の確保が不可欠です。
信頼性を示す技術はいくつかある。
これらのテクニックすべてに共通しているのは、仕様を明確化する必要があることです。
本稿では,機能,安全性,セキュリティ,その他の非機能特性に限らず,トップレベルの要件に重点を置いて,幅広い仕様を考察する。
本稿の主な貢献は、自律システムコミュニティにおける信頼性の特定に関連する高度な知的課題の集合である。
また,自律システムのためのアプリケーションドメインに関するユニークな仕様の課題についても述べる。
関連論文リスト
- On the Trustworthiness of Generative Foundation Models: Guideline, Assessment, and Perspective [314.7991906491166]
Generative Foundation Models (GenFMs) がトランスフォーメーションツールとして登場した。
彼らの広く採用されていることは、次元の信頼に関する重要な懸念を提起する。
本稿では,3つの主要なコントリビューションを通じて,これらの課題に対処するための包括的枠組みを提案する。
論文 参考訳(メタデータ) (2025-02-20T06:20:36Z) - Assessing the Trustworthiness of Electronic Identity Management Systems: Framework and Insights from Inception to Deployment [9.132025152225447]
本稿ではDISTAF(Digital Identity Systems Trustworthiness Assessment Framework)を紹介する。
65以上のメカニズムと、国際標準や技術ガイドラインから派生した400以上のメトリクスによって支援されている。
我々は, Modular Open Source Identity Platform (MOSIP) インスタンスを用いた実世界の実装による DISTAF の応用を実演する。
論文 参考訳(メタデータ) (2025-02-15T11:26:30Z) - Towards Trustworthy Retrieval Augmented Generation for Large Language Models: A Survey [92.36487127683053]
Retrieval-Augmented Generation (RAG)は、AIGC(AIGC)の課題に対処するために設計された高度な技術である。
RAGは信頼性と最新の外部知識を提供し、幻覚を減らし、幅広いタスクで関連するコンテキストを保証する。
RAGの成功と可能性にもかかわらず、最近の研究により、RAGパラダイムはプライバシーの懸念、敵対的攻撃、説明責任の問題など、新たなリスクももたらしていることが示されている。
論文 参考訳(メタデータ) (2025-02-08T06:50:47Z) - Trustworthiness for an Ultra-Wideband Localization Service [2.4979362117484714]
本稿では,超広帯域自己ローカライゼーションのための総合的信頼性評価フレームワークを提案する。
我々の目標は、客観的な証拠に基づいてシステムの信頼性を評価するためのガイダンスを提供することである。
我々のアプローチは、結果の信頼性指標が、選択された現実世界の脅威に対応することを保証します。
論文 参考訳(メタデータ) (2024-08-10T11:57:10Z) - When to Trust LLMs: Aligning Confidence with Response Quality [49.371218210305656]
我々はconfidence-Quality-ORDer保存アライメントアプローチ(CONQORD)を提案する。
品質報酬と秩序保存アライメント報酬機能を統合する。
実験により,CONQORDは信頼性と応答精度のアライメント性能を著しく向上することが示された。
論文 参考訳(メタデータ) (2024-04-26T09:42:46Z) - U-Trustworthy Models.Reliability, Competence, and Confidence in
Decision-Making [0.21756081703275998]
信頼性の正確な数学的定義を$mathcalU$-trustworthinessと呼ぶ。
$mathcalU$-trustworthinessの文脈において、適切にランク付けされたモデルは本質的に$mathcalU$-trustworthyであることが証明される。
我々は、信頼度を優先する尺度として、AUCメートル法の採用を提唱する。
論文 参考訳(メタデータ) (2024-01-04T04:58:02Z) - A Survey on Trustworthy Edge Intelligence: From Security and Reliability
To Transparency and Sustainability [32.959723590246384]
Edge Intelligence(EI)は、エッジコンピューティング(EC)と人工知能(AI)を統合して、AIの能力をネットワークエッジにプッシュする。
この調査は、信頼できるEIの特徴、アーキテクチャ、技術、ソリューションを包括的にまとめたものです。
論文 参考訳(メタデータ) (2023-10-27T07:39:54Z) - Assessing Trustworthiness of Autonomous Systems [0.0]
社会において、自律システム(AS)がよりユビキタスになり、より安全とそれとの相互作用に責任を負うようになり、それらが信頼に値することが不可欠である。
ASの信頼性を評価することは、検証と開発コミュニティにとって必須の課題である。
これは、現在および将来の幅広いアプリケーションにおいて、ASの信頼性を客観的かつ相対的に判断するのに役立つ適切な標準と適切なメトリクスを必要とします。
論文 参考訳(メタデータ) (2023-05-05T10:26:16Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Where Does Trust Break Down? A Quantitative Trust Analysis of Deep
Neural Networks via Trust Matrix and Conditional Trust Densities [94.65749466106664]
本稿では,新しい信頼量化戦略である信頼行列の概念を紹介する。
信頼行列は、所定のアクター・オークル回答シナリオに対して期待される質問・回答信頼を定義する。
我々は、条件付き信頼密度の概念により、信頼密度の概念をさらに拡張する。
論文 参考訳(メタデータ) (2020-09-30T14:33:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。