論文の概要: On Specifying for Trustworthiness
- arxiv url: http://arxiv.org/abs/2206.11421v2
- Date: Sun, 20 Aug 2023 16:16:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-23 03:05:45.643259
- Title: On Specifying for Trustworthiness
- Title(参考訳): 信頼性の特定について
- Authors: Dhaminda B. Abeywickrama, Amel Bennaceur, Greg Chance, Yiannis
Demiris, Anastasia Kordoni, Mark Levine, Luke Moffat, Luc Moreau, Mohammad
Reza Mousavi, Bashar Nuseibeh, Subramanian Ramamoorthy, Jan Oliver Ringert,
James Wilson, Shane Windsor, Kerstin Eder
- Abstract要約: 私たちは、ASのレジリエンス、信頼、機能、検証可能性、セキュリティ、ガバナンスと規制を考慮して、様々なASドメインを調査します。
我々は、ASにおける信頼性の特定にかかわる知的課題を強調し、ASが運用する必要がある環境にかかわる本質的な不確実性によって悪化している。
- 参考スコア(独自算出の注目度): 39.845582350253515
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As autonomous systems (AS) increasingly become part of our daily lives,
ensuring their trustworthiness is crucial. In order to demonstrate the
trustworthiness of an AS, we first need to specify what is required for an AS
to be considered trustworthy. This roadmap paper identifies key challenges for
specifying for trustworthiness in AS, as identified during the "Specifying for
Trustworthiness" workshop held as part of the UK Research and Innovation (UKRI)
Trustworthy Autonomous Systems (TAS) programme. We look across a range of AS
domains with consideration of the resilience, trust, functionality,
verifiability, security, and governance and regulation of AS and identify some
of the key specification challenges in these domains. We then highlight the
intellectual challenges that are involved with specifying for trustworthiness
in AS that cut across domains and are exacerbated by the inherent uncertainty
involved with the environments in which AS need to operate.
- Abstract(参考訳): 自律システム(AS)が私たちの日常生活の一部になるにつれて、信頼の確保が不可欠です。
ASの信頼性を示すために、まずは、ASが信頼できるとみなすために必要なものを特定する必要がある。
本稿では,英国研究・イノベーション(UKRI)の信頼に値する自律システム(TAS)プログラムの一環として開催される「信頼の特定」ワークショップにおいて,ASにおける信頼の特定に関する重要な課題を明らかにする。
私たちは、ASのレジリエンス、信頼、機能、検証可能性、セキュリティ、ガバナンスと規制を考慮して、様々なASドメインを調査し、これらのドメインの主要な仕様課題をいくつか特定します。
次に、ASの信頼性の特定にかかわる知的課題を強調し、ASが運用する必要がある環境にかかわる本質的な不確実性によって悪化する。
関連論文リスト
- On the Trustworthiness of Generative Foundation Models: Guideline, Assessment, and Perspective [314.7991906491166]
Generative Foundation Models (GenFMs) がトランスフォーメーションツールとして登場した。
彼らの広く採用されていることは、次元の信頼に関する重要な懸念を提起する。
本稿では,3つの主要なコントリビューションを通じて,これらの課題に対処するための包括的枠組みを提案する。
論文 参考訳(メタデータ) (2025-02-20T06:20:36Z) - Assessing the Trustworthiness of Electronic Identity Management Systems: Framework and Insights from Inception to Deployment [9.132025152225447]
本稿ではDISTAF(Digital Identity Systems Trustworthiness Assessment Framework)を紹介する。
65以上のメカニズムと、国際標準や技術ガイドラインから派生した400以上のメトリクスによって支援されている。
我々は, Modular Open Source Identity Platform (MOSIP) インスタンスを用いた実世界の実装による DISTAF の応用を実演する。
論文 参考訳(メタデータ) (2025-02-15T11:26:30Z) - Towards Trustworthy Retrieval Augmented Generation for Large Language Models: A Survey [92.36487127683053]
Retrieval-Augmented Generation (RAG)は、AIGC(AIGC)の課題に対処するために設計された高度な技術である。
RAGは信頼性と最新の外部知識を提供し、幻覚を減らし、幅広いタスクで関連するコンテキストを保証する。
RAGの成功と可能性にもかかわらず、最近の研究により、RAGパラダイムはプライバシーの懸念、敵対的攻撃、説明責任の問題など、新たなリスクももたらしていることが示されている。
論文 参考訳(メタデータ) (2025-02-08T06:50:47Z) - Trustworthiness for an Ultra-Wideband Localization Service [2.4979362117484714]
本稿では,超広帯域自己ローカライゼーションのための総合的信頼性評価フレームワークを提案する。
我々の目標は、客観的な証拠に基づいてシステムの信頼性を評価するためのガイダンスを提供することである。
我々のアプローチは、結果の信頼性指標が、選択された現実世界の脅威に対応することを保証します。
論文 参考訳(メタデータ) (2024-08-10T11:57:10Z) - When to Trust LLMs: Aligning Confidence with Response Quality [49.371218210305656]
我々はconfidence-Quality-ORDer保存アライメントアプローチ(CONQORD)を提案する。
品質報酬と秩序保存アライメント報酬機能を統合する。
実験により,CONQORDは信頼性と応答精度のアライメント性能を著しく向上することが示された。
論文 参考訳(メタデータ) (2024-04-26T09:42:46Z) - U-Trustworthy Models.Reliability, Competence, and Confidence in
Decision-Making [0.21756081703275998]
信頼性の正確な数学的定義を$mathcalU$-trustworthinessと呼ぶ。
$mathcalU$-trustworthinessの文脈において、適切にランク付けされたモデルは本質的に$mathcalU$-trustworthyであることが証明される。
我々は、信頼度を優先する尺度として、AUCメートル法の採用を提唱する。
論文 参考訳(メタデータ) (2024-01-04T04:58:02Z) - A Survey on Trustworthy Edge Intelligence: From Security and Reliability
To Transparency and Sustainability [32.959723590246384]
Edge Intelligence(EI)は、エッジコンピューティング(EC)と人工知能(AI)を統合して、AIの能力をネットワークエッジにプッシュする。
この調査は、信頼できるEIの特徴、アーキテクチャ、技術、ソリューションを包括的にまとめたものです。
論文 参考訳(メタデータ) (2023-10-27T07:39:54Z) - Assessing Trustworthiness of Autonomous Systems [0.0]
社会において、自律システム(AS)がよりユビキタスになり、より安全とそれとの相互作用に責任を負うようになり、それらが信頼に値することが不可欠である。
ASの信頼性を評価することは、検証と開発コミュニティにとって必須の課題である。
これは、現在および将来の幅広いアプリケーションにおいて、ASの信頼性を客観的かつ相対的に判断するのに役立つ適切な標準と適切なメトリクスを必要とします。
論文 参考訳(メタデータ) (2023-05-05T10:26:16Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Where Does Trust Break Down? A Quantitative Trust Analysis of Deep
Neural Networks via Trust Matrix and Conditional Trust Densities [94.65749466106664]
本稿では,新しい信頼量化戦略である信頼行列の概念を紹介する。
信頼行列は、所定のアクター・オークル回答シナリオに対して期待される質問・回答信頼を定義する。
我々は、条件付き信頼密度の概念により、信頼密度の概念をさらに拡張する。
論文 参考訳(メタデータ) (2020-09-30T14:33:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。