論文の概要: On Specifying for Trustworthiness
- arxiv url: http://arxiv.org/abs/2206.11421v1
- Date: Wed, 22 Jun 2022 23:37:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-24 14:17:16.269234
- Title: On Specifying for Trustworthiness
- Title(参考訳): 信頼性の特定について
- Authors: Dhaminda B. Abeywickrama, Amel Bennaceur, Greg Chance, Yiannis
Demiris, Anastasia Kordoni, Mark Levine, Luke Moffat, Luc Moreau, Mohammad
Reza Mousavi, Bashar Nuseibeh, Subramanian Ramamoorthy, Jan Oliver Ringert,
James Wilson, Shane Windsor, Kerstin Eder
- Abstract要約: 私たちは、機能、安全性、セキュリティ、その他の機能的でない性質に制限されない、トップレベルの要件に集中して、幅広い仕様の見方を取ります。
本稿の主な貢献は、自律システムコミュニティにおける信頼性の特定に関連する、ハイレベルな知的課題の集合である。
- 参考スコア(独自算出の注目度): 33.9727512751834
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As autonomous systems are becoming part of our daily lives, ensuring their
trustworthiness is crucial. There are a number of techniques for demonstrating
trustworthiness. Common to all these techniques is the need to articulate
specifications. In this paper, we take a broad view of specification,
concentrating on top-level requirements including but not limited to
functionality, safety, security and other non-functional properties. The main
contribution of this article is a set of high-level intellectual challenges for
the autonomous systems community related to specifying for trustworthiness. We
also describe unique specification challenges concerning a number of
application domains for autonomous systems.
- Abstract(参考訳): 自律システムは私たちの日常生活の一部になりつつあるため、信頼の確保が不可欠です。
信頼性を示す技術はいくつかある。
これらのテクニックすべてに共通しているのは、仕様を明確化する必要があることです。
本稿では,機能,安全性,セキュリティ,その他の非機能特性に限らず,トップレベルの要件に重点を置いて,幅広い仕様を考察する。
本稿の主な貢献は、自律システムコミュニティにおける信頼性の特定に関連する高度な知的課題の集合である。
また,自律システムのためのアプリケーションドメインに関するユニークな仕様の課題についても述べる。
関連論文リスト
- Prioritizing Safeguarding Over Autonomy: Risks of LLM Agents for Science [67.38554763406098]
大規模言語モデル(LLM)を利用したインテリジェントエージェントは、自律的な実験を行い、様々な分野にわたる科学的発見を促進する上で、大きな可能性を証明している。
彼らの能力は有望だが、安全を慎重に考慮する必要がある新たな脆弱性も導入している。
本稿では,科学領域におけるLSMをベースとしたエージェントの脆弱性の徹底的な調査を行い,その誤用に伴う潜在的なリスクに光を当て,安全性対策の必要性を強調した。
論文 参考訳(メタデータ) (2024-02-06T18:54:07Z) - TrustLLM: Trustworthiness in Large Language Models [446.5220130390284]
本稿では,大規模言語モデル(LLM)における信頼度に関する総合的研究であるTrustLLMを紹介する。
まず、8つの異なる次元にまたがる信頼性の高いLCMの原則を提案する。
これらの原則に基づいて、真理性、安全性、公正性、堅牢性、プライバシ、機械倫理を含む6つの次元にわたるベンチマークを確立します。
論文 参考訳(メタデータ) (2024-01-10T22:07:21Z) - U-Trustworthy Models.Reliability, Competence, and Confidence in
Decision-Making [0.21756081703275998]
信頼性の正確な数学的定義を$mathcalU$-trustworthinessと呼ぶ。
$mathcalU$-trustworthinessの文脈において、適切にランク付けされたモデルは本質的に$mathcalU$-trustworthyであることが証明される。
我々は、信頼度を優先する尺度として、AUCメートル法の採用を提唱する。
論文 参考訳(メタデータ) (2024-01-04T04:58:02Z) - A Survey on Trustworthy Edge Intelligence: From Security and Reliability
To Transparency and Sustainability [32.959723590246384]
Edge Intelligence(EI)は、エッジコンピューティング(EC)と人工知能(AI)を統合して、AIの能力をネットワークエッジにプッシュする。
この調査は、信頼できるEIの特徴、アーキテクチャ、技術、ソリューションを包括的にまとめたものです。
論文 参考訳(メタデータ) (2023-10-27T07:39:54Z) - Trustworthy Federated Learning: A Survey [0.5089078998562185]
人工知能(AI)分野において、フェデレートラーニング(FL)が大きな進歩を遂げている。
我々は、Trustworthy FLの現状を概観し、既存のソリューションとTrustworthyに関連する明確に定義された柱を探求する。
本稿では,解釈可能性,公正性,セキュリティとプライバシの3つの柱を含む分類法を提案する。
論文 参考訳(メタデータ) (2023-05-19T09:11:26Z) - Assessing Trustworthiness of Autonomous Systems [0.0]
社会において、自律システム(AS)がよりユビキタスになり、より安全とそれとの相互作用に責任を負うようになり、それらが信頼に値することが不可欠である。
ASの信頼性を評価することは、検証と開発コミュニティにとって必須の課題である。
これは、現在および将来の幅広いアプリケーションにおいて、ASの信頼性を客観的かつ相対的に判断するのに役立つ適切な標準と適切なメトリクスを必要とします。
論文 参考訳(メタデータ) (2023-05-05T10:26:16Z) - Reliable Federated Disentangling Network for Non-IID Domain Feature [62.73267904147804]
本稿では、RFedDisと呼ばれる新しい信頼性のあるフェデレーション・ディエンタングリング・ネットワークを提案する。
我々の知る限り、提案するRFedDisは、明らかな不確実性と特徴の混在に基づくFLアプローチを開発する最初の試みである。
提案するRFedDisは,他の最先端FL手法と比較して信頼性の高い優れた性能を提供する。
論文 参考訳(メタデータ) (2023-01-30T11:46:34Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Reliability Testing for Natural Language Processing Systems [14.393308846231083]
信頼性テストの必要性を議論し、説明責任の改善に関する既存の作業の中でコンテキスト化しています。
我々は,この目的のために,信頼性テストを開発するためのフレームワークを通じて,敵の攻撃を再構築する方法を示す。
論文 参考訳(メタデータ) (2021-05-06T11:24:58Z) - Where Does Trust Break Down? A Quantitative Trust Analysis of Deep
Neural Networks via Trust Matrix and Conditional Trust Densities [94.65749466106664]
本稿では,新しい信頼量化戦略である信頼行列の概念を紹介する。
信頼行列は、所定のアクター・オークル回答シナリオに対して期待される質問・回答信頼を定義する。
我々は、条件付き信頼密度の概念により、信頼密度の概念をさらに拡張する。
論文 参考訳(メタデータ) (2020-09-30T14:33:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。