論文の概要: Modelling Trust and Trusted Systems: A Category Theoretic Approach
- arxiv url: http://arxiv.org/abs/2602.11376v1
- Date: Wed, 11 Feb 2026 21:08:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.543319
- Title: Modelling Trust and Trusted Systems: A Category Theoretic Approach
- Title(参考訳): 信頼と信頼をモデル化する:カテゴリー論的アプローチ
- Authors: Ian Oliver, Pekka Kuure,
- Abstract要約: 私たちは、カテゴリ内の要素、クレーム、結果、決定をオブジェクトとして定式化します。
この枠組みは信頼の確立を理解するための厳格なアプローチを提供する。
ブートランシャットダウンシーケンスやEvil Maid攻撃など,多数の実例を提示する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduces a category-theoretic framework for modelling trust as applied to trusted computation systems and remote attestation. By formalizing elements, claims, results, and decisions as objects within a category, and the processes of attestation, verification, and decision-making as morphisms, the framework provides a rigorous approach to understanding trust establishment and provides a well-defined semantics for terms such as `trustworthiness' and 'justification'/forensics. The trust decision space is formalized using a Heyting Algebra, allowing nuanced trust levels that extend beyond binary trusted/untrusted states. We then present additional structures and in particular utilise exponentiation in a category theoretic sense to define compositions of attestation operations and provide the basis of a measurement for the expressibility of an attestation environment. We present a number of worked examples including boot-run-shutdown sequences, Evil Maid attacks and the specification of an attestation environment based upon this model. We then address challenges in modelling dynamic and larger systems made of multiple compositions.
- Abstract(参考訳): 本稿では,信頼度をモデル化するカテゴリ理論の枠組みを,信頼度計算システムや遠隔検定に適用する。
カテゴリ内の要素、クレーム、結果、決定を対象として定式化し、アテベーションとして検証、検証、意思決定を行うプロセスによって、このフレームワークは信頼確立を理解するための厳密なアプローチを提供し、信頼」や「正当性」や「正当性」といった用語に対して明確に定義された意味論を提供する。
信頼決定空間は、Heyting Algebraを使用して形式化され、二元的信頼/信頼できない状態を超えて、曖昧な信頼レベルを可能にする。
そこで,本論文では,検定操作の組成を定義し,検定環境の表現性を示すための測定基準を提供するため,カテゴリー論的な意味で,追加構造,特に指数付けを有効活用する。
本稿では,ブートランシャットダウンシーケンス,Evil Maid攻撃,および本モデルに基づく検証環境の仕様など,多くの実例を紹介する。
次に、複数の構成からなる動的および大規模システムをモデル化する際の課題に対処する。
関連論文リスト
- Composable Attestation: A Generalized Framework for Continuous and Incremental Trust in AI-Driven Distributed Systems [4.2822349607372265]
本稿では,分散システムにおける連続的・漸進的信頼のための汎用的な暗号フレームワークとして,コンポーザブル証明を提案する。
このような証明システムのコア特性を定義する厳密な数学的基盤を確立する。
このフレームワークのユーティリティは、セキュアなAIモデルの完全性検証、フェデレーション学習、ランタイム信頼保証といったアプリケーションにまで拡張されている。
論文 参考訳(メタデータ) (2026-03-02T22:45:26Z) - Trust in One Round: Confidence Estimation for Large Language Models via Structural Signals [13.89434979851652]
大規模言語モデル(LLM)は、エラーが社会的、科学的、安全コストの高い領域にますます展開されている。
本稿では,出力の正確性を予測する単一パスモデル依存フレームワークであるStructure Confidenceを提案する。
論文 参考訳(メタデータ) (2026-02-01T02:35:59Z) - Beyond Predictive Uncertainty: Reliable Representation Learning with Structural Constraints [0.3948325938742681]
信頼性は、学習した表現そのものの第一級の性質と見なされるべきである。
本稿では,表現レベルの不確実性を明示的にモデル化する信頼性のある表現学習のための原則的フレームワークを提案する。
提案手法では,不確実性を考慮した正規化が直接表現空間に導入され,予測的だけでなく,安定的で,校正的であり,ノイズや構造的摂動に対して頑健な表現が奨励される。
論文 参考訳(メタデータ) (2026-01-22T18:19:52Z) - Towards the Formalization of a Trustworthy AI for Mining Interpretable Models explOiting Sophisticated Algorithms [4.587316936127635]
解釈可能な設計モデルは、信頼、説明責任、そして現実世界のアプリケーションにおける自動意思決定モデルの安全な採用を促進するために不可欠である。
我々は、解釈可能性と性能のバランスをとる予測モデルを生成するための包括的な方法論を定式化する。
モデル生成時の倫理的措置を評価することにより、この枠組みはAIシステムの開発のための理論的基盤を確立する。
論文 参考訳(メタデータ) (2025-10-23T14:54:33Z) - Cycles of Thought: Measuring LLM Confidence through Stable Explanations [53.15438489398938]
大規模言語モデル(LLM)は、様々なベンチマークで人間レベルの精度に到達し、さらに超えることができるが、不正確な応答における過度な自信は、依然として十分に文書化された障害モードである。
本稿では,LLMの不確実性を測定するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T16:35:30Z) - Security Properties through the Lens of Modal Logic [4.548429316641551]
モーダル論理を用いたコンピュータシステムのセキュリティに関する推論フレームワークを提案する。
機密性、完全性、堅牢な非分類化、透過的な支持の様々なバリエーションを表現するために、フォーマリズムをどのように使うかを示します。
論文 参考訳(メタデータ) (2023-09-18T07:37:12Z) - Federated Conformal Predictors for Distributed Uncertainty
Quantification [83.50609351513886]
コンフォーマル予測は、機械学習において厳密な不確実性定量化を提供するための一般的なパラダイムとして現れつつある。
本稿では,共形予測を連邦学習環境に拡張する。
本稿では、FL設定に適した部分交換可能性の弱い概念を提案し、それをフェデレート・コンフォーマル予測フレームワークの開発に利用する。
論文 参考訳(メタデータ) (2023-05-27T19:57:27Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Trusted Multi-View Classification [76.73585034192894]
本稿では,信頼された多視点分類と呼ばれる新しい多視点分類手法を提案する。
さまざまなビューをエビデンスレベルで動的に統合することで、マルチビュー学習のための新しいパラダイムを提供する。
提案アルゴリズムは,分類信頼性とロバスト性の両方を促進するために,複数のビューを併用する。
論文 参考訳(メタデータ) (2021-02-03T13:30:26Z) - Structural Causal Models Are (Solvable by) Credal Networks [70.45873402967297]
因果推論は、干潟網の更新のための標準的なアルゴリズムによって得ることができる。
この貢献は, 干潟ネットワークによる構造因果モデルを表現するための体系的なアプローチと見なされるべきである。
実験により, 実規模問題における因果推論には, クレーダルネットワークの近似アルゴリズムがすぐに利用できることがわかった。
論文 参考訳(メタデータ) (2020-08-02T11:19:36Z) - A general framework for defining and optimizing robustness [74.67016173858497]
分類器の様々な種類の堅牢性を定義するための厳密でフレキシブルなフレームワークを提案する。
我々の概念は、分類器の堅牢性は正確性とは無関係な性質と考えるべきであるという仮定に基づいている。
我々は,任意の分類モデルに適用可能な,非常に一般的なロバスト性フレームワークを開発する。
論文 参考訳(メタデータ) (2020-06-19T13:24:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。