論文の概要: Distributed Security: From Isolated Properties to Synergistic Trust
- arxiv url: http://arxiv.org/abs/2602.18063v1
- Date: Fri, 20 Feb 2026 08:31:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 18:01:41.269436
- Title: Distributed Security: From Isolated Properties to Synergistic Trust
- Title(参考訳): 分散セキュリティ: 分離されたプロパティからシナジスティックな信頼へ
- Authors: Minghui Xu,
- Abstract要約: このビジョンペーパーは、分散セキュリティへのアプローチの根本的な変化を論じています。
私たちは4つの基本的特性、テキスト分割、一貫性、プライバシー、妥当性、説明責任を結論付けます。
我々は、新興アプリケーションによって駆動される新しいセキュリティ特性の発見、高性能コンセンサス層における暗号プリミティブの計算オーバーヘッドの管理、量子後およびヒューマンファクターの課題への対処など、重要な研究課題を特定する。
- 参考スコア(独自算出の注目度): 5.240957672918797
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Over the past four decades, distributed security has undergone a remarkable transformation -- from crash-fault tolerant protocols designed for controlled environments to sophisticated Byzantine-resilient architectures operating in open, adversarial settings. This vision paper examines this evolution and argues for a fundamental shift in how we approach distributed security: from studying individual security properties in isolation to understanding their synergistic combinations. We begin by conclude four foundational properties, \textit{agreement, consistency, privacy, verifiability, accountability}. We trace their theoretical origins and practical maturation. We then demonstrate how the frontier of research now lies at the intersection of these properties, where their fusion creates capabilities that neither property could achieve alone. Looking forward, we identify critical research challenges: discovering new security properties driven by emerging applications, developing systematic frameworks for property convergence, managing the computational overhead of cryptographic primitives in high-performance consensus layers, and addressing post-quantum and human-factor challenges. The future of distributed security lies not in improving individual properties, but in understanding and harnessing their synergies to build a singular fabric of trust.
- Abstract(参考訳): 過去40年にわたって、分散セキュリティは、コントロールされた環境用に設計されたクラッシュフォールトトレラントプロトコルから、オープンで対向的な設定で運用される高度なビザンチン・レジリエントアーキテクチャに至るまで、目覚ましい変革を遂げてきた。
このビジョンペーパーは、この進化を検証し、分散セキュリティへのアプローチの根本的な変化を論じる。
まず、基本となる4つのプロパティ、‘textit{agreement, consistency, privacy, verifiability, accountability} を結論付けます。
我々はその理論的な起源と実践的な成熟を辿った。
次に、これらの性質の交点にある研究のフロンティアがどうあるのかを実証し、融合によってどちらの特性も単独で達成できない能力を生み出す。
今後,新興アプリケーションによる新たなセキュリティ特性の発見,プロパティ収束のための体系的フレームワークの開発,高性能コンセンサス層における暗号プリミティブの計算オーバーヘッドの管理,量子後およびヒューマンファクタの課題への対処など,重要な研究課題を明らかにする。
分散セキュリティの未来は、個々の特性を改善することではなく、そのシナジーを理解し、利用することで単一の信頼構造を構築することである。
関連論文リスト
- Making LLMs Reliable When It Matters Most: A Five-Layer Architecture for High-Stakes Decisions [51.56484100374058]
現在の大規模言語モデル(LLM)は、実行前にアウトプットをチェックできるが、不確実な結果を伴う高い戦略決定には信頼性が低い検証可能な領域で優れている。
このギャップは、人間と人工知能(AI)システムの相互認知バイアスによって引き起こされ、そのセクターにおける評価と投資の持続可能性の保証を脅かす。
本報告では、7つのフロンティアグレードLDMと3つの市場向けベンチャーヴィグネットの時間的圧力下での系統的質的評価から生まれた枠組みについて述べる。
論文 参考訳(メタデータ) (2025-11-10T22:24:21Z) - SynBench: A Benchmark for Differentially Private Text Generation [35.908455649647784]
医療や金融といった高度な分野におけるデータ駆動型意思決定のサポートは、データ共有にとって大きな障壁に直面している。
大規模言語モデルのような最近の生成AIモデルは、オープンドメインタスクにおいて印象的なパフォーマンスを示している。
しかし、彼らのセンシティブな環境への導入は、予測不可能な振る舞いと、プライバシー保護の不十分なデータセットによって制限されている。
論文 参考訳(メタデータ) (2025-09-18T03:57:50Z) - Deep Learning Models for Robust Facial Liveness Detection [56.08694048252482]
本研究では,現代のアンチスプーフィング手法の欠陥に対処する新しい深層学習モデルを用いて,ロバストな解を提案する。
テクスチャ解析と実際の人間の特性に関連する反射特性を革新的に統合することにより、我々のモデルは、顕著な精度でレプリカと真の存在を区別する。
論文 参考訳(メタデータ) (2025-08-12T17:19:20Z) - Zero-Trust Foundation Models: A New Paradigm for Secure and Collaborative Artificial Intelligence for Internet of Things [61.43014629640404]
Zero-Trust Foundation Models (ZTFM)は、ゼロトラストセキュリティの原則をIoT(Internet of Things)システムの基盤モデル(FM)のライフサイクルに組み込む。
ZTFMは、分散、異質、潜在的に敵対的なIoT環境にわたって、セキュアでプライバシ保護のAIを可能にする。
論文 参考訳(メタデータ) (2025-05-26T06:44:31Z) - Information Retrieval Induced Safety Degradation in AI Agents [52.15553901577888]
本研究では,検索アクセスの拡大がモデル信頼性,バイアス伝搬,有害コンテンツ生成に与える影響について検討した。
整列 LLM 上に構築された検索可能なエージェントは、検索なしでの無検閲モデルよりも安全でない振る舞いをすることが多い。
これらの発見は、検索可能でますます自律的なAIシステムの公正性と信頼性を確保するための堅牢な緩和戦略の必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-05-20T11:21:40Z) - Towards Secure and Private AI: A Framework for Decentralized Inference [14.526663289437584]
大規模マルチモーダル基盤モデルは、スケーラビリティ、信頼性、潜在的な誤用に関する課題を提示する。
分散システムは、ワークロードの分散と障害の中心的なポイントの緩和によるソリューションを提供する。
これらの課題に対処するためには、AI開発に責任を負うように設計された包括的なフレームワークを使います。
論文 参考訳(メタデータ) (2024-07-28T05:09:17Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Finding Input Characterizations for Output Properties in ReLU Neural
Networks [0.9614694312155797]
ディープニューラルネットワーク(DNN)は強力なメカニズムとして登場し、現実世界の安全クリティカルなドメインにますますデプロイされている。
広く成功したにもかかわらず、その複雑なアーキテクチャは、それらに関する正式な保証を証明するのを困難にしている。
提示されたアイデアを拡張し、アーキテクチャと高レベルの仕様のギャップを埋める方法を紹介します。
論文 参考訳(メタデータ) (2020-03-09T17:29:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。