論文の概要: Vulnerabilities that arise from poor governance in Distributed Ledger Technologies
- arxiv url: http://arxiv.org/abs/2409.15947v2
- Date: Tue, 13 May 2025 16:40:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-14 20:57:54.166826
- Title: Vulnerabilities that arise from poor governance in Distributed Ledger Technologies
- Title(参考訳): 分散Ledger Technologiesにおけるガバナンスの低さから生じる脆弱性
- Authors: Aida Manzano Kharman, William Sanders,
- Abstract要約: 分散Ledger Technologies (DLT) は分散化、透明性、セキュリティを約束するが、基本的なガバナンスの欠陥のために現実は不足することが多い。
本稿では、DLTガバナンスの現状を調査し、重大な脆弱性を特定し、優れたガバナンスのために広く受け入れられているベストプラクティスが欠如していることを強調する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Distributed Ledger Technologies (DLTs) promise decentralization, transparency, and security, yet the reality often falls short due to fundamental governance flaws. Poorly designed governance frameworks leave these systems vulnerable to coercion, vote-buying, centralization of power, and malicious protocol exploits: threats that undermine the very principles of fairness and equity these technologies seek to uphold. This paper surveys the state of DLT governance, identifies critical vulnerabilities, and highlights the absence of universally accepted best practices for good governance. By bridging insights from cryptography, social choice theory, and e-voting systems, we not only present a comprehensive taxonomy of governance properties essential for safeguarding DLTs but also point to technical solutions that can deliver these properties in practice. This work underscores the urgent need for robust, transparent, and enforceable governance mechanisms. Ensuring good governance is not merely a technical necessity but a societal imperative to protect the public interest, maintain trust, and realize the transformative potential of DLTs for social good.
- Abstract(参考訳): 分散Ledger Technologies (DLT) は分散化、透明性、セキュリティを約束するが、基本的なガバナンス上の欠陥のために現実は不足することが多い。
貧弱な設計のガバナンスフレームワークは、これらのシステムを強制、投票購入、権力の中央集権化、悪意のあるプロトコルエクスプロイトに弱いままにしておく。
本稿では、DLTガバナンスの現状を調査し、重大な脆弱性を特定し、優れたガバナンスのために広く受け入れられているベストプラクティスが欠如していることを強調する。
暗号、社会的選択理論、電子投票システムからの洞察をブリッジすることで、DLTの保護に不可欠なガバナンス特性の包括的分類を提示するだけでなく、これらの特性を実際に提供できる技術的ソリューションも提示する。
この作業は、堅牢で透明性があり、強制可能なガバナンスメカニズムに対する緊急の必要性を浮き彫りにします。
良いガバナンスを確保することは単なる技術的必要性ではなく、公共の利益を守り、信頼を維持し、社会的善のためのDLTの変革的なポテンシャルを実現するための社会的衝動である。
関連論文リスト
- Decentralized Vulnerability Disclosure via Permissioned Blockchain: A Secure, Transparent Alternative to Centralized CVE Management [0.0]
本稿では,CVE(Common Vulnerabilities and Exposures)を公開するための分散型ブロックチェーンベースのシステムを提案する。
提案されたアーキテクチャでは、認証済みのCVENumbering Authorities(CNA)のみがエントリの提出を許可される、権限付きブロックチェーンを活用している。
提案したモデルを既存のプラクティスと比較し,透明性,信頼性の分散化,監査性といったメリットを強調した。
論文 参考訳(メタデータ) (2025-05-01T12:12:08Z) - Towards Responsible Governing AI Proliferation [0.0]
論文では、小規模で分散化されたオープンソースのAIモデルの台頭を期待するProliferation'パラダイムを紹介している。
これらの発展は、可能性があり、利益と新たなリスクの両方をもたらす可能性が高いことを示唆している。
論文 参考訳(メタデータ) (2024-12-18T13:10:35Z) - Certified Safe: A Schematic for Approval Regulation of Frontier AI [0.0]
承認規制スキームは、企業が法的に市場を拡大できない場合や、場合によっては、規制当局の明確な承認なしに製品を開発する場合である。
本報告では、トレーニング前に精査を開始し、デプロイ後の監視を継続する、最大規模のAIプロジェクトのみに対する承認規制スキーマを提案する。
論文 参考訳(メタデータ) (2024-08-12T15:01:03Z) - Open Problems in Technical AI Governance [93.89102632003996]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - Generative AI Needs Adaptive Governance [0.0]
ジェネレーティブAIは、ガバナンス、信頼、ヒューマンエージェンシーの概念に挑戦する。
本稿では,ジェネレーティブAIが適応的ガバナンスを求めていることを論じる。
我々は、アクター、ロール、および共有およびアクター固有のポリシー活動の概要を概説する。
論文 参考訳(メタデータ) (2024-06-06T23:47:14Z) - A Survey and Comparative Analysis of Security Properties of CAN Authentication Protocols [92.81385447582882]
コントロールエリアネットワーク(CAN)バスは車内通信を本質的に安全でないものにしている。
本稿では,CANバスにおける15の認証プロトコルをレビューし,比較する。
実装の容易性に寄与する本質的な運用基準に基づくプロトコルの評価を行う。
論文 参考訳(メタデータ) (2024-01-19T14:52:04Z) - Exploring the Relevance of Data Privacy-Enhancing Technologies for AI
Governance Use Cases [1.5293427903448022]
異なるAIガバナンスの目的を情報フローのシステムとして見ることは有用である。
これらの異なるAIガバナンスソリューション間の相互運用性の重要性は明確になる。
論文 参考訳(メタデータ) (2023-03-15T21:56:59Z) - Certification of Iterative Predictions in Bayesian Neural Networks [79.15007746660211]
我々は、BNNモデルの軌道が与えられた状態に到達する確率に対して、安全でない状態の集合を避けながら低い境界を計算する。
我々は、制御と強化学習の文脈において、下限を用いて、与えられた制御ポリシーの安全性保証を提供する。
論文 参考訳(メタデータ) (2021-05-21T05:23:57Z) - Enforcing robust control guarantees within neural network policies [76.00287474159973]
本稿では、ニューラルネットワークによってパラメータ化され、ロバスト制御と同じ証明可能なロバスト性基準を適用した、一般的な非線形制御ポリシークラスを提案する。
提案手法は,複数の領域において有効であり,既存のロバスト制御法よりも平均ケース性能が向上し,(非ロバスト)深部RL法よりも最悪のケース安定性が向上した。
論文 参考訳(メタデータ) (2020-11-16T17:14:59Z) - Graph Neural Networks for Decentralized Controllers [171.6642679604005]
自律エージェントで構成される動的システムは、ロボット工学、スマートグリッド、スマートシティなど、多くの関連する問題に現れる。
最適な集中型コントローラは容易に利用できるが、スケーラビリティと実用的な実装の面で制限に直面している。
グラフニューラルネットワーク(GNN)を用いて,データから分散制御系を学習するフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-23T13:51:18Z) - Robust Deep Reinforcement Learning against Adversarial Perturbations on
State Observations [88.94162416324505]
深部強化学習(DRL)エージェントは、自然な測定誤差や対向雑音を含む観測を通して、その状態を観察する。
観測は真の状態から逸脱するので、エージェントを誤解させ、準最適行動を起こすことができる。
本研究は, 従来の手法を, 対人訓練などの分類タスクの堅牢性向上に応用することは, 多くのRLタスクには有効でないことを示す。
論文 参考訳(メタデータ) (2020-03-19T17:59:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。