論文の概要: Vulnerabilities that arise from poor governance in Distributed Ledger Technologies
- arxiv url: http://arxiv.org/abs/2409.15947v1
- Date: Tue, 24 Sep 2024 10:19:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-09-26 07:51:56.999084
- Title: Vulnerabilities that arise from poor governance in Distributed Ledger Technologies
- Title(参考訳): 分散Ledger Technologiesにおけるガバナンスの低さから生じる脆弱性
- Authors: Aida Manzano Kharman, William Sanders,
- Abstract要約: 分散Ledger Technologiesにおけるガバナンスの現在の実装は、いくつかの攻撃を受けやすいままである。
我々は、優れたガバナンス特性の最も適切な分類を選択し、優れたガバナンスプロトコルが満たすべき正式なセキュリティ概念を指し示します。
優れたガバナンスプロパティが欠如していることから生じる多くの脆弱性について概説する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Current implementations of governance in Distributed Ledger Technologies leave them susceptible to a number of attacks. We survey the state of the art of Distributed Ledger Technologies (DLTs) governance protocols and work carried out to systematise good governance properties in the context of DLTs. We then select the most appropriate taxonomy of good governance properties and point to formal security notions that good governance protocols should satisfy. We point practitioners to existing solutions to deliver them, where possible. Furthermore, we outline a number of vulnerabilities that arise in the absence of good governance properties. We call on the research community and DLT research practitioners to prioritise delivering these good governance properties and continue to develop tools to do so, to avoid attacks to DLT protocols that exploit their poor governance models.
- Abstract(参考訳): 分散Ledger Technologiesにおけるガバナンスの現在の実装は、いくつかの攻撃を受けやすいままである。
DLT(Distributed Ledger Technologies)ガバナンスプロトコルの現状と、DLT(Distributed Ledger Technologies)の文脈における優れたガバナンス特性の体系化に向けた取り組みについて調査する。
次に、優れたガバナンス特性の最も適切な分類を選択し、優れたガバナンスプロトコルが満たすべき公式なセキュリティ概念を指し示します。
可能な限り、既存のソリューションの提供を実践者に指示します。
さらに、優れたガバナンス特性が欠如しているいくつかの脆弱性についても概説する。
我々は、これらの優れたガバナンス特性の提供を優先し、彼らの貧弱なガバナンスモデルを利用するDLTプロトコルに対する攻撃を避けるために、それを行うためのツールの開発を継続するよう、研究コミュニティとDLT研究実践者に呼びかける。
関連論文リスト
- Limits of Safe AI Deployment: Differentiating Oversight and Control [0.0]
監視と管理(まとめると、監督)は、AIシステムが説明責任があり、信頼性があり、ガバナンスと管理の要求を満たすことができることを保証するための鍵となるレバーとしてしばしば呼び出される。
これらの概念は、しばしば、学術的・政策的な議論において混ざり合った、あるいは不十分に区別され、有意義な人間の監督下にあるべきシステムの設計や評価の努力を損なう。
本稿では, 各メカニズムが可能である条件, 不足している状況, 実際に意味のあるものにするために何が必要なのかを記述し, 理論的にインフォームドされているが, 政策を基礎とした枠組みを提案する。
論文 参考訳(メタデータ) (2025-07-04T12:22:35Z) - LLM Agents Should Employ Security Principles [60.03651084139836]
本稿では,大規模言語モデル(LLM)エージェントを大規模に展開する際には,情報セキュリティの確立した設計原則を採用するべきであることを論じる。
AgentSandboxは、エージェントのライフサイクル全体を通して保護を提供するために、これらのセキュリティ原則を組み込んだ概念的なフレームワークである。
論文 参考訳(メタデータ) (2025-05-29T21:39:08Z) - Watermarking Without Standards Is Not AI Governance [46.71493672772134]
現在の実装は、効果的な監視を提供するのではなく、象徴的なコンプライアンスとして機能するリスクがある、と私たちは主張する。
本稿では,技術標準,監査インフラストラクチャ,実施機構を含む3層フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-27T18:10:04Z) - Beyond Explainability: The Case for AI Validation [0.0]
我々は、中央規制柱としての検証へのシフトを主張する。
AI出力の信頼性、一貫性、堅牢性を保証するバリデーションは、説明可能性に対してより実用的で、スケーラブルで、リスクに敏感な代替手段を提供する。
本稿では,事前・後検証,第三者監査,調和標準,債務インセンティブを中心に,先進的な政策枠組みを提案する。
論文 参考訳(メタデータ) (2025-05-27T06:42:41Z) - Artificial Intelligence in Government: Why People Feel They Lose Control [44.99833362998488]
行政における人工知能の利用は急速に拡大している。
AIはより効率と応答性を約束するが、政府機能への統合は公正性、透明性、説明責任に関する懸念を提起する。
この記事では、デリゲートの特別事例として、AI導入に関するプリンシパル・エージェント理論を適用します。
論文 参考訳(メタデータ) (2025-05-02T07:46:41Z) - Decentralized Vulnerability Disclosure via Permissioned Blockchain: A Secure, Transparent Alternative to Centralized CVE Management [0.0]
本稿では,CVE(Common Vulnerabilities and Exposures)を公開するための分散型ブロックチェーンベースのシステムを提案する。
提案されたアーキテクチャでは、認証済みのCVENumbering Authorities(CNA)のみがエントリの提出を許可される、権限付きブロックチェーンを活用している。
提案したモデルを既存のプラクティスと比較し,透明性,信頼性の分散化,監査性といったメリットを強調した。
論文 参考訳(メタデータ) (2025-05-01T12:12:08Z) - Towards Responsible Governing AI Proliferation [0.0]
論文では、小規模で分散化されたオープンソースのAIモデルの台頭を期待するProliferation'パラダイムを紹介している。
これらの発展は、可能性があり、利益と新たなリスクの両方をもたらす可能性が高いことを示唆している。
論文 参考訳(メタデータ) (2024-12-18T13:10:35Z) - Protocol Learning, Decentralized Frontier Risk and the No-Off Problem [56.74434512241989]
私たちは第3のパラダイムであるプロトコル学習(Protocol Learning)を特定します。
このアプローチは、単一の集中型エンティティよりも桁違いに多くの計算資源を集約する可能性がある。
また、不均一で信頼性の低いノード、悪意のある参加者、インセンティブを維持するために抽出不可能なモデルの必要性、複雑なガバナンスのダイナミクスなど、新しい課題も導入されている。
論文 参考訳(メタデータ) (2024-12-10T19:53:50Z) - Certified Safe: A Schematic for Approval Regulation of Frontier AI [0.0]
承認規制スキームは、企業が法的に市場を拡大できない場合や、場合によっては、規制当局の明確な承認なしに製品を開発する場合である。
本報告では、トレーニング前に精査を開始し、デプロイ後の監視を継続する、最大規模のAIプロジェクトのみに対する承認規制スキーマを提案する。
論文 参考訳(メタデータ) (2024-08-12T15:01:03Z) - Open Problems in Technical AI Governance [93.89102632003996]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - Decentralized Credential Status Management: A Paradigm Shift in Digital Trust [0.0]
公共の鍵となるインフラは、インターネットのセキュリティに不可欠であり、堅牢な証明書管理と取り消しのメカニズムを保証する。
中央集中型システムから分散型システムへの移行は、信頼分散やプライバシ保護の資格管理といった課題を提示している。
本稿では,ブロックチェーン技術と高度な暗号技術に着目した,集中型から分散型フレームワークへの証明書状態管理の進化について検討する。
論文 参考訳(メタデータ) (2024-06-17T13:17:56Z) - Generative AI Needs Adaptive Governance [0.0]
ジェネレーティブAIは、ガバナンス、信頼、ヒューマンエージェンシーの概念に挑戦する。
本稿では,ジェネレーティブAIが適応的ガバナンスを求めていることを論じる。
我々は、アクター、ロール、および共有およびアクター固有のポリシー活動の概要を概説する。
論文 参考訳(メタデータ) (2024-06-06T23:47:14Z) - A Survey and Comparative Analysis of Security Properties of CAN Authentication Protocols [92.81385447582882]
コントロールエリアネットワーク(CAN)バスは車内通信を本質的に安全でないものにしている。
本稿では,CANバスにおける15の認証プロトコルをレビューし,比較する。
実装の容易性に寄与する本質的な運用基準に基づくプロトコルの評価を行う。
論文 参考訳(メタデータ) (2024-01-19T14:52:04Z) - Exploring the Relevance of Data Privacy-Enhancing Technologies for AI
Governance Use Cases [1.5293427903448022]
異なるAIガバナンスの目的を情報フローのシステムとして見ることは有用である。
これらの異なるAIガバナンスソリューション間の相互運用性の重要性は明確になる。
論文 参考訳(メタデータ) (2023-03-15T21:56:59Z) - Certification of Iterative Predictions in Bayesian Neural Networks [79.15007746660211]
我々は、BNNモデルの軌道が与えられた状態に到達する確率に対して、安全でない状態の集合を避けながら低い境界を計算する。
我々は、制御と強化学習の文脈において、下限を用いて、与えられた制御ポリシーの安全性保証を提供する。
論文 参考訳(メタデータ) (2021-05-21T05:23:57Z) - Enforcing robust control guarantees within neural network policies [76.00287474159973]
本稿では、ニューラルネットワークによってパラメータ化され、ロバスト制御と同じ証明可能なロバスト性基準を適用した、一般的な非線形制御ポリシークラスを提案する。
提案手法は,複数の領域において有効であり,既存のロバスト制御法よりも平均ケース性能が向上し,(非ロバスト)深部RL法よりも最悪のケース安定性が向上した。
論文 参考訳(メタデータ) (2020-11-16T17:14:59Z) - Regulation conform DLT-operable payment adapter based on trustless -
justified trust combined generalized state channels [77.34726150561087]
物の経済(EoT)は、ピアツーピアの信頼性のないネットワークで動作するソフトウェアエージェントに基づいています。
基本的価値と技術的可能性が異なる現在のソリューションの概要を述べる。
我々は,暗号ベースの分散型の信頼できない要素の強みと,確立された,十分に規制された支払い手段を組み合わせることを提案する。
論文 参考訳(メタデータ) (2020-07-03T10:45:55Z) - Graph Neural Networks for Decentralized Controllers [171.6642679604005]
自律エージェントで構成される動的システムは、ロボット工学、スマートグリッド、スマートシティなど、多くの関連する問題に現れる。
最適な集中型コントローラは容易に利用できるが、スケーラビリティと実用的な実装の面で制限に直面している。
グラフニューラルネットワーク(GNN)を用いて,データから分散制御系を学習するフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-23T13:51:18Z) - Robust Deep Reinforcement Learning against Adversarial Perturbations on
State Observations [88.94162416324505]
深部強化学習(DRL)エージェントは、自然な測定誤差や対向雑音を含む観測を通して、その状態を観察する。
観測は真の状態から逸脱するので、エージェントを誤解させ、準最適行動を起こすことができる。
本研究は, 従来の手法を, 対人訓練などの分類タスクの堅牢性向上に応用することは, 多くのRLタスクには有効でないことを示す。
論文 参考訳(メタデータ) (2020-03-19T17:59:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。