論文の概要: Ethical Risk Analysis of L2 Rollups
- arxiv url: http://arxiv.org/abs/2512.12732v1
- Date: Sun, 14 Dec 2025 15:17:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.40656
- Title: Ethical Risk Analysis of L2 Rollups
- Title(参考訳): L2ロールアップの倫理的リスク解析
- Authors: Georgy Ishmaev, Emmanuelle Anceaume, Davide Frey, François Taïani,
- Abstract要約: 倫理的リスク分析をアーキテクチャのロールアップに適用し、決定権限と露出のロールベースの分類を構築し、このフレームワークを2つの経験的なシグナルと組み合わせます。
我々は,アップグレードタイミングや出口ウィンドウ,提案者の生活とホワイトリスト,強制的包摂ユーザビリティ,データ可用性の選択など,ユーザ資金のリスクに影響を与えるメカニズムを解析する。
- 参考スコア(独自算出の注目度): 3.069386335049746
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Layer 2 rollups improve throughput and fees, but can reintroduce risk through operator discretion and information asymmetry. We ask which operator and governance designs produce ethically problematic user risk. We adapt Ethical Risk Analysis to rollup architectures, build a role-based taxonomy of decision authority and exposure, and pair the framework with two empirical signals, a cross sectional snapshot of 129 projects from L2BEAT and a hand curated incident set covering 2022 to 2025. We analyze mechanisms that affect risks to users funds, including upgrade timing and exit windows, proposer liveness and whitelisting, forced inclusion usability, and data availability choices. We find that ethical hazards rooted in L2 components control arrangements are widespread: instant upgrades without exit windows appear in about 86 percent of projects, and proposer controls that can freeze withdrawals in about 50 percent. Reported incidents concentrate in sequencer liveness and inclusion, consistent with these dependencies. We translate these findings into ethically grounded suggestions on mitigation strategies including technical components and governance mechanisms.
- Abstract(参考訳): レイヤ2のロールアップはスループットと料金を改善するが、オペレータの判断と情報非対称性によってリスクを再導入することができる。
どのオペレーターとガバナンスデザインが倫理的に問題のあるユーザーリスクを生み出すか尋ねる。
L2BEATのプロジェクト129件のクロスセクションスナップショットと2022年から2025年までのハンドキュレートされたインシデントセットを組み合わせ,アーキテクチャのロールベースで意思決定権限と露出の分類を構築。
我々は,アップグレードタイミングや出口ウィンドウ,提案者の生活とホワイトリスト,強制的包摂ユーザビリティ,データ可用性の選択など,ユーザ資金のリスクに影響を与えるメカニズムを解析する。
出口窓のない即時アップグレードはプロジェクトの約86%に現れ、離脱を約50%で凍結できるプロジェクタコントロールが現れる。
報告されたインシデントは、これらの依存関係と整合して、シーケンサーの生存と包摂に集中する。
我々はこれらの知見を、技術的構成要素やガバナンス機構を含む緩和戦略に関する倫理的根拠のある提案に翻訳する。
関連論文リスト
- CORTEX: Composite Overlay for Risk Tiering and Exposure in Operational AI Systems [0.812761334568906]
本稿では,AIシステムの脆弱性を評価し,評価する多層リスクスコアリングフレームワークであるCORTEXを紹介する。
AIインシデントデータベース(AIID)に記録された1200件以上のインシデントを実証分析した。
結果として得られる複合スコアは、AIリスクレジスタ、モデル監査、適合性チェック、動的ガバナンスダッシュボード間で運用することができる。
論文 参考訳(メタデータ) (2025-08-24T07:30:25Z) - LM Agents May Fail to Act on Their Own Risk Knowledge [15.60032437959883]
言語モデル(LM)エージェントは、安全クリティカルなシナリオにおいて、様々な潜在的な、深刻なリスクをもたらす。
Sudo rm -rf /*' が危険なのか?」といった質問に対して "Yes" と答えることが多いが、インスタンス化された軌跡におけるそのようなリスクを特定できない可能性が高い。
論文 参考訳(メタデータ) (2025-08-19T02:46:08Z) - Cannot See the Forest for the Trees: Invoking Heuristics and Biases to Elicit Irrational Choices of LLMs [83.11815479874447]
本研究では,人間の認知における認知的分解と偏見に触発された新しいジェイルブレイク攻撃フレームワークを提案する。
我々は、悪意のあるプロンプトの複雑さと関連バイアスを減らし、認知的分解を用いて、プロンプトを再編成する。
また、従来の二分的成功または失敗のパラダイムを超越したランキングベースの有害度評価指標も導入する。
論文 参考訳(メタデータ) (2025-05-03T05:28:11Z) - Adapting Probabilistic Risk Assessment for AI [0.0]
汎用人工知能(AI)システムは、緊急リスク管理の課題を示す。
現在の手法は、しばしば選択的なテストとリスク優先順位に関する未文書の仮定に依存します。
本稿では,AIフレームワークの確率的リスクアセスメント(PRA)を紹介する。
論文 参考訳(メタデータ) (2025-04-25T17:59:14Z) - An Approach to Technical AGI Safety and Security [72.83728459135101]
我々は、人類を著しく傷つけるのに十分な害のリスクに対処するアプローチを開発する。
私たちは、誤用や悪用に対する技術的なアプローチに重点を置いています。
これらの成分を組み合わせてAGIシステムの安全性を実現する方法について概説する。
論文 参考訳(メタデータ) (2025-04-02T15:59:31Z) - Answer, Refuse, or Guess? Investigating Risk-Aware Decision Making in Language Models [63.559461750135334]
言語モデル(LM)は、目標を達成するために自律的に行動可能なエージェントを構築するために、ますます使われています。
本研究では,人為的リスク構造を体系的に変化させる評価枠組みを用いて,この「回答または延期」問題を考察する。
回答や判断に要する独立したスキルを分離した簡易なスキル分解手法が,LMの意思決定ポリシーを一貫して改善できることがわかった。
論文 参考訳(メタデータ) (2025-03-03T09:16:26Z) - Mapping LLM Security Landscapes: A Comprehensive Stakeholder Risk Assessment Proposal [0.0]
本稿では,従来のシステムにおけるリスク評価手法のようなツールを用いたリスク評価プロセスを提案する。
我々は、潜在的な脅威要因を特定し、脆弱性要因に対して依存するシステムコンポーネントをマッピングするためのシナリオ分析を行う。
3つの主要株主グループに対する脅威もマップ化しています。
論文 参考訳(メタデータ) (2024-03-20T05:17:22Z) - The Reasoning Under Uncertainty Trap: A Structural AI Risk [0.0]
RUUを人間と機械の両方にとって困難なものにしているのは、レポートにある。
この誤用リスクが、基盤となる構造的リスクのネットワークとどのように結びつくのかを詳述する。
論文 参考訳(メタデータ) (2024-01-29T17:16:57Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。