論文の概要: Building the ethical AI framework of the future: from philosophy to practice
- arxiv url: http://arxiv.org/abs/2603.06599v1
- Date: Mon, 16 Feb 2026 03:45:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-15 16:38:22.412242
- Title: Building the ethical AI framework of the future: from philosophy to practice
- Title(参考訳): 未来の倫理的AIフレームワークの構築:哲学から実践へ
- Authors: Jasper Kyle Catapang,
- Abstract要約: 既存のガバナンス機器は、高レベルのガイダンスを提供するが、多くの場合、強制力のあるエンドツーエンドの運用管理を欠いている。
本稿では,段階固有の執行機構に,連続論的・非論理的・美徳倫理的推論を組み込む倫理的・デザイン的制御アーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial intelligence pipelines -- spanning data collection, model training, deployment, and post-deployment monitoring -- concentrate ethical risks that intensify with multimodal and agentic systems. Existing governance instruments, including the EU AI Act, the IEEE 7000 series, and the NIST AI Risk Management Framework, provide high-level guidance but often lack enforceable, end-to-end operational controls. This paper presents an ethics-by-design control architecture that embeds consequentialist, deontological, and virtue-ethical reasoning into stage-specific enforcement mechanisms across the AI lifecycle. The framework implements a triple-gate structure at each lifecycle stage: Metric gates (quantitative performance and safety thresholds), Governance gates (legal, rights, and procedural compliance), and Eco gates (carbon and water budgets and sustainability constraints). It specifies measurable trigger conditions, escalation paths, audit artefacts, and mappings to EU AI Act obligations and NIST RMF functions, enabling integration with existing MLOps and CI/CD pipelines. Illustrative examples from large language model pipelines demonstrate how gate-based controls can surface and constrain technical, social, and environmental risks prior to release and during runtime. The framework is accompanied by a preregistered evaluation protocol that defines ex ante success criteria and assessment procedures, enabling falsifiable evaluation of gate effectiveness. By translating normative commitments into enforceable and testable controls, the framework provides a practical basis for operational AI governance across organizational contexts, jurisdictions, and deployment scales.
- Abstract(参考訳): 人工知能パイプライン — データ収集、モデルトレーニング、デプロイメント、デプロイ後の監視 — は、マルチモーダルおよびエージェントシステムで強化される倫理的リスクに集中する。
EU AI Act、IEEE 7000シリーズ、NIST AI Risk Management Frameworkなどの既存のガバナンス手段は、高いレベルのガイダンスを提供するが、強制可能なエンドツーエンドの運用管理を欠いていることが多い。
本稿では,AIライフサイクルにまたがる段階固有の執行機構に,連続論的・非論理的・美徳倫理的推論を組み込む倫理的・デザイン的制御アーキテクチャを提案する。
このフレームワークはライフサイクルの各段階で3つのゲート構造を実装している: メトリックゲート(定量的なパフォーマンスと安全性のしきい値)、ガバナンスゲート(法、権利、手続き的コンプライアンス)、エコゲート(炭素と水の予算と持続可能性の制約)。
測定可能なトリガ条件、エスカレーションパス、監査成果物、EU AI Actの義務とNIST RMF関数へのマッピングを定義し、既存のMLOpsとCI/CDパイプラインとの統合を可能にする。
大きな言語モデルパイプラインの例は、リリース前と実行中にゲートベースのコントロールがどのように技術的、社会的、環境的なリスクを表面化し、制約するかを示している。
このフレームワークには、事前登録された評価プロトコルが付属しており、エクスアンテ成功基準と評価手順を定義し、ゲート有効性の評価を可能にする。
規範的なコミットメントを強制的かつテスト可能なコントロールに変換することで、このフレームワークは、組織コンテキスト、管轄権、デプロイメントスケールにわたる運用AIガバナンスの実践的な基盤を提供する。
関連論文リスト
- COMPASS: The explainable agentic framework for Sovereignty, Sustainability, Compliance, and Ethics [0.0]
本稿では,値整合型AIを実現するために設計された,新しいマルチエージェントオーケストレーションシステムを提案する。
このフレームワークは、オーケストレータと、主権、カーボン・アウェア・コンピューティング、コンプライアンス、倫理に対処する4つの専門のサブエージェントで構成されている。
LLM-as-a-judge法を用いることで、定量的スコアを割り当て、各評価次元について説明可能な正当化を生成する。
論文 参考訳(メタデータ) (2026-03-11T20:14:35Z) - SAGE-LLM: Towards Safe and Generalizable LLM Controller with Fuzzy-CBF Verification and Graph-Structured Knowledge Retrieval for UAV Decision [46.089736018739295]
大型言語モデル (LLM) には、ドメイン固有のUAV制御知識と正式な安全保証がない。
本稿では,LLMに基づく列車自由な2層決定アーキテクチャを提案し,低レベルの高精度制御と高レベルの安全計画を統合する。
論文 参考訳(メタデータ) (2026-02-27T06:41:04Z) - Standards for trustworthy AI in the European Union: technical rationale, structural challenges, and an implementation path [0.0]
この白書は、AI法に基づく欧州のAI標準化の技術的基盤について考察する。
CEN/CENELECの標準化プロセスを説明するとともに、AIがユニークな課題を提起する理由を分析する。
論文 参考訳(メタデータ) (2026-01-21T11:58:47Z) - Behavior Trees vs Executable Ontologies: a Comparative Analysis of Robot Control Paradigms [51.56484100374058]
ロボット行動のモデリングには,インペラティブ・ビヘイビア・ツリー(BT)と宣言的実行可能オントロジー(EO)の2つのアプローチを比較した。
一方、EOはデータフロールールによって駆動される時間的イベントベースのセマンティックグラフとしてドメインを表現している。
論文 参考訳(メタデータ) (2025-11-19T09:38:01Z) - Towards a Framework for Supporting the Ethical and Regulatory Certification of AI Systems [8.633165810707315]
CERTAINプロジェクトは、規制コンプライアンス、倫理基準、透明性をAIシステムに統合することを目的としている。
このフレームワークのコアコンポーネントを構築するための方法論的な手順を概説する。
CERTAINは、規制コンプライアンスを推進し、欧州標準に沿った責任あるAIイノベーションを促進することを目的としている。
論文 参考訳(メタデータ) (2025-09-30T08:54:02Z) - A five-layer framework for AI governance: integrating regulation, standards, and certification [0.6875312133832078]
人工知能(AI)システムのガバナンスには、高レベルの規制原則と実践的な実装を結びつける構造的なアプローチが必要である。
既存のフレームワークは、規制が適合メカニズムにどのように変換されるかを明確にしていないため、コンプライアンスと施行のギャップが生じる。
5層AIガバナンスフレームワークが提案され、幅広い規制委任事項から特定の標準、アセスメント方法論、認定プロセスにまたがる。
論文 参考訳(メタデータ) (2025-09-14T16:19:08Z) - Safe and Certifiable AI Systems: Concepts, Challenges, and Lessons Learned [45.44933002008943]
この白書は、T"UV AUSTRIA Trusted AIフレームワークを提示する。
エンド・ツー・エンドの監査カタログであり、機械学習システムの評価と認定のための方法論である。
セキュアなソフトウェア開発、機能要件、倫理とデータプライバシという3つの柱の上に構築されているのは、EU AI Actの高レベルの義務を、特定かつテスト可能な基準に翻訳するものです。
論文 参考訳(メタデータ) (2025-09-08T17:52:08Z) - Toward a Global Regime for Compute Governance: Building the Pause Button [0.4952055253916912]
計算資源へのアクセスを制限することにより,AIシステムのトレーニングを防止するためのガバナンスシステムを提案する。
技術的、トレーサビリティ、規制という3つの重要な介入ポイントを特定し、それらをガバナンス-執行-検証フレームワークにまとめます。
技術的メカニズムとしては、改ざん防止FLOPキャップ、モデルロック、オフラインライセンスなどがある。
論文 参考訳(メタデータ) (2025-06-25T15:18:19Z) - Watermarking Without Standards Is Not AI Governance [46.71493672772134]
現在の実装は、効果的な監視を提供するのではなく、象徴的なコンプライアンスとして機能するリスクがある、と私たちは主張する。
本稿では,技術標準,監査インフラストラクチャ,実施機構を含む3層フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-27T18:10:04Z) - Designing Control Barrier Function via Probabilistic Enumeration for Safe Reinforcement Learning Navigation [55.02966123945644]
本稿では,ニューラルネットワーク検証技術を利用して制御障壁関数(CBF)とポリシー修正機構の設計を行う階層型制御フレームワークを提案する。
提案手法は,安全なCBFベースの制御層を構築するために使用される,安全でない操作領域を特定するための確率的列挙に依存する。
これらの実験は、効率的なナビゲーション動作を維持しながら、安全でない動作を補正する提案手法の能力を実証するものである。
論文 参考訳(メタデータ) (2025-04-30T13:47:25Z) - COMPL-AI Framework: A Technical Interpretation and LLM Benchmarking Suite for the EU Artificial Intelligence Act [40.233017376716305]
EUの人工知能法(AI Act)は、AI開発の責任を負うための重要なステップである。
明確な技術的解釈がなく、モデルのコンプライアンスを評価するのが難しい。
この研究は、この法律の最初の技術的解釈からなる包括的枠組みであるComple-AIを提示する。
論文 参考訳(メタデータ) (2024-10-10T14:23:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。