論文の概要: Smart Data Portfolios: A Quantitative Framework for Input Governance in AI
- arxiv url: http://arxiv.org/abs/2512.16452v1
- Date: Thu, 18 Dec 2025 12:15:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:32.046453
- Title: Smart Data Portfolios: A Quantitative Framework for Input Governance in AI
- Title(参考訳): Smart Data Portfolios: AIにおける入力ガバナンスのための定量的フレームワーク
- Authors: A. Talha Yalta, A. Yasemin Yalta,
- Abstract要約: 公正性、プライバシ、堅牢性、透明性に関する懸念が高まり、AIガバナンスに対する中心的な期待が高まっている。
我々は、データカテゴリを生産的だがリスクを伴う資産として扱うSmart Data Portfolioフレームワークを紹介します。
レギュレータはこのフロンティアを、リスクキャップ、許容可能なカテゴリ、およびウェイトバンドを通じて形成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Growing concerns about fairness, privacy, robustness, and transparency have made it a central expectation of AI governance that automated decisions be explainable by institutions and intelligible to affected parties. We introduce the Smart Data Portfolio (SDP) framework, which treats data categories as productive but risk-bearing assets, formalizing input governance as an information-risk trade-off. Within this framework, we define two portfolio-level quantities, Informational Return and Governance-Adjusted Risk, whose interaction characterizes data mixtures and generates a Governance-Efficient Frontier. Regulators shape this frontier through risk caps, admissible categories, and weight bands that translate fairness, privacy, robustness, and provenance requirements into measurable constraints on data allocation while preserving model flexibility. A telecommunications illustration shows how different AI services require distinct portfolios within a common governance structure. The framework offers a familiar portfolio logic as an input-level explanation layer suited to the large-scale deployment of AI systems.
- Abstract(参考訳): 公正性、プライバシ、堅牢性、透明性に関する懸念が高まっているため、AIガバナンスは、自動化された決定が機関によって説明可能であり、影響を受ける当事者には理解できない、という中心的な期待を実現している。
我々は、データカテゴリを生産的だがリスクを伴う資産として扱うスマートデータポートフォリオ(SDP)フレームワークを導入し、入力ガバナンスを情報リスクのトレードオフとして定式化する。
この枠組みでは、情報リターンとガバナンス調整リスクという2つのポートフォリオレベルの量を定義し、その相互作用がデータ混合を特徴付け、ガバナンス効率の良いフロンティアを生成する。
レギュレータはこのフロンティアを、リスクキャップ、許容カテゴリ、ウェイトバンドを通じて形成し、公正性、プライバシ、ロバスト性、およびプロファイランス要件を、モデルの柔軟性を維持しながらデータアロケーションに関する測定可能な制約に変換する。
電気通信の図は、異なるAIサービスが共通のガバナンス構造の中で、どのように異なるポートフォリオを必要とするかを示しています。
このフレームワークは、AIシステムの大規模展開に適した入力レベルの説明層として、よく知られたポートフォリオロジックを提供する。
関連論文リスト
- Rethinking Data Protection in the (Generative) Artificial Intelligence Era [138.07763415496288]
現代の(生産的な)AIモデルやシステムに生じる多様な保護ニーズを捉える4段階の分類法を提案する。
当社のフレームワークは、データユーティリティとコントロールのトレードオフに関する構造化された理解を提供し、AIパイプライン全体にわたっています。
論文 参考訳(メタデータ) (2025-07-03T02:45:51Z) - DP-RTFL: Differentially Private Resilient Temporal Federated Learning for Trustworthy AI in Regulated Industries [0.0]
本稿では,DP-RTFL(Disferially Private Resilient Temporal Federated Learning)を紹介する。
トレーニングの継続性、正確な状態回復、強力なデータプライバシを保証するように設計されている。
このフレームワークは、機密性の高い財務データを使用した信用リスク評価のような重要なアプリケーションに特に適している。
論文 参考訳(メタデータ) (2025-05-27T16:30:25Z) - Trustworthy AI: Securing Sensitive Data in Large Language Models [0.0]
大規模言語モデル(LLM)は、堅牢なテキスト生成と理解を可能にすることで自然言語処理(NLP)を変革した。
本稿では, 機密情報の開示を動的に制御するために, 信頼機構をLCMに組み込むための包括的枠組みを提案する。
論文 参考訳(メタデータ) (2024-09-26T19:02:33Z) - Coordinated Flaw Disclosure for AI: Beyond Security Vulnerabilities [1.3225694028747144]
本稿では,機械学習(ML)問題の複雑度に合わせたコーディネート・フレーバー開示フレームワークを提案する。
本フレームワークは,拡張モデルカード,ダイナミックスコープ拡張,独立適応パネル,自動検証プロセスなどのイノベーションを導入している。
CFDはAIシステムに対する公的な信頼を著しく向上させる可能性があると我々は主張する。
論文 参考訳(メタデータ) (2024-02-10T20:39:04Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。