論文の概要: Data-Centric AI Governance: Addressing the Limitations of Model-Focused Policies
- arxiv url: http://arxiv.org/abs/2409.17216v1
- Date: Wed, 25 Sep 2024 17:59:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-01 07:32:00.975563
- Title: Data-Centric AI Governance: Addressing the Limitations of Model-Focused Policies
- Title(参考訳): データ中心AIガバナンス - モデル焦点ポリシーの限界に対処する
- Authors: Ritwik Gupta, Leah Walker, Rodolfo Corona, Stephanie Fu, Suzanne Petryk, Janet Napolitano, Trevor Darrell, Andrew W. Reddie,
- Abstract要約: 強力なAI能力に関する現在の規制は、"境界"または"フロンティア"モデルに絞られている。
これらの用語は曖昧で一貫性のない定義であり、ガバナンス活動の不安定な基盤につながります。
本稿では,モデルがもたらすリスクを評価する上で,データセットのサイズや内容が重要な要因であることを示す。
- 参考スコア(独自算出の注目度): 40.92400015183777
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current regulations on powerful AI capabilities are narrowly focused on "foundation" or "frontier" models. However, these terms are vague and inconsistently defined, leading to an unstable foundation for governance efforts. Critically, policy debates often fail to consider the data used with these models, despite the clear link between data and model performance. Even (relatively) "small" models that fall outside the typical definitions of foundation and frontier models can achieve equivalent outcomes when exposed to sufficiently specific datasets. In this work, we illustrate the importance of considering dataset size and content as essential factors in assessing the risks posed by models both today and in the future. More broadly, we emphasize the risk posed by over-regulating reactively and provide a path towards careful, quantitative evaluation of capabilities that can lead to a simplified regulatory environment.
- Abstract(参考訳): 強力なAI能力に関する現在の規制は、"境界"または"フロンティア"モデルに絞られている。
しかし、これらの用語は曖昧で矛盾なく定義されており、ガバナンス活動の不安定な基盤につながります。
批判的に、ポリシーの議論は、データとモデルパフォーマンスの間に明確なつながりがあるにもかかわらず、これらのモデルで使用されるデータを考えるのに失敗することが多い。
基礎モデルとフロンティアモデルの典型的な定義から外れた(相対的に)「小さな」モデルでさえ、十分な特定のデータセットに露出すると同等の結果が得られる。
本稿では,データセットのサイズと内容が,モデルが現在と将来の両方にもたらすリスクを評価する上で重要な要素であることを示す。
より広義には、過度に規制された反応によって引き起こされるリスクを強調し、簡易な規制環境に繋がる機能について、慎重に定量的に評価するための道筋を提供する。
関連論文リスト
- Constrained Latent Action Policies for Model-Based Offline Reinforcement Learning [5.012314384895537]
オフラインの強化学習では、環境からの高価なフィードバックがなければ、静的なデータセットを使ってポリシーが学習される。
我々は,観察と行動の連関分布の生成モデルを学習する制約付き潜在行動ポリシー(C-LAP)を提案する。
論文 参考訳(メタデータ) (2024-11-07T09:35:22Z) - Conformal Prediction for Federated Graph Neural Networks with Missing Neighbor Information [2.404163279345609]
本研究は,連合グラフ学習へのコンフォーマル予測の適用性を拡張した。
分散サブグラフにおけるリンク不足問題に対処し、CPセットサイズに対する悪影響を最小限に抑える。
本稿では,欠落したデータに対する負の影響を軽減するために,変分オートエンコーダに基づく近隣住民の再構築手法を提案する。
論文 参考訳(メタデータ) (2024-10-17T20:22:25Z) - SeMOPO: Learning High-quality Model and Policy from Low-quality Offline Visual Datasets [32.496818080222646]
モデルに基づくオフライン強化学習のための新しい手法を提案する。
モデルの不確かさとSeMOPOの性能バウンダリに関する理論的保証を提供する。
実験結果から,本手法はベースライン法を著しく上回ることがわかった。
論文 参考訳(メタデータ) (2024-06-13T15:16:38Z) - Low-rank finetuning for LLMs: A fairness perspective [54.13240282850982]
低ランク近似技術は、微調整された大規模言語モデルのデファクトスタンダードとなっている。
本稿では,これらの手法が初期訓練済みデータ分布から微調整データセットのシフトを捉える上での有効性について検討する。
低ランク微調整は好ましくない偏見や有害な振る舞いを必然的に保存することを示す。
論文 参考訳(メタデータ) (2024-05-28T20:43:53Z) - Model-based Offline Policy Optimization with Adversarial Network [0.36868085124383626]
本稿では,新たなモデルベースオフラインポリシー最適化フレームワーク(MOAN)を提案する。
主なアイデアは、敵の学習を使って、より良い一般化を伴う遷移モデルを構築することである。
我々の手法は、広く研究されているオフラインRLベンチマークにおいて、最先端のベースラインよりも優れている。
論文 参考訳(メタデータ) (2023-09-05T11:49:33Z) - Large Language Models with Controllable Working Memory [64.71038763708161]
大規模言語モデル(LLM)は、自然言語処理(NLP)の一連のブレークスルーをもたらした。
これらのモデルをさらに切り離すのは、事前訓練中に内在する膨大な量の世界的知識だ。
モデルの世界知識が、文脈で提示された事実情報とどのように相互作用するかは、まだ解明されていない。
論文 参考訳(メタデータ) (2022-11-09T18:58:29Z) - COMBO: Conservative Offline Model-Based Policy Optimization [120.55713363569845]
ディープニューラルネットワークのような複雑なモデルによる不確実性推定は困難であり、信頼性が低い。
我々は,サポート外状態動作の値関数を正規化するモデルベースオフラインRLアルゴリズムCOMBOを開発した。
従来のオフラインモデルフリーメソッドやモデルベースメソッドと比べて、comboは一貫してパフォーマンスが良いことが分かりました。
論文 参考訳(メタデータ) (2021-02-16T18:50:32Z) - Characterizing Fairness Over the Set of Good Models Under Selective
Labels [69.64662540443162]
同様の性能を実現するモデルセットに対して,予測公正性を特徴付けるフレームワークを開発する。
到達可能なグループレベルの予測格差の範囲を計算するためのトラクタブルアルゴリズムを提供します。
選択ラベル付きデータの実証的な課題に対処するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-01-02T02:11:37Z) - On the model-based stochastic value gradient for continuous
reinforcement learning [50.085645237597056]
モデルベースエージェントは,サンプル効率と最終報酬の両方の観点から,最先端のモデルフリーエージェントより優れていることを示す。
以上の結果から,モデルに基づく政策評価がより注目に値することが示唆された。
論文 参考訳(メタデータ) (2020-08-28T17:58:29Z) - Counterfactual Learning of Stochastic Policies with Continuous Actions:
from Models to Offline Evaluation [41.21447375318793]
コンテクストとアクションを融合したカーネルを組み込んだモデリング戦略を導入する。
対実学習の最適化の側面が重要であることを実証的に示す。
実世界のログシステムにおけるオフラインポリシーの評価プロトコルを提案する。
論文 参考訳(メタデータ) (2020-04-22T07:42:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。