論文の概要: The Foundation Model Transparency Index
- arxiv url: http://arxiv.org/abs/2310.12941v1
- Date: Thu, 19 Oct 2023 17:39:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-20 13:54:27.971050
- Title: The Foundation Model Transparency Index
- Title(参考訳): 基礎モデル透明性指標
- Authors: Rishi Bommasani, Kevin Klyman, Shayne Longpre, Sayash Kapoor, Nestor
Maslej, Betty Xiong, Daniel Zhang, Percy Liang
- Abstract要約: Foundation Model Transparency Indexは、ファンデーションモデルの透明性を規定する100の指標を規定している。
私たちは、彼らの旗艦となる基盤モデルのプラクティスに関連して、開発者をスコア付けします。
全体として、インデックスは、基盤モデルガバナンスの進展を促進するために、今日の透明性のレベルを確立します。
- 参考スコア(独自算出の注目度): 55.862805799199194
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Foundation models have rapidly permeated society, catalyzing a wave of
generative AI applications spanning enterprise and consumer-facing contexts.
While the societal impact of foundation models is growing, transparency is on
the decline, mirroring the opacity that has plagued past digital technologies
(e.g. social media). Reversing this trend is essential: transparency is a vital
precondition for public accountability, scientific innovation, and effective
governance. To assess the transparency of the foundation model ecosystem and
help improve transparency over time, we introduce the Foundation Model
Transparency Index. The Foundation Model Transparency Index specifies 100
fine-grained indicators that comprehensively codify transparency for foundation
models, spanning the upstream resources used to build a foundation model (e.g
data, labor, compute), details about the model itself (e.g. size, capabilities,
risks), and the downstream use (e.g. distribution channels, usage policies,
affected geographies). We score 10 major foundation model developers (e.g.
OpenAI, Google, Meta) against the 100 indicators to assess their transparency.
To facilitate and standardize assessment, we score developers in relation to
their practices for their flagship foundation model (e.g. GPT-4 for OpenAI,
PaLM 2 for Google, Llama 2 for Meta). We present 10 top-level findings about
the foundation model ecosystem: for example, no developer currently discloses
significant information about the downstream impact of its flagship model, such
as the number of users, affected market sectors, or how users can seek redress
for harm. Overall, the Foundation Model Transparency Index establishes the
level of transparency today to drive progress on foundation model governance
via industry standards and regulatory intervention.
- Abstract(参考訳): ファウンデーションモデルは急速に社会に浸透し、企業や消費者が直面するコンテキストにまたがる生成AIアプリケーションの波を引き起こしている。
基礎モデルの社会的影響は増大しているが、透明性の低下は過去のデジタル技術(ソーシャルメディアなど)を悩ませた不透明さを反映している。
透明性は、公的説明責任、科学的革新、効果的なガバナンスにとって重要な前提条件である。
基礎モデルのエコシステムの透明性を評価し、時間とともに透明性を向上させるために、基盤モデルの透明性指標を導入します。
foundation model transparency indexは、基盤モデルを構築するのに使用される上流のリソース(例えば、データ、労力、計算)、モデル自体の詳細(サイズ、能力、リスク)、下流の使用(例えば、流通チャネル、使用ポリシー、影響を受ける地形)にまたがる、基礎モデルの透明性を包括的に体系化する100のきめ細かい指標を特定する。
透明性を評価するために、100の指標に対して10の主要なファンデーションモデル開発者(OpenAI、Google、Metaなど)をスコア付けします。
評価の容易化と標準化のために、私たちは、彼らの旗艦となる基盤モデルのプラクティス(OpenAIのGPT-4、GoogleのPaLM 2、MetaのLlama 2など)に関して、開発者をスコア付けします。
例えば、フラッグシップモデルのダウンストリームへの影響に関する重要な情報(ユーザ数、影響を受けるマーケットセクタ、ユーザによる被害への対処方法など)を現在公表している開発者はいません。
全体として、foundation model transparency indexは、今日の透明性のレベルを確立し、業界標準と規制介入を通じて、foundation model governanceの進捗を促進する。
関連論文リスト
- The Foundation Model Transparency Index v1.1: May 2024 [54.78174872757794]
2023年10月、インデクスは100の透明性指標について10の主要なファンデーションモデル開発者を評価した。
当時、開発者は非常に限られた情報を公開しており、平均スコアは100点中37点だった。
開発者は、平均して100点中58点を獲得し、v1.0よりも21点改善している。
論文 参考訳(メタデータ) (2024-07-17T18:03:37Z) - Data Authenticity, Consent, & Provenance for AI are all broken: what will it take to fix them? [11.040101172803727]
基礎モデルの新機能は、大部分が大規模で、広くオープンソース化され、文書化されていないトレーニングデータ収集に負っている。
既存のデータ収集の実践は、信頼性の追跡、同意の検証、プライバシーの保護、表現と偏見への対処、著作権の尊重、倫理的かつ信頼できる基礎モデルを総合的に開発するという課題に繋がった。
論文 参考訳(メタデータ) (2024-04-19T07:42:35Z) - Foundation Model Transparency Reports [61.313836337206894]
本稿では,ソーシャルメディアにおける透明性レポートの実践を参考に,基礎モデル透明性レポートを提案する。
ソーシャルメディアの透明性レポートの成功と欠点から、6つの設計原則を特定します。
十分に設計された透明性レポートは、規制要件の重複によるコンプライアンスコストの低減につながる可能性がある。
論文 参考訳(メタデータ) (2024-02-26T03:09:06Z) - Window-based Model Averaging Improves Generalization in Heterogeneous
Federated Learning [29.140054600391917]
Federated Learning (FL)は、分散ユーザからグローバルモデルを学び、プライバシを保護することを目的としている。
ウィンドウベースアプローチを用いて,異なるラウンドからグローバルモデルを集約するWIMA(Window-based Model Averaging)を提案する。
本実験は,WIMAの分散シフトに対する堅牢性やクライアントサンプリングの悪さを実証し,よりスムーズで安定した学習傾向を示した。
論文 参考訳(メタデータ) (2023-10-02T17:30:14Z) - Rethinking People Analytics With Inverse Transparency by Design [57.67333075002697]
我々は、デザインによる逆透過性(inverse transparency)と呼ぶ、労働分析のための新しい設計手法を提案する。
アーキテクチャの変更はコア機能を阻害することなく行われます。
我々は、デザインによる逆透明性は、受け入れられ、責任ある人々の分析を実現するための有望なアプローチである、と結論付けている。
論文 参考訳(メタデータ) (2023-05-16T21:37:35Z) - Fine-tuning Global Model via Data-Free Knowledge Distillation for
Non-IID Federated Learning [86.59588262014456]
フェデレートラーニング(Federated Learning, FL)は、プライバシ制約下での分散学習パラダイムである。
サーバ内のグローバルモデル(FedFTG)を微調整するデータフリー知識蒸留法を提案する。
私たちのFedFTGは最先端(SOTA)のFLアルゴリズムよりも優れており、FedAvg、FedProx、FedDyn、SCAFFOLDの強化のための強力なプラグインとして機能します。
論文 参考訳(メタデータ) (2022-03-17T11:18:17Z) - Trustworthy Transparency by Design [57.67333075002697]
本稿では,ユーザ信頼とエクスペリエンスに関する研究を取り入れた,ソフトウェア設計のための透明性フレームワークを提案する。
私たちのフレームワークは、その設計に透明性を取り入れたソフトウェアの開発を可能にします。
論文 参考訳(メタデータ) (2021-03-19T12:34:01Z) - Interpretabilit\'e des mod\`eles : \'etat des lieux des m\'ethodes et
application \`a l'assurance [1.6058099298620423]
データは、今日の多くのモデルの原材料であり、デジタルサービスの品質とパフォーマンスを向上させることができる。
モデル利用者は、モデルが差別されないようにし、その結果を説明することも可能であることを保証する必要がある。
予測アルゴリズムのパネルを広げると、科学者はモデルの使用について警戒するようになる。
論文 参考訳(メタデータ) (2020-07-25T12:18:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。