論文の概要: Foundation Model Transparency Reports
- arxiv url: http://arxiv.org/abs/2402.16268v1
- Date: Mon, 26 Feb 2024 03:09:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-27 14:44:10.607587
- Title: Foundation Model Transparency Reports
- Title(参考訳): 基礎モデル透明性レポート
- Authors: Rishi Bommasani, Kevin Klyman, Shayne Longpre, Betty Xiong, Sayash
Kapoor, Nestor Maslej, Arvind Narayanan, Percy Liang
- Abstract要約: 本稿では,ソーシャルメディアにおける透明性レポートの実践を参考に,基礎モデル透明性レポートを提案する。
ソーシャルメディアの透明性レポートの成功と欠点から、6つの設計原則を特定します。
十分に設計された透明性レポートは、規制要件の重複によるコンプライアンスコストの低減につながる可能性がある。
- 参考スコア(独自算出の注目度): 61.313836337206894
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Foundation models are critical digital technologies with sweeping societal
impact that necessitates transparency. To codify how foundation model
developers should provide transparency about the development and deployment of
their models, we propose Foundation Model Transparency Reports, drawing upon
the transparency reporting practices in social media. While external
documentation of societal harms prompted social media transparency reports, our
objective is to institutionalize transparency reporting for foundation models
while the industry is still nascent. To design our reports, we identify 6
design principles given the successes and shortcomings of social media
transparency reporting. To further schematize our reports, we draw upon the 100
transparency indicators from the Foundation Model Transparency Index. Given
these indicators, we measure the extent to which they overlap with the
transparency requirements included in six prominent government policies (e.g.,
the EU AI Act, the US Executive Order on Safe, Secure, and Trustworthy AI).
Well-designed transparency reports could reduce compliance costs, in part due
to overlapping regulatory requirements across different jurisdictions. We
encourage foundation model developers to regularly publish transparency
reports, building upon recommendations from the G7 and the White House.
- Abstract(参考訳): 基礎モデルは、透明性を必要とする社会的な影響を持つ重要なデジタル技術である。
ファウンデーションモデル開発者がモデルの開発と展開について透明性を提供する方法の定式化を目的として,ソーシャルメディアにおける透明性レポートの実践を参考に,ファンデーションモデル透明性レポートを提案する。
社会的被害に関する外部文書は、ソーシャルメディアの透明性レポートを引き起こしましたが、私たちの目標は、業界がまだ初期段階にある間に、基礎モデルの透明性レポートを制度化することにあります。
報告を設計するために,ソーシャルメディアの透明性レポートの成功と欠点を考慮し,設計原則を6つ同定した。
レポートのスキーマ化をさらに進めるために、Foundation Model Transparency Indexから100の透明性指標を取り上げます。
これらの指標から、我々は6つの主要な政府の政策(例えば、EU AI Act、US Executive Order on Safe、Secure、Trustworthy AI)に含まれる透明性要件と重複する程度を測定する。
十分に設計された透明性レポートはコンプライアンスコストを低減させる可能性がある。
我々は、G7とホワイトハウスの勧告に基づいて、ファンデーションモデル開発者が定期的に透明性レポートを公開することを奨励します。
関連論文リスト
- The Foundation Model Transparency Index v1.1: May 2024 [54.78174872757794]
2023年10月、インデクスは100の透明性指標について10の主要なファンデーションモデル開発者を評価した。
当時、開発者は非常に限られた情報を公開しており、平均スコアは100点中37点だった。
開発者は、平均して100点中58点を獲得し、v1.0よりも21点改善している。
論文 参考訳(メタデータ) (2024-07-17T18:03:37Z) - Automated Transparency: A Legal and Empirical Analysis of the Digital Services Act Transparency Database [6.070078201123852]
2022年11月1日、デジタルサービス法(DSA)が採択された。
DSAは、オンラインプラットフォームがコンテンツモデレーションの決定を報告する必要性を強調している(理由のステートメント' - SoRs)。
SoRは現在、2023年9月に欧州委員会によってローンチされたDSA Transparency Databaseで利用可能である。
本研究の目的は,透明性データベースがDSAの透明性の約束を果たすのに役立つかどうかを理解することである。
論文 参考訳(メタデータ) (2024-04-03T17:51:20Z) - The Foundation Model Transparency Index [55.862805799199194]
Foundation Model Transparency Indexは、ファンデーションモデルの透明性を規定する100の指標を規定している。
私たちは、彼らの旗艦となる基盤モデルのプラクティスに関連して、開発者をスコア付けします。
全体として、インデックスは、基盤モデルガバナンスの進展を促進するために、今日の透明性のレベルを確立します。
論文 参考訳(メタデータ) (2023-10-19T17:39:02Z) - A design theory for transparency of information privacy practices [0.0]
情報システムの普及は、社会的価値としてのプライバシーに対する深刻な脅威をますます引き起こす。
この脅威を軽減する1つのアプローチは、情報プライバシプラクティス(TIPP)の透明性を確立することで、消費者が情報をどのように処理するかをよりよく理解できるようにすることである。
我々は、プライバシーを社会的価値とする観点からTIPPを確立するのに有用な透明性アーティファクト設計のための理論基盤(TIPP理論)を開発する。
論文 参考訳(メタデータ) (2023-07-05T21:39:38Z) - Users are the North Star for AI Transparency [111.5679109784322]
透明な人工知能システムを求める声が広まっているにもかかわらず、この用語は、厳密な政策の目的や具体的な研究ラインのオリエント化を表すために、多義的な意味に過大評価されている。
このことが起こる理由の1つは、AI透明性の明確な理想が、この仕事の体で実現されないことである。
透明性はユーザ中心で、ユーザ指向で、誠実です。
論文 参考訳(メタデータ) (2023-03-09T18:53:29Z) - Bridging the Transparency Gap: What Can Explainable AI Learn From the AI
Act? [0.8287206589886881]
欧州連合は、AIシステムの透明性に関する詳細な要件を導入している。
XAIと透明性に関する法律には根本的な違いがある。
XAIと規制の異なる見解を比較することで、実践的な作業が透明性のギャップを埋める可能性のある4つの軸に到達します。
論文 参考訳(メタデータ) (2023-02-21T16:06:48Z) - Trustworthy Transparency by Design [57.67333075002697]
本稿では,ユーザ信頼とエクスペリエンスに関する研究を取り入れた,ソフトウェア設計のための透明性フレームワークを提案する。
私たちのフレームワークは、その設計に透明性を取り入れたソフトウェアの開発を可能にします。
論文 参考訳(メタデータ) (2021-03-19T12:34:01Z) - Dimensions of Transparency in NLP Applications [64.16277166331298]
aiシステムに関する記述とコミュニケーションに関する幅広い透明性が望ましいと考えられている。
以前の研究は、システムの透明性向上とユーザの混乱の間にトレードオフが存在することを示唆している。
論文 参考訳(メタデータ) (2021-01-02T11:46:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。