論文の概要: DAG Card is the new Model Card
- arxiv url: http://arxiv.org/abs/2110.13601v1
- Date: Sun, 24 Oct 2021 20:54:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-27 16:10:16.982972
- Title: DAG Card is the new Model Card
- Title(参考訳): DAGカードが新しいモデルカードになる
- Authors: Jacopo Tagliabue, Ville Tuulos, Ciro Greco, Valay Dave
- Abstract要約: データ中心の視点の長所を包含する文書の形式としてDAGカードを提案する。
機械学習パイプラインは、多くの実用的なユースケースにおいて最も適切なレベルのドキュメントである、と私たちは主張する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: With the progressive commoditization of modeling capabilities, data-centric
AI recognizes that what happens before and after training becomes crucial for
real-world deployments. Following the intuition behind Model Cards, we propose
DAG Cards as a form of documentation encompassing the tenets of a data-centric
point of view. We argue that Machine Learning pipelines (rather than models)
are the most appropriate level of documentation for many practical use cases,
and we share with the community an open implementation to generate cards from
code.
- Abstract(参考訳): モデリング機能の進歩的なコモディティ化によって、データ中心のAIは、トレーニングの前後で何が起こるかが現実のデプロイメントに不可欠であることを認識します。
モデルカードの背景にある直感に続いて,データ中心の視点を包含する文書としてDAGカードを提案する。
機械学習パイプラインは(モデルではなく)多くの実用的なユースケースにおいて最も適切なレベルのドキュメントであり、コードからカードを生成するオープン実装をコミュニティと共有しています。
関連論文リスト
- What's documented in AI? Systematic Analysis of 32K AI Model Cards [40.170354637778345]
我々は、Hugging Face上で32,111のAIモデルドキュメンテーションを包括的に分析する。
かなりダウンロードされたAIモデルのほとんどはモデルカードを提供するが、カードには不明確な情報がある。
その結果, 環境影響, 限界, 評価に対処する区間は, 最下位の充足率を示す一方, トレーニング区間は最下位の充足率を示すことがわかった。
論文 参考訳(メタデータ) (2024-02-07T18:04:32Z) - The State of Documentation Practices of Third-party Machine Learning
Models and Datasets [8.494940891363813]
我々は,現在使用されている最大規模のモデルストアのひとつにおいて,モデルカードとデータセットカードの文書化の実践状況を評価する。
調査の結果,21,902モデル (39.62%) と1,925データセット (28.48%) のみが文書化されていることがわかった。
論文 参考訳(メタデータ) (2023-12-22T20:45:52Z) - Unlocking Model Insights: A Dataset for Automated Model Card Generation [4.167070553534516]
25のMLモデルに対して500対の質問応答ペアのデータセットを導入する。
元の論文から回答を抽出するためにアノテーションを使用します。
また,ChatGPT-3.5,LLaMa,Galacticaを用いた実験では,これらのLMによる研究論文の理解に大きなギャップが認められた。
論文 参考訳(メタデータ) (2023-09-22T04:46:11Z) - A Multi-Format Transfer Learning Model for Event Argument Extraction via
Variational Information Bottleneck [68.61583160269664]
イベント引数抽出(EAE)は、テキストから所定の役割を持つ引数を抽出することを目的としている。
変動情報のボトルネックを考慮したマルチフォーマット変換学習モデルを提案する。
3つのベンチマークデータセットに対して広範な実験を行い、EAE上での新たな最先端性能を得る。
論文 参考訳(メタデータ) (2022-08-27T13:52:01Z) - Teacher Guided Training: An Efficient Framework for Knowledge Transfer [86.6784627427194]
高品質なコンパクトモデルを訓練するための教師誘導訓練(TGT)フレームワークを提案する。
TGTは、教師が基礎となるデータドメインの優れた表現を取得したという事実を利用する。
TGTは複数の画像分類ベンチマークやテキスト分類や検索タスクの精度を向上させることができる。
論文 参考訳(メタデータ) (2022-08-14T10:33:58Z) - Unified Pretraining Framework for Document Understanding [52.224359498792836]
文書理解のための統合事前学習フレームワークであるUDocを紹介する。
UDocは、ほとんどのドキュメント理解タスクをサポートするように設計されており、Transformerを拡張してマルチモーダル埋め込みを入力とする。
UDocの重要な特徴は、3つの自己管理的損失を利用して汎用的な表現を学ぶことである。
論文 参考訳(メタデータ) (2022-04-22T21:47:04Z) - Aspirations and Practice of Model Documentation: Moving the Needle with
Nudging and Traceability [8.875661788022637]
機械学習モデルの文書化実践を支援するための一連の設計ガイドラインを提案する。
DocMLという名前のプロトタイプツールは、計算ノートブックのモデル開発をサポートするためのガイドラインに従っている。
論文 参考訳(メタデータ) (2022-04-13T14:39:18Z) - Integrating Semantics and Neighborhood Information with Graph-Driven
Generative Models for Document Retrieval [51.823187647843945]
本稿では,周辺情報をグラフ誘導ガウス分布でエンコードし,その2種類の情報をグラフ駆動生成モデルと統合することを提案する。
この近似の下では、トレーニング対象がシングルトンまたはペアワイズ文書のみを含む用語に分解可能であることを証明し、モデルが非関連文書と同じくらい効率的にトレーニングできることを示す。
論文 参考訳(メタデータ) (2021-05-27T11:29:03Z) - Mapping Patterns for Virtual Knowledge Graphs [71.61234136161742]
仮想知識グラフ(VKG)は、レガシーデータソースの統合とアクセスのための最も有望なパラダイムの1つである。
データ管理、データ分析、概念モデリングにおいて研究された、確立された方法論とパターンに基づいて構築する。
検討されたVKGシナリオに基づいて,私たちのカタログを検証し,そのパターンの大部分をカバーすることを示す。
論文 参考訳(メタデータ) (2020-12-03T13:54:52Z) - Coach: A Coarse-to-Fine Approach for Cross-domain Slot Filling [65.09621991654745]
クロスドメインスロットフィリングはタスク指向ダイアログシステムにおいて重要なタスクである。
クロスドメインスロットフィリングのための粗粒度アプローチ(Coach)を提案する。
実験結果から,本モデルはスロット充填における最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2020-04-24T13:07:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。