論文の概要: One Documentation Does Not Fit All: Case Study of TensorFlow Documentation
- arxiv url: http://arxiv.org/abs/2505.01939v1
- Date: Sat, 03 May 2025 22:22:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.341287
- Title: One Documentation Does Not Fit All: Case Study of TensorFlow Documentation
- Title(参考訳): 1つのドキュメンテーションは、すべてに合わない:TensorFlowドキュメンテーションのケーススタディ
- Authors: Sharuka Promodya Thirimanne, Elim Yoseph Lemango, Giulio Antoniol, Maleknaz Nayebi,
- Abstract要約: 本研究では,これらのアーティファクトを分析し,質問のタイプや背景を理解するために,チュートリアルやアーティファクトの傾向を検討した。
その結果,質問内容や内容に有意な差は認められなかった。
結果から,問題のうち24.9%はエラーや例外に関係しており,64.3%は文書の不十分な例と非汎用的な例に関係していることがわかった。
- 参考スコア(独自算出の注目度): 2.0749231618270803
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Software documentation guides the proper use of tools or services. With the rapid growth of machine learning libraries, individuals from various fields are incorporating machine learning into their workflows through programming. However, many of these users lack software engineering experience, affecting the usability of the documentation. Traditionally, software developers have created documentation primarily for their peers, making it challenging for others to interpret and effectively use these resources. Moreover, no study has specifically focused on machine learning software documentation or analyzing the backgrounds of developers who rely on such documentation, highlighting a critical gap in understanding how to make these resources more accessible. This study examined customization trends in TensorFlow tutorials and compared these artifacts to analyze content and design differences. We also analyzed Stack Overflow questions related to TensorFlow documentation to understand the types of questions and the backgrounds of the developers asking them. Further, we developed two taxonomies based on the nature and triggers of the questions for machine learning software. Our findings showed no significant differences in the content or the nature of the questions across different tutorials. Our results show that 24.9% of the questions concern errors and exceptions, while 64.3% relate to inadequate and non-generalizable examples in the documentation. Despite efforts to create customized documentation, our analysis indicates that current TensorFlow documentation does not effectively support its target users.
- Abstract(参考訳): ソフトウェアドキュメンテーションは、ツールやサービスの適切な使用をガイドします。
機械学習ライブラリの急速な成長に伴い、さまざまな分野の個人が、プログラミングを通じて機械学習をワークフローに取り入れている。
しかしながら、これらのユーザの多くは、ソフトウェアエンジニアリングの経験がなく、ドキュメントのユーザビリティに影響を与えています。
伝統的に、ソフトウェア開発者は、主に仲間のためにドキュメントを作成しており、他の人がこれらのリソースを解釈し、効果的に利用することは困難である。
さらに、機械学習ソフトウェアドキュメンテーションや、そのようなドキュメンテーションに依存している開発者のバックグラウンドの分析に特に重点を置いている研究は、これらのリソースをよりアクセスしやすいものにする方法を理解する上で重要なギャップを浮き彫りにしている。
本研究では、TensorFlowチュートリアルのカスタマイズトレンドを調査し、これらのアーティファクトを比較して、コンテンツと設計の違いを分析した。
また、TensorFlowドキュメントに関連するStack Overflowの質問を分析して、質問する開発者のタイプと背景を理解しました。
さらに,機械学習ソフトウェアに対する疑問の性質と引き金として,2つの分類法を開発した。
その結果,質問内容や内容に有意な差は認められなかった。
結果から,問題のうち24.9%はエラーや例外に関係しており,64.3%は文書の不十分な例と非汎用的な例に関係していることがわかった。
カスタマイズされたドキュメンテーションを作成する努力にも関わらず、私たちの分析では、現在のTensorFlowドキュメンテーションがターゲットユーザを効果的にサポートしていないことを示している。
関連論文リスト
- The Software Documentor Mindset [10.55519622264761]
そこで、26人のボランティアドキュメンテーションコントリビュータ、すなわちドキュメンテーションコントリビュータにインタビューを行い、その理由と、それらのドキュメンテーションの作り方について聞いた。
ドキュメンテーションのコントリビューションプロセスにおいて,ドキュメンテーション担当者が持つ16の考察を,モチベーション,トピック選択技術,スタイリング目的の3つの側面に沿って特定した。
本稿では,ドキュメントのコントリビューションプロセスに関する推論の枠組みとして,考え方の構造とその3つの側面にわたる考察を提案する。
論文 参考訳(メタデータ) (2024-12-12T16:28:08Z) - Understanding Documentation Use Through Log Analysis: An Exploratory
Case Study of Four Cloud Services [14.104545948572836]
クラウドベースの4つの産業サービスから,ドキュメントのページビューログを分析した。
10万人以上のユーザのページビューログを分析することで、さまざまなドキュメントページ訪問パターンが見つかる。
本論文では,文書の監査を行うための有効な手法として,文書のページビューログ分析を提案する。
論文 参考訳(メタデータ) (2023-10-16T20:37:29Z) - PyRCA: A Library for Metric-based Root Cause Analysis [66.72542200701807]
PyRCAは、AIOps(AIOps)のためのRoot Cause Analysis(RCA)のオープンソースの機械学習ライブラリである。
複雑なメトリクス因果依存性を明らかにし、インシデントの根本原因を自動的に特定する、包括的なフレームワークを提供する。
論文 参考訳(メタデータ) (2023-06-20T09:55:10Z) - A Study of Documentation for Software Architecture [7.011803832284996]
私たちは65人の参加者に、ソフトウェアアーキテクチャの理解に関する質問に答えるように頼みました。
アクティビティの適用と作成を必要とする質問に対する回答は、システムのソースコードの使用と統計的に大きく関連している。
本研究の結果は,建築文書の形式が重要であるという仮説と矛盾するものである。
論文 参考訳(メタデータ) (2023-05-26T22:14:53Z) - Same or Different? Diff-Vectors for Authorship Analysis [78.83284164605473]
古典的な著作物分析において、特徴ベクトルは文書を表し、特徴の値は文書中の特徴の相対周波数(関数の増大)を表し、クラスラベルは文書の著者を表す。
筆者らの実験は共著者検証,著者検証,クローズドセットの著者帰属に取り組んでおり,DVは自然に第1の問題を解くのに向いているが,第2と第3の問題を解くための2つの新しい方法も提供している。
論文 参考訳(メタデータ) (2023-01-24T08:48:12Z) - AI Explainability 360: Impact and Design [120.95633114160688]
2019年、私たちはAI Explainability 360(Arya et al. 2020)を開発しました。
本稿では,いくつかのケーススタディ,統計,コミュニティフィードバックを用いて,ツールキットが与える影響について検討する。
また,ツールキットのフレキシブルな設計,使用例,利用者が利用可能な教育資料や資料についても述べる。
論文 参考訳(メタデータ) (2021-09-24T19:17:09Z) - ProtoTransformer: A Meta-Learning Approach to Providing Student Feedback [54.142719510638614]
本稿では,フィードバックを数発の分類として提供するという課題について考察する。
メタラーナーは、インストラクターによるいくつかの例から、新しいプログラミング質問に関する学生のコードにフィードバックを与えるように適応します。
本手法は,第1段階の大学が提供したプログラムコースにおいて,16,000名の学生試験ソリューションに対するフィードバックの提供に成功している。
論文 参考訳(メタデータ) (2021-07-23T22:41:28Z) - Combining Feature and Instance Attribution to Detect Artifacts [62.63504976810927]
トレーニングデータアーティファクトの識別を容易にする手法を提案する。
提案手法は,トレーニングデータのアーティファクトの発見に有効であることを示す。
我々は,これらの手法が実際にNLP研究者にとって有用かどうかを評価するために,小規模なユーザスタディを実施している。
論文 参考訳(メタデータ) (2021-07-01T09:26:13Z) - KILT: a Benchmark for Knowledge Intensive Language Tasks [102.33046195554886]
知識集約型言語タスク(KILT)のベンチマークを示す。
KILTのすべてのタスクはウィキペディアのスナップショットと同じだ。
共有密度ベクトル指数とSeq2seqモデルとの結合が強いベースラインであることが分かる。
論文 参考訳(メタデータ) (2020-09-04T15:32:19Z) - Documentation of Machine Learning Software [7.154621689269006]
機械学習ソフトウェアドキュメンテーションは、ソフトウェア工学の研究で研究されたほとんどのドキュメントとは異なる。
私たちの最終的な目標は、さまざまなレベルの専門知識を持つユーザのための機械学習ソフトウェアドキュメントの自動生成と適応です。
Stack Overflow Q/Aを調査し、機械学習領域内のドキュメント関連Q/Aを分類する。
論文 参考訳(メタデータ) (2020-01-30T00:01:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。