論文の概要: ReproducedPapers.org: Openly teaching and structuring machine learning
reproducibility
- arxiv url: http://arxiv.org/abs/2012.01172v1
- Date: Tue, 1 Dec 2020 11:19:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-31 10:08:16.527695
- Title: ReproducedPapers.org: Openly teaching and structuring machine learning
reproducibility
- Title(参考訳): replicadpapers.org: 機械学習再現性をオープンに教える
- Authors: Burak Yildiz, Hayley Hung, Jesse H. Krijthe, Cynthia C. S. Liem, Marco
Loog, Gosia Migut, Frans Oliehoek, Annibale Panichella, Przemyslaw Pawelczak,
Stjepan Picek, Mathijs de Weerdt, and Jan van Gemert
- Abstract要約: 我々は,学生間で複製プロジェクトを行うことと,AI研究者間でオンライン複製リポジトリの付加価値を評価する。
その結果, 再生プロジェクトを行う学生は, 科学的再生に重きを置いて, より批判的思考者となることが示唆された。
- 参考スコア(独自算出の注目度): 34.30197500925726
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present ReproducedPapers.org: an open online repository for teaching and
structuring machine learning reproducibility. We evaluate doing a reproduction
project among students and the added value of an online reproduction repository
among AI researchers. We use anonymous self-assessment surveys and obtained 144
responses. Results suggest that students who do a reproduction project place
more value on scientific reproductions and become more critical thinkers.
Students and AI researchers agree that our online reproduction repository is
valuable.
- Abstract(参考訳): ReproducedPapers.org: 機械学習再現性教育と構造化のためのオープンオンラインリポジトリ。
我々は,学生間で複製プロジェクトを行うことと,AI研究者間でオンライン複製リポジトリの付加価値を評価する。
匿名の自己評価調査を行い,144回答を得た。
その結果, 再生プロジェクトを行う学生は, 科学的再生を重視し, より批判的思考者となることが示唆された。
学生とAI研究者は、オンラインレクリエーションレポジトリが価値があることに同意します。
関連論文リスト
- Re-ReST: Reflection-Reinforced Self-Training for Language Agents [101.22559705696885]
言語エージェントにおける自己学習は、エージェント自体から監督を生成することができる。
リフレクション強化自己学習(Reflection-Reinforced Self-Training, Re-ReST)は, テキストレフレクタを用いて低品質な試料を精製する。
論文 参考訳(メタデータ) (2024-06-03T16:21:38Z) - Can citations tell us about a paper's reproducibility? A case study of machine learning papers [3.5120846057971065]
リソースの制約やドキュメントの不十分さは、レプリケーションの実行を特に困難にします。
本稿では,機械学習の再現性問題に関わる論文の引用文脈に適用した感情分析フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-07T03:29:11Z) - Brain-Like Replay Naturally Emerges in Reinforcement Learning Agents [3.9276584971242303]
リプレイを生成するモジュール型強化学習モデルを開発した。
この方法で生成されたリプレイがタスクの完了に役立つことを証明します。
我々の設計は複雑な仮定を回避し、タスク最適化パラダイム内で自然にリプレイを可能にする。
論文 参考訳(メタデータ) (2024-02-02T14:55:51Z) - torchdistill Meets Hugging Face Libraries for Reproducible, Coding-Free
Deep Learning Studies: A Case Study on NLP [3.0875505950565856]
モジュール駆動のコーディング不要なディープラーニングフレームワークである torchdistill を,大幅に改良したバージョンとして紹介する。
アップグレードされた torchdistill に基づくスクリプトを用いて,BERT モデルの GLUE ベンチマーク結果を再現する。
27の細調整されたBERTモデルと結果を再現する構成はすべて、Hugging Faceで公開されている。
論文 参考訳(メタデータ) (2023-10-26T17:57:15Z) - WebBrain: Learning to Generate Factually Correct Articles for Queries by
Grounding on Large Web Corpus [61.209202634703104]
我々は,Web から証拠をマイニングすることで,クエリを参照した短い事実記事を生成する NLP タスクを導入する。
最終的なゴールは、ウィキペディアに見当たらない事実検索のための、流動的で情報豊かで、事実的に正しい短い記事を作ることである。
我々は、英語のウィキペディア記事とそのクロール可能なウィキペディア参照を抽出し、大規模なデータセットWebBrain-Rawを構築した。
論文 参考訳(メタデータ) (2023-04-10T02:55:48Z) - Reproducibility of Machine Learning: Terminology, Recommendations and
Open Issues [5.30596984761294]
危機が最近科学者によって認識され、これはさらに人工知能と機械学習に影響を及ぼしているようだ。
私たちは、このトピックに関する現在の文献を批判的にレビューし、オープンな問題を強調します。
現代の機械学習でよく見過ごされる重要な要素を特定し、それらの新しい推奨事項を提供します。
論文 参考訳(メタデータ) (2023-02-24T15:33:20Z) - Building a Culture of Reproducibility in Academic Research [55.22219308265945]
再現性(reproducibility)は、研究者が「抽象的な」議論をしない理想であるが、願望が学界の冷酷な現実と出会うと、しばしば「消える」という理想である。
このエッセイでは、他の優先順位に対する要求のバランスをとりながら、運用方法に不満を抱く個人的な経験を共有します。
論文 参考訳(メタデータ) (2022-12-27T16:03:50Z) - Iterative Teacher-Aware Learning [136.05341445369265]
人間の教育において、教師と学生はコミュニケーション効率を最大化するために適応的に交流することができる。
本稿では,教師の協調意図を可能性関数に組み込むことができる,勾配最適化に基づく教師認識学習者を提案する。
論文 参考訳(メタデータ) (2021-10-01T00:27:47Z) - Research Reproducibility as a Survival Analysis [22.66983713481359]
我々は,論文のモデリングを生存分析問題として検討する。
生存率分析によって、過去の縦断データをよりよく説明できる新たな洞察を導きだす方法を示す。
論文 参考訳(メタデータ) (2020-12-17T20:56:53Z) - Explainable Active Learning (XAL): An Empirical Study of How Local
Explanations Impact Annotator Experience [76.9910678786031]
本稿では、最近急増している説明可能なAI(XAI)のテクニックをアクティブラーニング環境に導入することにより、説明可能なアクティブラーニング(XAL)の新たなパラダイムを提案する。
本研究は,機械教育のインタフェースとしてのAI説明の利点として,信頼度校正を支援し,リッチな形式の教示フィードバックを可能にすること,モデル判断と認知作業負荷による潜在的な欠点を克服する効果を示す。
論文 参考訳(メタデータ) (2020-01-24T22:52:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。