論文の概要: Position: Machine Learning Conferences Should Establish a "Refutations and Critiques" Track
- arxiv url: http://arxiv.org/abs/2506.19882v1
- Date: Tue, 24 Jun 2025 02:19:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-26 21:00:42.469036
- Title: Position: Machine Learning Conferences Should Establish a "Refutations and Critiques" Track
- Title(参考訳): ポジション: 機械学習カンファレンスは「不快感と批判」のトラックを確立するべきだ
- Authors: Rylan Schaeffer, Joshua Kazdan, Yegor Denisov-Blanch, Brando Miranda, Matthias Gerstgrasser, Susan Zhang, Andreas Haupt, Isha Gupta, Elyas Obbad, Jesse Dodge, Jessica Zosa Forde, Koustuv Sinha, Francesco Orabona, Sanmi Koyejo, David Donoho,
- Abstract要約: 機械学習のカンファレンスは、専用の“反感と批判”トラックを確立するべきだ、と私たちは主張する。
このトラックは、先行研究に重大な挑戦をする重要な研究を支援するために、注目に値するプラットフォームを提供する。
MLのカンファレンスは、ML研究の自己修正を支援する公式で信頼性の高いメカニズムを作成するべきだ、と私たちは結論付けています。
- 参考スコア(独自算出の注目度): 31.5967785002861
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Science progresses by iteratively advancing and correcting humanity's understanding of the world. In machine learning (ML) research, rapid advancements have led to an explosion of publications, but have also led to misleading, incorrect, flawed or perhaps even fraudulent studies being accepted and sometimes highlighted at ML conferences due to the fallibility of peer review. While such mistakes are understandable, ML conferences do not offer robust processes to help the field systematically correct when such errors are made.This position paper argues that ML conferences should establish a dedicated "Refutations and Critiques" (R & C) Track. This R & C Track would provide a high-profile, reputable platform to support vital research that critically challenges prior research, thereby fostering a dynamic self-correcting research ecosystem. We discuss key considerations including track design, review principles, potential pitfalls, and provide an illustrative example submission concerning a recent ICLR 2025 Oral. We conclude that ML conferences should create official, reputable mechanisms to help ML research self-correct.
- Abstract(参考訳): 科学は、人間の世界に対する理解を反復的に前進させ、修正することによって進展する。
機械学習(ML)研究において、急激な進歩は出版物の爆発に繋がったが、誤認、誤り、欠陥、あるいは詐欺的な研究が受け入れられ、時には査読の欠如によりMLカンファレンスで強調されることもある。
このようなミスは理解できるが、MLカンファレンスは、そのようなエラーが発生したときに分野を体系的に正すための堅牢なプロセスを提供していない。このポジションペーパーでは、MLカンファレンスは専用の「反響と批判」(R&C)トラックを確立するべきだと論じている。
このR&Cトラックは、先行研究に重大な挑戦をする重要な研究を支援するために、注目に値するプラットフォームを提供する。
トラック設計やレビューの原則,潜在的な落とし穴など,重要な考慮事項について論じるとともに,最近のICLR 2025 Oralに関する例を示す。
MLのカンファレンスは、ML研究の自己修正を支援する公式で信頼性の高いメカニズムを作成するべきだ、と私たちは結論付けています。
関連論文リスト
- The AI Imperative: Scaling High-Quality Peer Review in Machine Learning [49.87236114682497]
AIによるピアレビューは、緊急の研究とインフラの優先事項になるべきだ、と私たちは主張する。
我々は、事実検証の強化、レビュアーのパフォーマンスの指導、品質改善における著者の支援、意思決定におけるAC支援におけるAIの具体的な役割を提案する。
論文 参考訳(メタデータ) (2025-06-09T18:37:14Z) - MLRC-Bench: Can Language Agents Solve Machine Learning Research Challenges? [64.62421656031128]
MLRC-Benchは、機械学習(ML)リサーチコンペティションの挑戦において、言語エージェントがいかに効果的に対処できるかを定量化するために設計されたベンチマークである。
MLRC-Benchは以前の研究とは異なり、新しい研究手法を提案し、実装する上で重要なステップを計測する。
最も優れた試験薬でさえ、ベースラインとトップヒューマンのスコアの差の9.3%しか閉じていない。
論文 参考訳(メタデータ) (2025-04-13T19:35:43Z) - PSSD: Making Large Language Models Self-denial via Human Psyche Structure [5.057375783924452]
本稿では,3つの異なる役割が人間の推論に寄与するように,人間の精神構造を参照し,実装する。
大規模な実験では、提案された設計が推論能力を向上するだけでなく、現行のモデルとシームレスに統合できることが示されている。
論文 参考訳(メタデータ) (2025-02-03T13:37:21Z) - Missci: Reconstructing Fallacies in Misrepresented Science [84.32990746227385]
ソーシャルネットワーク上の健康関連の誤報は、意思決定の貧弱さと現実世界の危険につながる可能性がある。
ミスシは、誤った推論のための新しい議論理論モデルである。
大規模言語モデルの批判的推論能力をテストするためのデータセットとしてMissciを提案する。
論文 参考訳(メタデータ) (2024-06-05T12:11:10Z) - Large Language Models Cannot Self-Correct Reasoning Yet [78.16697476530994]
LLM(Large Language Models)は、非並列テキスト生成機能を備えた画期的な技術として登場した。
生成したコンテンツの正確性と適切性に関する懸念が続いている。
現代の方法論である自己補正がこれらの問題に対する対策として提案されている。
論文 参考訳(メタデータ) (2023-10-03T04:56:12Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z) - The worst of both worlds: A comparative analysis of errors in learning
from data in psychology and machine learning [17.336655978572583]
機械学習(ML)が誤診や複製の危機に直面しているという最近の懸念は、ML研究で公表された主張の一部が対面価値で評価できないことを示唆している。
教師付きMLにおける研究の関心事は、実験科学における複製危機と共通している。
論文 参考訳(メタデータ) (2022-03-12T18:26:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。