論文の概要: Reproducibility of Machine Learning-Based Fault Detection and Diagnosis for HVAC Systems in Buildings: An Empirical Study
- arxiv url: http://arxiv.org/abs/2508.00880v1
- Date: Wed, 23 Jul 2025 07:35:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-10 09:30:49.289188
- Title: Reproducibility of Machine Learning-Based Fault Detection and Diagnosis for HVAC Systems in Buildings: An Empirical Study
- Title(参考訳): 建物におけるHVACシステムの機械学習による故障検出・診断の再現性に関する実証的研究
- Authors: Adil Mukhtar, Michael Hadwiger, Franz Wotawa, Gerald Schweiger,
- Abstract要約: 本稿では,建築エネルギーシステムにおける機械学習アプリケーションの透明性と標準について分析する。
その結果、ほとんど全ての記事は、開示が不十分なため再現できないことが示唆された。
これらの知見は、ガイドライン、研究者のためのトレーニング、雑誌や会議による政策など、対象とする介入の必要性を浮き彫りにしている。
- 参考スコア(独自算出の注目度): 7.852209218432359
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Reproducibility is a cornerstone of scientific research, enabling independent verification and validation of empirical findings. The topic gained prominence in fields such as psychology and medicine, where concerns about non - replicable results sparked ongoing discussions about research practices. In recent years, the fast-growing field of Machine Learning (ML) has become part of this discourse, as it faces similar concerns about transparency and reliability. Some reproducibility issues in ML research are shared with other fields, such as limited access to data and missing methodological details. In addition, ML introduces specific challenges, including inherent nondeterminism and computational constraints. While reproducibility issues are increasingly recognized by the ML community and its major conferences, less is known about how these challenges manifest in applied disciplines. This paper contributes to closing this gap by analyzing the transparency and reproducibility standards of ML applications in building energy systems. The results indicate that nearly all articles are not reproducible due to insufficient disclosure across key dimensions of reproducibility. 72% of the articles do not specify whether the dataset used is public, proprietary, or commercially available. Only two papers share a link to their code - one of which was broken. Two-thirds of the publications were authored exclusively by academic researchers, yet no significant differences in reproducibility were observed compared to publications with industry-affiliated authors. These findings highlight the need for targeted interventions, including reproducibility guidelines, training for researchers, and policies by journals and conferences that promote transparency and reproducibility.
- Abstract(参考訳): 再現性は科学研究の基盤であり、実験結果の独立した検証と検証を可能にする。
この話題は心理学や医学などの分野で注目され、非複製的な結果に対する懸念が研究の実践に関する議論を巻き起こした。
近年、機械学習(ML)の急速な発展は、透明性と信頼性に関する同様の懸念に直面しているため、この議論の一部になっている。
ML研究における再現性問題は、データへのアクセスの制限や方法論の詳細の欠如など、他の分野と共有されている。
さらに、MLは固有の非決定性や計算制約を含む特定の課題を導入している。
再現性の問題は、MLコミュニティとその主要なカンファレンスによってますます認識されているが、これらの課題が適用分野においてどのように現れるかは、あまり知られていない。
本稿では,建築エネルギーシステムにおけるMLアプリケーションの透明性と再現性基準を解析することにより,このギャップを埋めることに貢献している。
その結果, ほぼすべての記事が再現可能でないことが示唆された。
記事の72%は、使用されるデータセットがパブリックなのか、プロプライエタリなのか、商用なのかを規定していない。
2つの論文だけがコードへのリンクを共有しており、そのうちの1つは壊れています。
出版物の3分の2は学術研究者のみによって執筆されたが、産業界関係者の出版物と比べて再現性に有意な差は見られなかった。
これらの知見は、再現性ガイドライン、研究者のためのトレーニング、透明性と再現性を促進するジャーナルや会議によるポリシーなど、対象とする介入の必要性を強調している。
関連論文リスト
- Hallucination Detection in LLMs with Topological Divergence on Attention Graphs [64.74977204942199]
幻覚(Halucination)、すなわち、事実的に誤ったコンテンツを生成することは、大きな言語モデルにとって重要な課題である。
本稿では,TOHA (Topology-based HAllucination detector) をRAG設定に導入する。
論文 参考訳(メタデータ) (2025-04-14T10:06:27Z) - ResearchBench: Benchmarking LLMs in Scientific Discovery via Inspiration-Based Task Decomposition [67.26124739345332]
大規模言語モデル(LLM)は科学的研究を支援する可能性を示しているが、高品質な研究仮説を発見する能力はいまだ検討されていない。
我々は,LLMを科学的発見のサブタスクのほぼ十分セットで評価するための,最初の大規模ベンチマークを紹介する。
学術論文から重要コンポーネント(研究質問、背景調査、インスピレーション、仮説)を抽出する自動フレームワークを開発する。
論文 参考訳(メタデータ) (2025-03-27T08:09:15Z) - Reproducibility in Machine Learning-based Research: Overview, Barriers and Drivers [1.4841630983274845]
透明性の欠如、データまたはコードの欠如、標準への順守の欠如、MLトレーニングの敏感さは、原則として多くの論文が再現不可能であることを意味する。
実験では、オリジナルの結果と非常に類似性が低いことが判明した。
粗悪な完全性は研究結果の信頼と完全性を脅かす。
論文 参考訳(メタデータ) (2024-06-20T13:56:42Z) - A Literature Review of Literature Reviews in Pattern Analysis and Machine Intelligence [55.33653554387953]
パターン分析とマシンインテリジェンス(PAMI)は、情報の収集と断片化を目的とした多くの文献レビューにつながっている。
本稿では、PAMI分野におけるこれらの文献レビューの徹底的な分析について述べる。
1)PAMI文献レビューの構造的・統計的特徴は何か,(2)レビューの増大するコーパスを効率的にナビゲートするために研究者が活用できる戦略は何か,(3)AIが作成したレビューの利点と限界は人間によるレビューと比較するとどのようなものか,という3つの主要な研究課題に対処しようとする。
論文 参考訳(メタデータ) (2024-02-20T11:28:50Z) - Spurious Correlations in Machine Learning: A Survey [27.949532561102206]
機械学習システムは、入力とラベルの非意味的な特徴の間の素早い相関に敏感である。
これらの特徴とそのラベルとの相関は"spurious"として知られている。
我々は、機械学習モデルにおける素早い相関に対処する最先端の手法の分類とともに、この問題をレビューする。
論文 参考訳(メタデータ) (2024-02-20T04:49:34Z) - Reproducibility in Machine Learning-Driven Research [1.7936835766396748]
研究は生存可能性の危機に直面しており、多くの研究の結果や発見は、再現することが困難または不可能である。
機械学習(ML)と人工知能(AI)の研究においても、これは同じである。
MLプラットフォームの使用などの研究コミュニティでは,この問題に対処するさまざまなソリューションが議論されているが,MLによる研究のレベルは大幅に上昇していない。
論文 参考訳(メタデータ) (2023-07-19T07:00:22Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z) - Use and Misuse of Machine Learning in Anthropology [0.9786690381850356]
生物学的・文化的な証拠に基づいて人類の進化を理解することを目指す古人類学の分野に焦点をあてる。
本研究の目的は,MLが古人類学に応用されている方法について,簡単な紹介を行うことである。
人類学文献の集積部において,ML手法の正しいプロトコルの一連の誤り,誤り,違反について論じる。
論文 参考訳(メタデータ) (2022-09-06T20:32:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。