論文の概要: Gradient boosting machines and careful pre-processing work best: ASHRAE
Great Energy Predictor III lessons learned
- arxiv url: http://arxiv.org/abs/2202.02898v1
- Date: Mon, 7 Feb 2022 00:52:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-09 05:23:11.534409
- Title: Gradient boosting machines and careful pre-processing work best: ASHRAE
Great Energy Predictor III lessons learned
- Title(参考訳): 勾配ブースティングマシンと注意深い前処理作業:ashrae great energy predictor iiiの教訓
- Authors: Clayton Miller, Liu Hao, Chun Fu
- Abstract要約: ASHRAE Great Energy Predictor III (GEPIII) は2019年後半に開催された。
それは、パフォーマンスの構築に焦点を当てた、これまでで最大の機械学習コンペティションの1つだった。
本稿では,参加者から学んだ教訓について概説する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The ASHRAE Great Energy Predictor III (GEPIII) competition was held in late
2019 as one of the largest machine learning competitions ever held focused on
building performance. It was hosted on the Kaggle platform and resulted in
39,402 prediction submissions, with the top five teams splitting $25,000 in
prize money. This paper outlines lessons learned from participants, mainly from
teams who scored in the top 5% of the competition. Various insights were gained
from their experience through an online survey, analysis of publicly shared
submissions and notebooks, and the documentation of the winning teams. The
top-performing solutions mostly used ensembles of Gradient Boosting Machine
(GBM) tree-based models, with the LightGBM package being the most popular. The
survey participants indicated that the preprocessing and feature extraction
phases were the most important aspects of creating the best modeling approach.
All the survey respondents used Python as their primary modeling tool, and it
was common to use Jupyter-style Notebooks as development environments. These
conclusions are essential to help steer the research and practical
implementation of building energy meter prediction in the future.
- Abstract(参考訳): ASHRAE Great Energy Predictor III (GEPIII)コンペティションは、2019年末に開催され、建築性能に焦点を当てた機械学習コンペティションの1つとなった。
この大会はKaggleプラットフォームで開催され、39,402件の予測が提出され、上位5チームが賞金25,000ドルを分けた。
本稿では,上位5%で得点したチームを中心に,参加者から得た教訓について概説する。
オンライン調査、公開投稿とノートブックの分析、優勝チームのドキュメントなどを通じて、彼らの経験からさまざまな洞察を得た。
トップパフォーマンスソリューションは、主にグラデーションブースティングマシン(gbm)ツリーベースのモデルのアンサンブルを使用しており、lightgbmパッケージが最も人気がある。
調査参加者は、事前処理と特徴抽出フェーズが最良のモデリングアプローチを作成する上で最も重要な側面であることを示した。
すべての回答者がPythonを主要なモデリングツールとして使用し、Jupyterスタイルのノートブックを開発環境として使用することが一般的だった。
これらの結論は、将来エネルギーメータ予測の研究と実用化を支援するために不可欠である。
関連論文リスト
- Advancing LLM Reasoning Generalists with Preference Trees [119.57169648859707]
推論に最適化された大規模言語モデル(LLM)のスイートであるEulusを紹介する。
Eurusモデルは、様々なベンチマークでオープンソースのモデルの間で最先端の結果を得る。
論文 参考訳(メタデータ) (2024-04-02T16:25:30Z) - InternLM2 Technical Report [159.70692271378581]
本稿では,オープンソースのLarge Language Models (LLM) であるInternLM2を紹介する。
InternLM2の事前トレーニングプロセスは細部まで詳細に書かれており、多様なデータ型の準備が強調されている。
InternLM2は、4kトークンでトレーニングされた長期的依存関係を効率的にキャプチャし、事前トレーニングおよび微調整の段階で32kトークンに進む。
論文 参考訳(メタデータ) (2024-03-26T00:53:24Z) - Evaluating Soccer Match Prediction Models: A Deep Learning Approach and
Feature Optimization for Gradient-Boosted Trees [0.8009842832476994]
2023年のサッカーの予測チャレンジでは、まず各チームが得点した正確なゴールについて、次に勝利、引き分け、負けの確率について、試合結果の予測が必要とされた。
CatBoost モデルは pi-ratings を特徴として用いており、これは最初は win/draw/loss 確率を計算するのに最適な選択肢として認識されていた。
本研究では,ディープラーニングモデルの性能を評価し,勾配木モデルに最適な特徴セットを決定することを目的とした。
論文 参考訳(メタデータ) (2023-09-26T10:05:46Z) - Benchmarking Robustness and Generalization in Multi-Agent Systems: A
Case Study on Neural MMO [50.58083807719749]
IJCAI 2022で開催されている第2回Neural MMOチャレンジの結果を報告する。
この競合はマルチエージェントシステムの堅牢性と一般化をターゲットにしている。
環境ラッパー、ベースライン、可視化ツール、そしてさらなる研究のための選択されたポリシーを含むベンチマークをオープンソースにします。
論文 参考訳(メタデータ) (2023-08-30T07:16:11Z) - On the Identification of the Energy related Issues from the App Reviews [0.0]
アプリのエネルギ非効率性は、App Storeで広く議論されているアプリユーザーにとって大きな問題となる可能性がある。
これまでの研究では、エネルギー関連アプリのレビューを調査して、エネルギー関連ユーザのフィードバックの主要な原因やカテゴリを特定することが重要であった。
本研究では,エネルギー関連ユーザのフィードバックを自動的に抽出する様々な手法を実証的に研究する。
論文 参考訳(メタデータ) (2023-04-22T01:54:30Z) - Large-scale Multi-Modal Pre-trained Models: A Comprehensive Survey [66.18478838828231]
マルチモーダルな事前訓練型大型モデルは近年ますます注目を集めている。
本稿では, 自然言語処理, コンピュータビジョン, 音声処理における従来の深層・深層・深層・深層・深層・深層・深層・深層・深層・深層・深層・深層・深層・深層・深層・深層・深層・深層・深層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・
次に,マルチモーダル・プレトレーニング・モデル(MM-PTM)のタスク定義,課題,メリットを紹介し,データ,目的,ネットワーク,知識強化による事前トレーニングに着目して,MM-PTMについて議論する。
論文 参考訳(メタデータ) (2023-02-20T15:34:03Z) - Unifying Language Learning Paradigms [96.35981503087567]
データセットやセットアップ全体にわたって普遍的に有効である事前学習モデルのための統一的なフレームワークを提案する。
本研究では, 事前学習対象を相互に配置し, 異なる対象間の補間を効果的に行う方法を示す。
また,テキスト内学習において,ゼロショットSuperGLUEで175B GPT-3,ワンショット要約でT5-XXLの性能を3倍に向上させた。
論文 参考訳(メタデータ) (2022-05-10T19:32:20Z) - Retrospective on the 2021 BASALT Competition on Learning from Human
Feedback [92.37243979045817]
競争の目的は、人間のフィードバック(LfHF)技術から学び、オープンワールドの課題を解決するエージェントへの研究を促進することであった。
LfHF技術の使用を義務付けるのではなく、ビデオゲームMinecraftで達成すべき自然言語の4つのタスクについて説明した。
チームは、様々な可能な人間のフィードバックタイプにまたがる多様なLfHFアルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-04-14T17:24:54Z) - OpenKBP: The open-access knowledge-based planning grand challenge [0.6157382820537718]
我々は,2020年のAAPMグランドチャレンジであるOpenKBPを主催し,参加者にCT画像の量を予測する最善の方法の開発を依頼した。
1)3次元線量分布を評価する線量スコアと,(2)DVH測定値を評価する線量ヒストグラム(DVH)スコアの2つの異なるスコアで評価した。
チャレンジには28カ国から195人の参加者が参加し、73人の参加者が検証段階で44のチームを編成し、合計で1750の応募を受けた。
論文 参考訳(メタデータ) (2020-11-28T06:45:06Z) - Using Experts' Opinions in Machine Learning Tasks [0.0]
機械学習タスクにおける専門家の洞察を活用するための一般的な3段階のフレームワークを提案する。
ケーススタディでは,カグル競技会の焦点となったNCAA男子バスケットボールの試合を予測するタスクを選択した。
その結果、過去のモデルの性能と高いスコアは偶然の結果であり、優れた性能と安定したモデルによるものではないことが示唆された。
論文 参考訳(メタデータ) (2020-08-10T15:48:49Z) - The ASHRAE Great Energy Predictor III competition: Overview and results [0.5155171850181773]
2019年後半、ASHRAEはカグルプラットフォーム上でGEPIII(Great Energy Predictor III)機械学習コンペティションを開催した。
本稿では,競争準備とデータセットについて概観する。
参加者は4,370人で、94カ国の3,614チームが39,403件の予測を提出した。
論文 参考訳(メタデータ) (2020-07-14T09:41:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。