論文の概要: The OpenLAM Challenges
- arxiv url: http://arxiv.org/abs/2501.16358v1
- Date: Mon, 20 Jan 2025 13:34:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-02 07:52:38.241403
- Title: The OpenLAM Challenges
- Title(参考訳): OpenLAMの課題
- Authors: Anyang Peng, Xinzijian Liu, Ming-Yu Guo, Linfeng Zhang, Han Wang,
- Abstract要約: 2022年以降、Deep potentialチームはLAMを積極的に事前訓練し、周期表にまたがるオープンソース基盤モデルを開発するOpenLAM Initiativeを立ち上げた。
コアとなる目的は、既存のデータセットの制限に対処する信頼性の高いLAM評価のための包括的なベンチマークを確立することである。
最初のステップとして、LAM Crystal Philatelyコンペティションは、OpenLAMコンベックス船体に100万個を含む、198万以上の有効な構造を収集した。
- 参考スコア(独自算出の注目度): 14.083367376397614
- License:
- Abstract: Inspired by the success of Large Language Models (LLMs), the development of Large Atom Models (LAMs) has gained significant momentum in scientific computation. Since 2022, the Deep Potential team has been actively pretraining LAMs and launched the OpenLAM Initiative to develop an open-source foundation model spanning the periodic table. A core objective is establishing comprehensive benchmarks for reliable LAM evaluation, addressing limitations in existing datasets. As a first step, the LAM Crystal Philately competition has collected over 19.8 million valid structures, including 1 million on the OpenLAM convex hull, driving advancements in generative modeling and materials science applications.
- Abstract(参考訳): LLM(Large Language Models)の成功に触発されたLarge Atom Models(LAM)の開発は、科学計算において大きな勢いを増している。
2022年以降、Deep potentialチームはLAMを積極的に事前訓練し、周期表にまたがるオープンソース基盤モデルを開発するOpenLAM Initiativeを立ち上げた。
コアとなる目的は、既存のデータセットの制限に対処する信頼性の高いLAM評価のための包括的なベンチマークを確立することである。
最初のステップとして、LAM Crystal Philatelyコンペティションは、OpenLAMコンベックスの100万個を含む、198万以上の有効な構造を収集し、生成モデリングと材料科学の応用の進歩を推進している。
関連論文リスト
- Steel-LLM:From Scratch to Open Source -- A Personal Journey in Building a Chinese-Centric LLM [47.64519989743434]
Steel-LLMは、高品質のオープンソースモデルを作成することを目的として、スクラッチから開発された中国語中心の言語モデルである。
本稿では、データ収集、モデル設計、トレーニング方法論、その過程で遭遇した課題など、プロジェクトの主要なコントリビューションについて包括的に要約する。
論文 参考訳(メタデータ) (2025-02-10T16:31:37Z) - Large Action Models: From Inception to Implementation [51.81485642442344]
大規模アクションモデル(LAM)は動的環境内でのアクション生成と実行のために設計されている。
LAMは、AIを受動的言語理解からアクティブなタスク完了に変換する可能性を秘めている。
創発から展開まで,LAMを体系的に開発するための総合的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-13T11:19:56Z) - Fully Open Source Moxin-7B Technical Report [38.13392000279939]
大きな言語モデル(LLM)は、その人気と能力の急激な上昇によって、大きな変革を遂げている。
この問題を緩和するために、モデルオープンネスフレームワーク(MOF)に従って開発された完全にオープンソースなLLMであるMoxin 7Bを紹介します。
本モデルは,事前学習コードと構成の包括的リリースを通じて,オープンサイエンスのMOF分類レベルを最大化する。
論文 参考訳(メタデータ) (2024-12-08T02:01:46Z) - OpenR: An Open Source Framework for Advanced Reasoning with Large Language Models [61.14336781917986]
大規模言語モデル(LLM)の推論能力を高めるためのオープンソースのフレームワークであるOpenRを紹介する。
OpenRは、データ取得、強化学習トレーニング、非自己回帰デコーディングを凝集性ソフトウェアプラットフォームに統合する。
私たちの研究は、OpenAIのo1モデルのコア技術と強化学習を探求する、オープンソースのフレームワークを初めて提供するものです。
論文 参考訳(メタデータ) (2024-10-12T23:42:16Z) - xLAM: A Family of Large Action Models to Empower AI Agent Systems [111.5719694445345]
AIエージェントタスク用に設計された大規模なアクションモデルであるxLAMをリリースする。
xLAMは、複数のエージェント能力ベンチマークで例外的なパフォーマンスを提供する。
論文 参考訳(メタデータ) (2024-09-05T03:22:22Z) - Gemma: Open Models Based on Gemini Research and Technology [128.57714343844074]
Gemmaは、Geminiモデルを作成するために使用される研究と技術から構築された、軽量で最先端のオープンモデルのファミリーである。
Gemmaモデルは、言語理解、推論、安全性のための学術ベンチマークで強力なパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-03-13T06:59:16Z) - OLMo: Accelerating the Science of Language Models [165.16277690540363]
言語モデル(LM)は、NLP研究と商用製品製品の両方で広く普及している。
商業的重要性が増すにつれ、最も強力なモデルは閉鎖され、プロプライエタリなインターフェースに遅れを取っている。
我々は、研究コミュニティが強力で真にオープンなLMにアクセスできることが不可欠であると信じている。
私たちは、言語モデルの科学的研究を可能にするために、競争力のある真にオープンな言語モデルであるOLMoを構築しました。
論文 参考訳(メタデータ) (2024-02-01T18:28:55Z) - Advances in Inference and Representation for Simultaneous Localization
and Mapping [8.721760004258352]
同時ローカライゼーションとマッピング(SLAM)は,移動ロボットの基本機能であり,計画,ナビゲーション,制御といったコア機能をサポートする。
本稿では、SLAMにおける最近の進歩について、SLAMシステムで使用される環境モデルの表現能力の向上(表現)と、これらのモデルをデータ(参照)から推定するアルゴリズムの性能に焦点をあてる。
論文 参考訳(メタデータ) (2021-03-08T19:53:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。