論文の概要: Virtual Scientific Companion for Synchrotron Beamlines: A Prototype
- arxiv url: http://arxiv.org/abs/2312.17180v1
- Date: Thu, 28 Dec 2023 18:12:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-29 14:55:11.829010
- Title: Virtual Scientific Companion for Synchrotron Beamlines: A Prototype
- Title(参考訳): シンクロトロンビームラインのための仮想科学コンパニオン:プロトタイプ
- Authors: Daniel Potemkin, Carlos Soto, Ruipeng Li, Kevin Yager, and Esther Tsai
- Abstract要約: 仮想科学コンパニオン(VISION)の試作について紹介する。
オープンソースの言語モデルとビームラインの限られた計算資源を用いて、自然言語による基本的なビームライン操作を制御することができる。
- 参考スコア(独自算出の注目度): 1.836557889514696
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The extraordinarily high X-ray flux and specialized instrumentation at
synchrotron beamlines have enabled versatile in-situ and high throughput
studies that are impossible elsewhere. Dexterous and efficient control of
experiments are thus crucial for efficient beamline operation. Artificial
intelligence and machine learning methods are constantly being developed to
enhance facility performance, but the full potential of these developments can
only be reached with efficient human-computer-interaction. Natural language is
the most intuitive and efficient way for humans to communicate. However, the
low credibility and reproducibility of existing large language models and tools
demand extensive development to be made for robust and reliable performance for
scientific purposes. In this work, we introduce the prototype of virtual
scientific companion (VISION) and demonstrate that it is possible to control
basic beamline operations through natural language with open-source language
model and the limited computational resources at beamline. The human-AI nature
of VISION leverages existing automation systems and data framework at
synchrotron beamlines.
- Abstract(参考訳): 極端に高いX線フラックスとシンクロトロンビームラインの特殊な計器は、他の場所では不可能な多目的かつ高いスループットの研究を可能にした。
したがって、実験の有害かつ効率的な制御は効率的なビームライン演算に不可欠である。
人工知能と機械学習の手法は、施設のパフォーマンスを高めるために常に開発されているが、これらの開発の可能性は、効率的な人間とコンピュータの相互作用でのみ達成できる。
自然言語は、人間がコミュニケーションする最も直感的で効率的な方法です。
しかし、既存の大規模言語モデルやツールの信頼性と再現性が低いため、科学的目的のために堅牢で信頼性の高いパフォーマンスのために広範囲な開発が要求される。
本稿では,バーチャル・サイエンティフィック・コンパニオン(vision)のプロトタイプを紹介し,オープンソースの言語モデルとbeamlineの限られた計算資源を用いて自然言語による基本的なビームライン操作を制御できることを実証する。
VISIONの人間とAIの性質は、既存の自動化システムとシンクロトロンビームラインのデータフレームワークを活用している。
関連論文リスト
- MatPilot: an LLM-enabled AI Materials Scientist under the Framework of Human-Machine Collaboration [13.689620109856783]
我々はMatPilotという名のAI材料科学者を開発し、新しい素材の発見を奨励する能力を示した。
MatPilotのコアとなる強みは、自然言語で対話的な人間と機械のコラボレーションだ。
MatPilotは、ユニークな認知能力、豊富な蓄積された経験、そして人間の生活の好奇心を統合している。
論文 参考訳(メタデータ) (2024-11-10T12:23:44Z) - DiffGen: Robot Demonstration Generation via Differentiable Physics Simulation, Differentiable Rendering, and Vision-Language Model [72.66465487508556]
DiffGenは、微分可能な物理シミュレーション、微分可能なレンダリング、ビジョン言語モデルを統合する新しいフレームワークである。
言語命令の埋め込みとシミュレートされた観察の埋め込みとの距離を最小化することにより、現実的なロボットデモを生成することができる。
実験によると、DiffGenを使えば、人間の努力やトレーニング時間を最小限に抑えて、ロボットデータを効率よく、効果的に生成できる。
論文 参考訳(メタデータ) (2024-05-12T15:38:17Z) - Engineering A Large Language Model From Scratch [0.0]
AtinukeはTransformerベースのニューラルネットワークで、さまざまな言語タスクのパフォーマンスを最適化する。
特徴を抽出し、複雑なマッピングを学習することで、人間のような言語をエミュレートすることができる。
システムは、解釈可能で堅牢なまま、自然言語タスクの最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-01-30T04:29:48Z) - Accelerating Reinforcement Learning of Robotic Manipulations via
Feedback from Large Language Models [21.052532074815765]
本稿では,Lafite-RL (Language Agent feedback Interactive Reinforcement Learning) フレームワークを紹介する。
RLエージェントは、Large Language Modelsのタイムリーフィードバックを利用して、ロボットタスクを効率的に学習することができる。
学習効率と成功率の両方でベースラインを上回ります。
論文 参考訳(メタデータ) (2023-11-04T11:21:38Z) - Vision-Language Foundation Models as Effective Robot Imitators [48.73027330407576]
我々は、オープンソースのVLMであるOpenFlamingo上に構築されたRoboFlamingoというビジョン言語操作フレームワークを考案した。
テストベンチマークでは,最先端のパフォーマンスをはるかに上回って,ロボット制御にVLMを適用する上で,RoboFlamingoが効果的かつ競争力のある代替手段であることを示す。
論文 参考訳(メタデータ) (2023-11-02T16:34:33Z) - Large Language Models for Scientific Synthesis, Inference and
Explanation [56.41963802804953]
大規模言語モデルがどのように科学的合成、推論、説明を行うことができるかを示す。
我々は,この「知識」を科学的文献から合成することで,大きな言語モデルによって強化できることを示す。
このアプローチは、大きな言語モデルが機械学習システムの予測を説明することができるというさらなる利点を持っている。
論文 参考訳(メタデータ) (2023-10-12T02:17:59Z) - Lemur: Harmonizing Natural Language and Code for Language Agents [105.43564788499901]
自然言語とコーディング機能の両方に最適化されたオープンソースの言語モデルであるLemurとLemur-Chatを紹介する。
我々のモデルは、様々なテキストおよびコーディングベンチマークで最先端の平均性能を達成する。
自然言語とプログラミング言語の調和により、Lemur-Chatはエージェント能力に関するプロプライエタリなモデルとのギャップを著しく狭めることができる。
論文 参考訳(メタデータ) (2023-10-10T17:57:45Z) - Towards A Unified Agent with Foundation Models [18.558328028366816]
強化学習(RL)エージェントにそのような能力を組み込んで活用する方法を検討する。
我々は、言語を中核的推論ツールとして使用するフレームワークを設計し、エージェントが一連の基本的なRL課題にどのように取り組むことができるかを探る。
探索効率とオフラインデータセットからのデータの再利用能力において,ベースラインよりも大幅にパフォーマンスが向上したことを示す。
論文 参考訳(メタデータ) (2023-07-18T22:37:30Z) - LAMM: Language-Assisted Multi-Modal Instruction-Tuning Dataset,
Framework, and Benchmark [81.42376626294812]
本稿では,Language-Assisted Multi-Modalインストラクションチューニングデータセット,フレームワーク,ベンチマークを提案する。
我々の目標は、MLLMのトレーニングと評価のための成長するエコシステムとしてLAMMを確立することです。
本稿では,2次元および3次元視覚のための広範囲な視覚タスクをカバーする包括的データセットとベンチマークを提案する。
論文 参考訳(メタデータ) (2023-06-11T14:01:17Z) - What Matters in Language Conditioned Robotic Imitation Learning [26.92329260907805]
オフラインのフリーフォーム模倣データセットから言語条件付きポリシーを学習する際の最も重要な課題について検討する。
本稿では,CALVINベンチマークを用いて,言語条件の難易度を向上する手法を提案する。
論文 参考訳(メタデータ) (2022-04-13T08:45:32Z) - GenNI: Human-AI Collaboration for Data-Backed Text Generation [102.08127062293111]
Table2Textシステムは、機械学習を利用した構造化データに基づいてテキスト出力を生成する。
GenNI (Generation Negotiation Interface) は、対話型ビジュアルシステムである。
論文 参考訳(メタデータ) (2021-10-19T18:07:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。