論文の概要: Domain Knowledge Distillation from Large Language Model: An Empirical
Study in the Autonomous Driving Domain
- arxiv url: http://arxiv.org/abs/2307.11769v1
- Date: Mon, 17 Jul 2023 13:34:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-30 04:17:05.461074
- Title: Domain Knowledge Distillation from Large Language Model: An Empirical
Study in the Autonomous Driving Domain
- Title(参考訳): 大規模言語モデルからのドメイン知識蒸留 : 自律運転領域における実証的研究
- Authors: Yun Tang, Antonio A. Bruto da Costa, Jason Zhang, Irvine Patrick,
Siddartha Khastgir, Paul Jennings
- Abstract要約: 大規模言語モデル(LLM)は、膨大な量のドメイン間の知識を使って訓練される。
本稿では,ドメイン知識蒸留のための経験的自動化と半自動化の枠組みを提案する。
- 参考スコア(独自算出の注目度): 8.640793213569099
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Engineering knowledge-based (or expert) systems require extensive manual
effort and domain knowledge. As Large Language Models (LLMs) are trained using
an enormous amount of cross-domain knowledge, it becomes possible to automate
such engineering processes. This paper presents an empirical automation and
semi-automation framework for domain knowledge distillation using prompt
engineering and the LLM ChatGPT. We assess the framework empirically in the
autonomous driving domain and present our key observations. In our
implementation, we construct the domain knowledge ontology by "chatting" with
ChatGPT. The key finding is that while fully automated domain ontology
construction is possible, human supervision and early intervention typically
improve efficiency and output quality as they lessen the effects of response
randomness and the butterfly effect. We, therefore, also develop a web-based
distillation assistant enabling supervision and flexible intervention at
runtime. We hope our findings and tools could inspire future research toward
revolutionizing the engineering of knowledge-based systems across application
domains.
- Abstract(参考訳): エンジニアリング知識ベース(あるいは専門家)システムは、広範な手作業とドメイン知識を必要とする。
大規模な言語モデル(llm)は、膨大な量のクロスドメイン知識を使ってトレーニングされるため、そのようなエンジニアリングプロセスを自動化することが可能になります。
本稿では,素早い工学とLLM ChatGPTを用いたドメイン知識蒸留のための経験的自動化と半自動化フレームワークを提案する。
自律走行領域におけるフレームワークを実証的に評価し、重要な観察結果を示す。
実装では、chatgptで「チャッティング」することでドメイン知識オントロジーを構築する。
鍵となる発見は、完全に自動化されたドメインオントロジーの構築が可能であるが、人間の監督と早期介入は、通常、応答ランダム性や蝶効果の影響を減らすことにより、効率と出力品質を改善することである。
そこで我々は,Webベースの蒸留アシスタントを開発し,実行時の監督とフレキシブルな介入を可能にする。
私たちの発見とツールが将来の研究を刺激し、アプリケーションドメイン全体にわたる知識ベースのシステムのエンジニアリングに革命をもたらすことを期待しています。
関連論文リスト
- Large language models as oracles for instantiating ontologies with domain-specific knowledge [0.0]
セマンティックなデータでインテリジェントなシステムを構築するには、ドメイン固有の知識を設計し、インスタンス化する必要がある。
結果として得られる経験プロセスは、時間を要する、エラーを起こしやすい、オントロジーデザイナーの個人的な背景に偏っていることが多い。
ドメイン固有の知識を自動的にインスタンス化するための,ドメインに依存しない新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-04-05T14:04:07Z) - Application-Driven Innovation in Machine Learning [56.85396167616353]
機械学習におけるアプリケーション駆動研究のパラダイムについて述べる。
このアプローチがメソッド駆動の作業と生産的に相乗効果を示す。
このようなメリットにもかかわらず、マシンラーニングにおけるレビュー、採用、教育のプラクティスが、アプリケーション主導のイノベーションを後押しすることが多いことに気付きます。
論文 参考訳(メタデータ) (2024-03-26T04:59:27Z) - AUTONODE: A Neuro-Graphic Self-Learnable Engine for Cognitive GUI Automation [0.0]
オンラインニューログラフィック操作と深部探索によるユーザインタフェースの自律的変換
我々のエンジンはエージェントが複雑に理解し実装し、非並列な効率で動的Web環境に適応することを可能にする。
AUTONODEの汎用性と有効性は一連の実験を通じて実証され、様々なWebベースのタスクを管理する能力を強調している。
論文 参考訳(メタデータ) (2024-03-15T10:27:17Z) - Knowledge Plugins: Enhancing Large Language Models for Domain-Specific
Recommendations [50.81844184210381]
本稿では,大規模言語モデルをDOmain固有のKnowledgEで拡張し,実践的アプリケーション,すなわちDOKEの性能を向上させるためのパラダイムを提案する。
このパラダイムはドメイン知識抽出器に依存し,1)タスクに効果的な知識を準備すること,2)特定のサンプルごとに知識を選択すること,3)LLMで理解可能な方法で知識を表現すること,の3つのステップで動作する。
論文 参考訳(メタデータ) (2023-11-16T07:09:38Z) - A Survey on Knowledge Graph-based Methods for Automated Driving [0.0]
知識グラフ(KG)は、構造化データ、動的データ、およびリレーショナルデータを活用することで恩恵を受けるアプリケーションに対して、業界と学術の両方から大きな注目を集めている。
我々は、現在研究課題を議論し、自動運転のためのKGベースのソリューションについて、将来的な研究方向性を提案する。
論文 参考訳(メタデータ) (2022-09-30T15:47:19Z) - SCIM: Simultaneous Clustering, Inference, and Mapping for Open-World
Semantic Scene Understanding [34.19666841489646]
本研究では,ロボットが未知の環境を探索する際に,新しいセマンティッククラスを自律的に発見し,既知のクラスの精度を向上させる方法を示す。
セグメンテーションモデルを更新するための自己教師付き学習信号を生成するために,マッピングとクラスタリングのための一般的なフレームワークを開発する。
特に、デプロイ中にクラスタリングパラメータをどのように最適化するかを示し、複数の観測モダリティの融合が、以前の作業と比べて新しいオブジェクト発見を改善することを示す。
論文 参考訳(メタデータ) (2022-06-21T18:41:51Z) - OG-SGG: Ontology-Guided Scene Graph Generation. A Case Study in Transfer
Learning for Telepresence Robotics [124.08684545010664]
画像からのシーングラフ生成は、ロボット工学のようなアプリケーションに非常に関心を持つタスクである。
オントロジー誘導シーングラフ生成(OG-SGG)と呼ばれるフレームワークの初期近似を提案する。
論文 参考訳(メタデータ) (2022-02-21T13:23:15Z) - From Machine Learning to Robotics: Challenges and Opportunities for
Embodied Intelligence [113.06484656032978]
記事は、インテリジェンスが機械学習技術の進歩の鍵を握っていると主張している。
私たちは、インテリジェンスを具体化するための課題と機会を強調します。
本稿では,ロボット学習の最先端性を著しく向上させる研究の方向性を提案する。
論文 参考訳(メタデータ) (2021-10-28T16:04:01Z) - Automated Machine Learning Techniques for Data Streams [91.3755431537592]
本稿では、最先端のオープンソースAutoMLツールを調査し、ストリームから収集したデータに適用し、時間とともにパフォーマンスがどのように変化するかを測定する。
この結果から,既製のAutoMLツールで十分な結果が得られることが示されたが,概念ドリフトや検出,適応といった手法が適用されれば,予測精度を時間とともに維持することが可能になる。
論文 参考訳(メタデータ) (2021-06-14T11:42:46Z) - Knowledge as Invariance -- History and Perspectives of
Knowledge-augmented Machine Learning [69.99522650448213]
機械学習の研究は転換点にある。
研究の関心は、高度にパラメータ化されたモデルのパフォーマンス向上から、非常に具体的なタスクへとシフトしている。
このホワイトペーパーは、機械学習研究におけるこの新興分野の紹介と議論を提供する。
論文 参考訳(メタデータ) (2020-12-21T15:07:19Z) - AutoML to Date and Beyond: Challenges and Opportunities [30.60364966752454]
AutoMLツールは、機械学習を非機械学習の専門家が利用できるようにすることを目的としている。
本稿では,AutoMLシステムのための新しい分類システムを提案する。
エンド・ツー・エンドの機械学習パイプラインのさらなる自動化に必要な研究を指摘して、将来のロードマップを策定しました。
論文 参考訳(メタデータ) (2020-10-21T06:08:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。