論文の概要: Toward a Method to Generate Capability Ontologies from Natural Language Descriptions
- arxiv url: http://arxiv.org/abs/2406.07962v2
- Date: Fri, 18 Oct 2024 07:34:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-21 14:23:22.693130
- Title: Toward a Method to Generate Capability Ontologies from Natural Language Descriptions
- Title(参考訳): 自然言語記述から能力オントロジーを生成する方法に向けて
- Authors: Luis Miguel Vieira da Silva, Aljosha Köcher, Felix Gehlhoff, Alexander Fay,
- Abstract要約: この貢献は、Large Language Models (LLMs) を用いた能力オントロジーモデリングを自動化する革新的な方法である。
我々のアプローチでは、能力の自然言語記述しか必要とせず、事前に定義されたプロンプトに自動的に挿入される。
提案手法は,最初の自然言語記述と最終的な人間のレビューと修正を行う必要があるため,手作業を大幅に削減する。
- 参考スコア(独自算出の注目度): 43.06143768014157
- License:
- Abstract: To achieve a flexible and adaptable system, capability ontologies are increasingly leveraged to describe functions in a machine-interpretable way. However, modeling such complex ontological descriptions is still a manual and error-prone task that requires a significant amount of effort and ontology expertise. This contribution presents an innovative method to automate capability ontology modeling using Large Language Models (LLMs), which have proven to be well suited for such tasks. Our approach requires only a natural language description of a capability, which is then automatically inserted into a predefined prompt using a few-shot prompting technique. After prompting an LLM, the resulting capability ontology is automatically verified through various steps in a loop with the LLM to check the overall correctness of the capability ontology. First, a syntax check is performed, then a check for contradictions, and finally a check for hallucinations and missing ontology elements. Our method greatly reduces manual effort, as only the initial natural language description and a final human review and possible correction are necessary, thereby streamlining the capability ontology generation process.
- Abstract(参考訳): フレキシブルで適応的なシステムを実現するために、機能オントロジーは機械解釈可能な方法で関数を記述するためにますます活用されている。
しかし、そのような複雑な存在論的な記述をモデル化することは、まだ手作業とエラーを起こしやすい作業であり、かなりの労力とオントロジーの専門知識を必要とする。
この貢献は、大規模言語モデル(LLM)を用いた能力オントロジーモデリングを自動化する革新的な方法を示し、そのようなタスクに適していることが証明された。
提案手法では,数発のプロンプト技術を用いて事前に定義されたプロンプトに自動的に挿入される機能について,自然言語で記述するだけでよい。
LLMをプロンプトした後、結果として生じる能力オントロジーはLLMとループの様々なステップを通して自動的に検証され、能力オントロジーの全体的な正しさをチェックする。
まず、構文チェックを行い、矛盾点のチェックを行い、最後に幻覚とオントロジーの要素のチェックを行う。
提案手法は,初期自然言語記述と最終人文レビューと修正が可能なため,手作業を大幅に削減し,オントロジー生成プロセスの合理化を図る。
関連論文リスト
- Automatic Generation of Behavioral Test Cases For Natural Language Processing Using Clustering and Prompting [6.938766764201549]
本稿では,大規模言語モデルと統計的手法の力を活用したテストケースの自動開発手法を提案する。
4つの異なる分類アルゴリズムを用いて行動テストプロファイルを分析し、それらのモデルの限界と強みについて議論する。
論文 参考訳(メタデータ) (2024-07-31T21:12:21Z) - On the Use of Large Language Models to Generate Capability Ontologies [43.06143768014157]
大規模言語モデル(LLM)は、自然言語テキスト入力から機械解釈可能なモデルを生成することができることを示した。
本稿では,LLMを用いて機能を実現する方法について検討する。
論文 参考訳(メタデータ) (2024-04-26T16:41:00Z) - Tuning-Free Accountable Intervention for LLM Deployment -- A
Metacognitive Approach [55.613461060997004]
大規模言語モデル(LLM)は、自然言語処理タスクの幅広い領域にわたる変換的進歩を触媒している。
我々は,自己認識型誤り識別と訂正機能を備えたLLMを実現するために,textbfCLEARと呼ばれる革新的なテキストメタ認知手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T19:18:53Z) - FIND: A Function Description Benchmark for Evaluating Interpretability
Methods [86.80718559904854]
本稿では,自動解釈可能性評価のためのベンチマークスイートであるFIND(Function Interpretation and Description)を紹介する。
FINDには、トレーニングされたニューラルネットワークのコンポーネントに似た機能と、私たちが生成しようとしている種類の記述が含まれています。
本研究では、事前訓練された言語モデルを用いて、自然言語とコードにおける関数の振る舞いの記述を生成する手法を評価する。
論文 参考訳(メタデータ) (2023-09-07T17:47:26Z) - On Conditional and Compositional Language Model Differentiable Prompting [75.76546041094436]
プロンプトは、下流タスクでうまく機能するために、凍結した事前訓練言語モデル(PLM)を適応するための効果的な方法であることが示されている。
タスク命令や入力メタデータを連続的なプロンプトに変換することを学習する新しいモデル Prompt Production System (PRopS) を提案する。
論文 参考訳(メタデータ) (2023-07-04T02:47:42Z) - Inverse Reinforcement Learning of Autonomous Behaviors Encoded as
Weighted Finite Automata [18.972270182221262]
本稿では,論理タスク仕様とコスト関数を実演から学習する手法を提案する。
本稿では,タスクの未知論理構造を近似した重み付き有限オートマトン(WFA)の抽出にスペクトル学習手法を用いる。
高レベルタスクガイダンスのためのWFAと低レベル制御のためのラベル付きマルコフ決定プロセス(L-MDP)との間にある製品を定義し、実証者の行動にマッチするコスト関数を最適化する。
論文 参考訳(メタデータ) (2021-03-10T06:42:10Z) - Multi-Agent Reinforcement Learning with Temporal Logic Specifications [65.79056365594654]
本研究では,時間論理仕様を満たすための学習課題を,未知の環境下でエージェントのグループで検討する。
我々は、時間論理仕様のための最初のマルチエージェント強化学習手法を開発した。
主アルゴリズムの正確性と収束性を保証する。
論文 参考訳(メタデータ) (2021-02-01T01:13:03Z) - AutoPrompt: Eliciting Knowledge from Language Models with Automatically
Generated Prompts [46.03503882865222]
AutoPromptは、勾配誘導検索に基づいて、さまざまなタスクセットのプロンプトを作成する自動メソッドである。
マスク付き言語モデル(MLM)は,感情分析や自然言語推論を,追加パラメータや微調整を伴わずに行う能力を持つことを示す。
論文 参考訳(メタデータ) (2020-10-29T22:54:00Z) - Exploring Software Naturalness through Neural Language Models [56.1315223210742]
ソフトウェア自然性仮説(Software Naturalness hypothesis)は、自然言語処理で使用されるのと同じ手法でプログラミング言語を理解することができると主張している。
この仮説は,事前学習されたトランスフォーマーベース言語モデルを用いて,コード解析タスクを実行することによって検討する。
論文 参考訳(メタデータ) (2020-06-22T21:56:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。