論文の概要: Improving Ontology Requirements Engineering with OntoChat and Participatory Prompting
- arxiv url: http://arxiv.org/abs/2408.15256v3
- Date: Wed, 18 Sep 2024 16:09:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-19 22:32:32.506142
- Title: Improving Ontology Requirements Engineering with OntoChat and Participatory Prompting
- Title(参考訳): オントチャットと参加型プロンプトによるオントロジー要求工学の改善
- Authors: Yihang Zhao, Bohui Zhang, Xi Hu, Shuyin Ouyang, Jongmo Kim, Nitisha Jain, Jacopo de Berardinis, Albert Meroño-Peñuela, Elena Simperl,
- Abstract要約: OREは主に、ドメインの専門家からユーザ要求を集めるために、インタビューや共同フォーラムのような手動の手法に依存しています。
Current OntoChatは,大規模な言語モデル(LLM)を使用してプロセスを合理化するための,ORE用のフレームワークを提供する。
本研究は,ユーザストーリのペルソナ,目標,シナリオ,サンプルデータ,データリソースの作成と精錬に重点を置いた,ユーザクエリに基づく事前定義されたプロンプトテンプレートを生成する。
- 参考スコア(独自算出の注目度): 3.3241053483599563
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Past ontology requirements engineering (ORE) has primarily relied on manual methods, such as interviews and collaborative forums, to gather user requirements from domain experts, especially in large projects. Current OntoChat offers a framework for ORE that utilises large language models (LLMs) to streamline the process through four key functions: user story creation, competency question (CQ) extraction, CQ filtration and analysis, and ontology testing support. In OntoChat, users are expected to prompt the chatbot to generate user stories. However, preliminary evaluations revealed that they struggle to do this effectively. To address this issue, we experimented with a research method called participatory prompting, which involves researcher-mediated interactions to help users without deep knowledge of LLMs use the chatbot more effectively. This participatory prompting user study produces pre-defined prompt templates based on user queries, focusing on creating and refining personas, goals, scenarios, sample data, and data resources for user stories. These refined user stories will subsequently be converted into CQs.
- Abstract(参考訳): 過去のオントロジー要件エンジニアリング(ORE)は、特に大規模プロジェクトでは、特にドメインの専門家からユーザー要求を集めるために、インタビューや共同フォーラムのような手動の手法に依存してきた。
Current OntoChatは,ユーザストーリ生成,能力質問(CQ)抽出,CQフィルタリングと分析,オントロジーテストサポートという,4つの重要な機能を通じてプロセスを合理化するための,大規模な言語モデル(LLM)を利用する,ORE用のフレームワークを提供する。
OntoChatでは、ユーザーはチャットボットにユーザーストーリーを生成するよう促すことが期待されている。
しかし、予備評価の結果、彼らはこれを効果的に行うのに苦労していることがわかった。
この問題に対処するため,私たちは,LLMの深い知識を必要とせずにチャットボットをより効果的に活用するための研究者によるインタラクションを含む,参加型プロンプトと呼ばれる研究手法を実験した。
この参加的なユーザスタディは、ユーザクエリに基づいた事前定義されたプロンプトテンプレートを生成し、ペルソナ、ゴール、シナリオ、サンプルデータ、ユーザストーリーのデータリソースの作成と精錬に重点を置いている。
これらの洗練されたユーザーストーリーはその後CQに変換される。
関連論文リスト
- An Approach for Auto Generation of Labeling Functions for Software Engineering Chatbots [3.1911318265930944]
ラベル付きユーザクエリからパターンを抽出し,ラベル付け関数(LF)を自動的に生成する手法を提案する。
提案手法の有効性を,4種類のSEデータセットのクエリに適用することで評価する。
論文 参考訳(メタデータ) (2024-10-09T17:34:14Z) - Into the Unknown Unknowns: Engaged Human Learning through Participation in Language Model Agent Conversations [8.848859080368799]
協調的なSTORMは、複数のLMエージェント間の会話を観察し、管理することを可能にする。
エージェントはユーザの代理として質問を行い、未知の未知をセレンディピティーに発見する。
自動評価のために,実際の情報検索記録をユーザ目標として収集し,WildSeekデータセットを構築する。
論文 参考訳(メタデータ) (2024-08-27T17:50:03Z) - Conversational Prompt Engineering [14.614531952444013]
ユーザが特定のタスクに対してパーソナライズされたプロンプトを作成するのを支援する,ユーザフレンドリーなツールであるConversational Prompt Engineering (CPE)を提案する。
CPEはチャットモデルを使ってユーザと短時間の対話を行い、アウトプットの好みを明確にし、それらをプロンプトに統合する。
要約タスクのユーザスタディは、パーソナライズされたハイパフォーマンスなプロンプトを作成する際のCPEの価値を示す。
論文 参考訳(メタデータ) (2024-08-08T16:18:39Z) - OntoChat: a Framework for Conversational Ontology Engineering using Language Models [0.3141085922386211]
textbfOntoChatは、要求の誘導、分析、テストをサポートする会話エンジニアリングのためのフレームワークである。
音楽メタオントロジーのエンジニアリングを再現し,ユーザから各コンポーネントの有効性に関する予備的な指標を収集することにより,OntoChatを評価する。
論文 参考訳(メタデータ) (2024-03-09T14:04:06Z) - Beyond ChatBots: ExploreLLM for Structured Thoughts and Personalized
Model Responses [35.74453152447319]
ExploreLLMは、ユーザが思考を構造化し、さまざまな選択肢を探索し、選択とレコメンデーションをナビゲートし、よりパーソナライズされたレスポンスを生成するために、より簡単にモデルをステアリングすることを可能にする。
本研究では,探索的・計画的なタスクにExploreLLMを使うことが有用であることを示す。
この研究は、ExploreLLMで高レベルな好みで応答をより簡単にパーソナライズできることを示唆している。
論文 参考訳(メタデータ) (2023-12-01T18:31:28Z) - Cache & Distil: Optimising API Calls to Large Language Models [82.32065572907125]
ジェネレーティブAIツールの大規模デプロイは、ユーザクエリをフルフィルするために、LLM(Large Language Model)に対する高価なAPI呼び出しに依存することが多い。
これらの呼び出しの頻度を縮めるために、より小さな言語モデル(学生)を用いることができる。
この学生は、ユーザー要求の増加に独立して対処する能力が徐々に向上する。
論文 参考訳(メタデータ) (2023-10-20T15:01:55Z) - The Shifted and The Overlooked: A Task-oriented Investigation of
User-GPT Interactions [114.67699010359637]
実際のユーザクエリの大規模なコレクションをGPTに解析する。
ユーザインタラクションでは'設計'や'計画'といったタスクが一般的だが,従来のNLPベンチマークとは大きく異なる。
論文 参考訳(メタデータ) (2023-10-19T02:12:17Z) - Search-Engine-augmented Dialogue Response Generation with Cheaply
Supervised Query Production [98.98161995555485]
応答生成のために,任意の検索エンジンから膨大な動的情報にアクセス可能な対話モデルを提案する。
コアモジュールとして、クエリプロデューサを使用して、対話コンテキストからクエリを生成して、検索エンジンと対話する。
R@1とR@5のレートを62.4%と74.8%で達成できることを示す実験を行った。
論文 参考訳(メタデータ) (2023-02-16T01:58:10Z) - Disentangling Online Chats with DAG-Structured LSTMs [55.33014148383343]
DAG-LSTMはTree-LSTMの一般化であり、間接的な非循環的依存関係を処理できる。
提案する新モデルでは,リプライ・トゥ・リレーション(Repend-to-Relation)を回復する作業において,アート・ステータスの状態を達成できることが示される。
論文 参考訳(メタデータ) (2021-06-16T18:00:00Z) - Mining Implicit Relevance Feedback from User Behavior for Web Question
Answering [92.45607094299181]
本研究は,ユーザ行動と通過関連性との関連性を検討するための最初の研究である。
提案手法は,追加のラベル付きデータを使わずにパスランキングの精度を大幅に向上させる。
実際にこの研究は、グローバルな商用検索エンジンにおけるQAサービスの人為的ラベリングコストを大幅に削減する効果が証明されている。
論文 参考訳(メタデータ) (2020-06-13T07:02:08Z) - Conversations with Search Engines: SERP-based Conversational Response
Generation [77.1381159789032]
我々は、検索エンジンと対話するためのパイプラインを開発するために、適切なデータセット、検索・アズ・ア・会話(SaaC)データセットを作成します。
また、このデータセットを用いて、検索エンジンと対話するための最先端パイプライン(Conversations with Search Engines (CaSE))も開発しています。
CaSEは、サポートされたトークン識別モジュールとプリア・アウェア・ポインタージェネレータを導入することで最先端を向上する。
論文 参考訳(メタデータ) (2020-04-29T13:07:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。