論文の概要: Using ChatGPT to refine draft conceptual schemata in supply-driven design of multidimensional cubes
- arxiv url: http://arxiv.org/abs/2502.02238v1
- Date: Tue, 04 Feb 2025 11:27:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 15:21:56.095127
- Title: Using ChatGPT to refine draft conceptual schemata in supply-driven design of multidimensional cubes
- Title(参考訳): 多次元立方体の供給駆動設計におけるChatGPTを用いた概念スキーマの改良
- Authors: Stefano Rizzi,
- Abstract要約: 精製は多次元立方体の供給駆動設計における重要なステップである。
この作業の目標は、LDMが改良作業のファシリテータとして機能し、エンドユーザーによって完全に(あるいは主に)実行できるようにするかどうかを確認することである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Refinement is a critical step in supply-driven conceptual design of multidimensional cubes because it can hardly be automated. In fact, it includes steps such as the labeling of attributes as descriptive and the removal of uninteresting attributes, thus relying on the end-users' requirements on the one hand, and on the semantics of measures, dimensions, and attributes on the other. As a consequence, it is normally carried out manually by designers in close collaboration with end-users. The goal of this work is to check whether LLMs can act as facilitators for the refinement task, so as to let it be carried out entirely -- or mostly -- by end-users. The Dimensional Fact Model is the target formalism for our study; as a representative LLM, we use ChatGPT's model GPT-4o. To achieve our goal, we formulate three research questions aimed at (i) understanding the basic competences of ChatGPT in multidimensional modeling; (ii) understanding the basic competences of ChatGPT in refinement; and (iii) investigating if the latter can be improved via prompt engineering. The results of our experiments show that, indeed, a careful prompt engineering can significantly improve the accuracy of refinement, and that the residual errors can quickly be fixed via one additional prompt. However, we conclude that, at present, some involvement of designers in refinement is still necessary to ensure the validity of the refined schemata.
- Abstract(参考訳): 精製は多次元立方体の供給駆動設計における重要なステップである。
実際には、属性を記述的としてラベル付けしたり、興味のない属性を削除したりといったステップが含まれており、それゆえ、エンドユーザーによる一方の要求と他方の測度、寸法、属性のセマンティクスに依存している。
その結果、デザイナーがエンドユーザーと密接なコラボレーションで手作業で行うのが普通である。
この作業の目標は、LDMが改良作業のファシリテータとして機能し、エンドユーザーによって完全に(あるいは主に)実行できるようにするかどうかを確認することである。
本研究の目的は次元ファクトモデルであり,代表的な LLM としてChatGPT のモデル GPT-4o を用いる。
目的を達成するために、我々は3つの研究課題を定式化する。
i)多次元モデリングにおけるChatGPTの基本能力の理解
(二)改良におけるChatGPTの基本能力の理解、及び
三 急進的な工学により後者を改良できるかどうかを調査すること。
実験の結果、注意深いプロンプト工学が改良の精度を大幅に向上し、残差を1つの追加のプロンプトで迅速に修正できることが判明した。
しかし,現段階では,改良されたスキーマの有効性を保証するためには,設計者による改良への関与が依然として必要である,と結論付けている。
関連論文リスト
- Meeseeks: An Iterative Benchmark Evaluating LLMs Multi-Turn Instruction-Following Ability [3.4354830835082195]
Meeseeksは反復的なフィードバックプロセスを通じて現実的な人間とLLMのインタラクションをシミュレートする。
この設計により、モデルは特定の要求障害に基づいて自己修正できる。
論文 参考訳(メタデータ) (2025-04-30T13:28:19Z) - Visual Consensus Prompting for Co-Salient Object Detection [26.820772908765083]
共分散オブジェクト検出タスクに対して,対話効率とパラメータ効率のよい簡潔なアーキテクチャを提案する。
パラメータ効率の良いプロンプトチューニングのパラダイムと,タスク固有のビジュアルコンセンサス・プロンプト(VCP)を定式化するためのプロンプトへのコンセンサスをシームレスに埋め込む
OurVCPは、最先端のフル微調整モデル13を上回り、新しい最先端の技術を達成している(最も困難なCoCAデータセット上でのF_mメトリクスが6.8%改善されている)。
論文 参考訳(メタデータ) (2025-04-19T10:12:39Z) - Visualizing Thought: Conceptual Diagrams Enable Robust Planning in LMMs [57.66267515456075]
大規模言語モデル (LLM) と大規模マルチモーダルモデル (LMM) は、主にテキスト表現を通して推論される。
自己生成概念図の複数の連鎖を通してLMMを推論できるゼロショット完全自動フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-14T18:27:02Z) - Learning Task Representations from In-Context Learning [73.72066284711462]
大規模言語モデル(LLM)は、文脈内学習において顕著な習熟性を示している。
ICLプロンプトにおけるタスク情報をアテンションヘッドの関数として符号化するための自動定式化を導入する。
提案手法の有効性は,最後の隠れ状態の分布と最適に実行されたテキスト内学習モデルとの整合性に起因していることを示す。
論文 参考訳(メタデータ) (2025-02-08T00:16:44Z) - Supervised Chain of Thought [5.389461633686935]
Chain of Thought (CoT)は複雑な推論タスクを解決するための有望なアプローチを提供する。
ワンプロンプト・フォー・オールアプローチは、正しい推論ステップを生成するためにモデルに重大な課題をもたらす。
タスク固有の監督が、プロンプト空間を正確にナビゲートし、最適な性能を達成するためにいかに重要であるかを示す。
論文 参考訳(メタデータ) (2024-10-18T06:25:27Z) - Revisiting SMoE Language Models by Evaluating Inefficiencies with Task Specific Expert Pruning [78.72226641279863]
SMOE(Sparse Mixture of Expert)モデルは、言語モデリングにおける高密度モデルに代わるスケーラブルな代替品として登場した。
本研究は,SMoEアーキテクチャの設計に関する意思決定を行うために,タスク固有のモデルプルーニングについて検討する。
適応型タスク対応プルーニング手法 UNCURL を導入し,MoE 層当たりの専門家数をオフラインで学習する手法を提案する。
論文 参考訳(メタデータ) (2024-09-02T22:35:03Z) - The CAP Principle for LLM Serving: A Survey of Long-Context Large Language Model Serving [5.199465146247884]
本研究では,大規模言語モデル (LLM) を探索し,コスト効率と精度の関係を解明する。
この分野での作業は、コンテクスト長(C)の改善、A(A)の改善、P(P)向上という3つの異なる目標に沿って最適化されていることが判明した。
論文 参考訳(メタデータ) (2024-05-18T14:00:04Z) - Towards Generalist Prompting for Large Language Models by Mental Models [105.03747314550591]
大規模言語モデル(LLM)は多くのタスクにおいて素晴らしいパフォーマンスを示している。
最適な性能を達成するには、特別に設計されたプロンプト法が必要である。
本稿では,最適あるいは準最適性能を実現する設計原理に基づくジェネラリストプロンプトの概念を紹介する。
論文 参考訳(メタデータ) (2024-02-28T11:29:09Z) - Prompt Engineering a Prompt Engineer [10.798308109737862]
我々は,大規模な言語モデルをメタプロンプトで自動プロンプトエンジニアリングを行うことができると主張している。
このギャップを、詳細な説明、コンテキスト仕様、ステップバイステップの推論テンプレートという、メタプロンプトの3つの重要なコンポーネントに注入することで埋めます。
PE2と呼ばれるこの手法は、様々な言語タスクにまたがる優れた汎用性を示す。
論文 参考訳(メタデータ) (2023-11-09T08:00:32Z) - 3D-GPT: Procedural 3D Modeling with Large Language Models [47.72968643115063]
命令駆動3Dモデリングのための大規模言語モデル(LLM)を利用するフレームワークである3D-GPTを紹介する。
3D-GPTは、3Dモデリングタスクをアクセス可能なセグメントに分割し、各タスクにアプエージェントを割り当てる。
我々の実証調査では、3D-GPTが解釈し、指示を実行し、信頼性の高い結果を提供するだけでなく、人間デザイナーと効果的に協力することを確認した。
論文 参考訳(メタデータ) (2023-10-19T17:41:48Z) - Guiding Language Model Reasoning with Planning Tokens [122.43639723387516]
大規模言語モデル(LLM)は、最近、複雑な推論タスクを実行する能力に対して、かなりの関心を集めている。
より構造的なチェーン・オブ・シークレット・ステップの創出を促す階層的な生成手法を提案する。
提案手法では、トレーニング可能なパラメータ(0.001%)の無視可能な増加が必要であり、完全な微調整か、よりパラメータ効率の良いスキームで適用することができる。
論文 参考訳(メタデータ) (2023-10-09T13:29:37Z) - Ladder-of-Thought: Using Knowledge as Steps to Elevate Stance Detection [73.31406286956535]
姿勢検出タスクにLadder-of-Thought(LoT)を導入する。
LoTは、小さなLMに高品質な外部知識を同化させ、生成した中間的論理を精査するように指示する。
実験では, 姿勢検出タスクにおけるCoTのGPT-3.5よりも16%改善し, 10%向上した。
論文 参考訳(メタデータ) (2023-08-31T14:31:48Z) - Breakpoint Transformers for Modeling and Tracking Intermediate Beliefs [37.754787051387034]
本稿では,ブレークポイントモデリングと呼ばれる表現学習フレームワークを提案する。
私たちのアプローチは、中間表現を構築するために、効率的でエンドツーエンドの方法でモデルをトレーニングします。
我々は,従来の表現学習手法よりも,T5に基づく主要なブレークポイント変換器の利点を示す。
論文 参考訳(メタデータ) (2022-11-15T07:28:14Z) - Reframing Instructional Prompts to GPTk's Language [72.69833640335519]
本稿では,モデル設計者が言語モデルに対して効果的なプロンプトを作成するためのリフレーミング手法を提案する。
その結果、リフレーミングはサンプルの複雑さを減らしながら、数ショットの学習性能を14%向上させることがわかった。
GPT3では、大規模なデータセットでモデルやプロンプトをチューニングすることは不可能である。
論文 参考訳(メタデータ) (2021-09-16T09:44:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。