論文の概要: An Exploration of Pattern Mining with ChatGPT
- arxiv url: http://arxiv.org/abs/2412.16814v1
- Date: Sun, 22 Dec 2024 01:27:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 15:59:15.758855
- Title: An Exploration of Pattern Mining with ChatGPT
- Title(参考訳): ChatGPTを用いたパターンマイニングの探索
- Authors: Michael Weiss,
- Abstract要約: 本稿では、人間の洞察とAI能力を組み合わせて、既知の用途からパターンを抽出する8段階の協調プロセスを提案する。
本稿では、大規模言語モデルとデータソースとツールを統合するパターン言語を作成することで、このプロセスの実例を示す。
- 参考スコア(独自算出の注目度): 0.571097144710995
- License:
- Abstract: This paper takes an exploratory approach to examine the use of ChatGPT for pattern mining. It proposes an eight-step collaborative process that combines human insight with AI capabilities to extract patterns from known uses. The paper offers a practical demonstration of this process by creating a pattern language for integrating Large Language Models (LLMs) with data sources and tools. LLMs, such as ChatGPT, are a new class of AI models that have been trained on large amounts of text, and can create new content, including text, images, or video. The paper also argues for adding affordances of the underlying components as a new element of pattern descriptions. The primary audience of the paper includes pattern writers interested in pattern mining using LLMs.
- Abstract(参考訳): 本稿では,パターンマイニングにおけるChatGPTの利用を探索的に検討する。
人間の洞察とAI能力を組み合わせて、既知の用途からパターンを抽出する8ステップの協調プロセスを提案する。
本稿では、LLM(Large Language Models)とデータソースとツールを統合するパターン言語を作成することで、このプロセスの実践的な実証を行う。
LLMは、ChatGPTのような新しいAIモデルのクラスであり、大量のテキストでトレーニングされ、テキスト、画像、ビデオを含む新しいコンテンツを作成することができる。
この論文は、パターン記述の新しい要素として、基礎となるコンポーネントの余裕を追加することについても論じている。
論文の主な読者は、LLMを用いたパターンマイニングに関心のあるパターンライターである。
関連論文リスト
- Less is More: Making Smaller Language Models Competent Subgraph Retrievers for Multi-hop KGQA [51.3033125256716]
本研究では,小言語モデルで処理される条件生成タスクとして,サブグラフ検索タスクをモデル化する。
2億2千万のパラメータからなる基本生成部分グラフ検索モデルでは,最先端モデルと比較して競合検索性能が向上した。
LLMリーダを接続した最大の3Bモデルは、WebQSPとCWQベンチマークの両方で、SOTAのエンドツーエンドパフォーマンスを新たに設定します。
論文 参考訳(メタデータ) (2024-10-08T15:22:36Z) - Detection and Measurement of Syntactic Templates in Generated Text [58.111650675717414]
モデルにおける一般的な反復を特徴付けるための構文的特徴の解析を行う。
モデルでは、下流のタスクにおいて、人間の参照テキストよりも高いレートでテンプレートテキストを生成する傾向にある。
論文 参考訳(メタデータ) (2024-06-28T19:34:23Z) - GPT Struct Me: Probing GPT Models on Narrative Entity Extraction [2.049592435988883]
我々は,2つの最先端言語モデル(GPT-3とGPT-3.5)の物語の抽出能力を評価する。
本研究はポルトガルの119のニュース記事を集めたText2Story Lusaデータセットを用いて行った。
論文 参考訳(メタデータ) (2023-11-24T16:19:04Z) - On the Generalization of Training-based ChatGPT Detection Methods [33.46128880100525]
ChatGPTは、様々な自然言語タスクにおいて素晴らしいパフォーマンスを達成する最もポピュラーな言語モデルの1つである。
また、人書きから生成されたChatGPTのテキストを検出する必要がある。
論文 参考訳(メタデータ) (2023-10-02T16:13:08Z) - Harnessing Explanations: LLM-to-LM Interpreter for Enhanced
Text-Attributed Graph Representation Learning [51.90524745663737]
重要なイノベーションは、機能として説明を使用することで、下流タスクにおけるGNNのパフォーマンス向上に利用できます。
提案手法は、確立されたTAGデータセットの最先端結果を実現する。
本手法はトレーニングを著しく高速化し,ogbn-arxivのベースラインに最も近い2.88倍の改善を実現した。
論文 参考訳(メタデータ) (2023-05-31T03:18:03Z) - Exploring the Limits of ChatGPT for Query or Aspect-based Text
Summarization [28.104696513516117]
GPT3やChatGPTのような大規模言語モデル(LLM)は、テキスト要約タスクにこれらのモデルを使用することに大きな関心を寄せている。
最近の研究では、zhang2023ベンチマーキング(zhang2023benchmarking)は、LLMの生成するニュースサマリーがすでに人間と同等であることを示している。
実験の結果,ChatGPTの性能はルージュスコアの点で従来の微調整手法に匹敵することがわかった。
論文 参考訳(メタデータ) (2023-02-16T04:41:30Z) - Very Large Language Model as a Unified Methodology of Text Mining [17.653623842967807]
テキストデータマイニングは、言語テキストから必須情報を抽出するプロセスである。
様々なデータセットが収集され、様々な種類のタスクのために様々なアルゴリズムが設計される。
私は、非常に大きな言語モデル(VLLM)がテキストマイニングの効果的な統一手法となるという青空の考えを提示します。
論文 参考訳(メタデータ) (2022-12-19T06:52:13Z) - Conversational Pattern Mining using Motif Detection [1.9686054517684888]
我々は,会話パターンマイニング技術を開発するために,教師なしの手法を用いている。
本研究では,これを自然言語処理の分野に適用し,モチーフ検出アルゴリズムを拡張した。
このアルゴリズムを実世界の動的データセットに適用するために,我々はオープンソースフィルムスクリプトデータソースからモチーフを抽出する。
論文 参考訳(メタデータ) (2022-11-13T08:30:43Z) - An Exploration of Prompt Tuning on Generative Spoken Language Model for
Speech Processing Tasks [112.1942546460814]
生成音声言語モデル(GSLM)に基づく音声処理タスクの即時チューニングパラダイムの最初の検討について報告する。
実験結果から, 学習可能なパラメータが少ない音声分類タスクにおいて, 高精度なダウンストリームモデルよりも, 即時チューニング手法が競合性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2022-03-31T03:26:55Z) - Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods
in Natural Language Processing [78.8500633981247]
本稿では,自然言語処理における新たなパラダイムにおける研究成果の探索と整理を行う。
入力xを取り込んで出力yをP(y|x)として予測するようにモデルを訓練する従来の教師付き学習とは異なり、プロンプトベースの学習は直接テキストの確率をモデル化する言語モデルに基づいている。
論文 参考訳(メタデータ) (2021-07-28T18:09:46Z) - Enabling Language Models to Fill in the Blanks [81.59381915581892]
文書中の任意の位置にあるテキストの欠落を予測するタスクである,テキストを埋め込むためのシンプルなアプローチを提案する。
我々は、人工的にマスキングされたテキストと隠蔽されたテキストの連結を含むシーケンスに基づいて、オフザシェルフ言語モデル(またはファインチューン)を訓練する。
言語モデリングにより,この手法により,3つの分野(短編,科学的な要約,歌詞)において,LMが文全体を効果的に埋め込むことができることを示す。
論文 参考訳(メタデータ) (2020-05-11T18:00:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。