論文の概要: Explaining Patterns in Data with Language Models via Interpretable
Autoprompting
- arxiv url: http://arxiv.org/abs/2210.01848v1
- Date: Tue, 4 Oct 2022 18:32:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 12:32:38.490366
- Title: Explaining Patterns in Data with Language Models via Interpretable
Autoprompting
- Title(参考訳): 解釈可能な自動入力による言語モデルによるデータのパターン説明
- Authors: Chandan Singh, John X. Morris, Jyoti Aneja, Alexander M. Rush,
Jianfeng Gao
- Abstract要約: 本稿では,データを説明する自然言語文字列を生成するアルゴリズムである,解釈可能なオートプロンプト(iPrompt)を提案する。
iPromptは、基盤となるデータセット記述を正確に見つけることで、意味のある洞察を得ることができる。
fMRIデータセットを用いた実験は、iPromptが科学的発見に役立つ可能性を示している。
- 参考スコア(独自算出の注目度): 143.4162028260874
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) have displayed an impressive ability to harness
natural language to perform complex tasks. In this work, we explore whether we
can leverage this learned ability to find and explain patterns in data.
Specifically, given a pre-trained LLM and data examples, we introduce
interpretable autoprompting (iPrompt), an algorithm that generates a
natural-language string explaining the data. iPrompt iteratively alternates
between generating explanations with an LLM and reranking them based on their
performance when used as a prompt. Experiments on a wide range of datasets,
from synthetic mathematics to natural-language understanding, show that iPrompt
can yield meaningful insights by accurately finding groundtruth dataset
descriptions. Moreover, the prompts produced by iPrompt are simultaneously
human-interpretable and highly effective for generalization: on real-world
sentiment classification datasets, iPrompt produces prompts that match or even
improve upon human-written prompts for GPT-3. Finally, experiments with an fMRI
dataset show the potential for iPrompt to aid in scientific discovery. All code
for using the methods and data here is made available on Github.
- Abstract(参考訳): 大規模言語モデル(LLM)は、複雑なタスクを実行するために自然言語を活用する素晴らしい能力を示している。
本研究では、この学習能力を利用して、データ内のパターンを発見し、説明できるかどうかを検討する。
具体的には、事前学習されたllmとデータ例から、データを説明する自然言語文字列を生成するアルゴリズムである interpretable autoprompting (iprompt) を導入する。
ipromptは反復的にllmで説明を生成し、プロンプトとして使用する場合のパフォーマンスに基づいて再ランク付けする。
合成数学から自然言語理解まで、幅広いデータセットに関する実験は、ipromptが正確なデータセットの記述を正確に発見することで有意義な洞察を得ることができることを示した。
さらに、iPromptが生成するプロンプトは、人間の解釈可能で、現実の感情分類データセットでは、GPT-3の人間によるプロンプトにマッチまたは改善するプロンプトを生成する。
最後に、fMRIデータセットを用いた実験は、iPromptが科学的発見に役立つ可能性を示している。
メソッドとデータを使用するすべてのコードはGithubで公開されている。
関連論文リスト
- Evaluating LLM Prompts for Data Augmentation in Multi-label Classification of Ecological Texts [1.565361244756411]
大規模言語モデル(LLM)は自然言語処理(NLP)タスクにおいて重要な役割を果たす。
本研究では,ロシアのソーシャルメディアにおけるグリーンプラクティスの言及を検出するために,プロンプトベースのデータ拡張を適用した。
論文 参考訳(メタデータ) (2024-11-22T12:37:41Z) - Ontology Population using LLMs [0.9894420655516563]
知識グラフ(KG)は、データ統合、表現、可視化にますます活用されている。
LLMはそのようなタスクに有望な機能を提供し、自然言語の理解とコンテンツ生成に優れています。
本研究では、Enslaved.org Hub Ontologyに着目し、KG集団に対するLLMの有効性について検討した。
論文 参考訳(メタデータ) (2024-11-03T15:39:20Z) - INTERS: Unlocking the Power of Large Language Models in Search with Instruction Tuning [59.07490387145391]
大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて印象的な機能を示している。
情報検索(IR)タスクへのそれらの適用は、自然言語における多くのIR固有の概念の頻繁な発生のため、いまだに困難である。
我々は,3つの基本IRカテゴリにまたがる20のタスクを含む新しいインストラクションチューニングデータセット InterS を導入する。
論文 参考訳(メタデータ) (2024-01-12T12:10:28Z) - Helping Language Models Learn More: Multi-dimensional Task Prompt for
Few-shot Tuning [36.14688633670085]
本稿では,タスク関連オブジェクト,要約,タスク記述情報に基づく多次元タスクプロンプト学習手法MTPromptを提案する。
提案するMTPromptは,適切なプロンプトを自動構築し,検索することで,いくつかのサンプル設定と5つの異なるデータセットに対して最適な結果が得られる。
論文 参考訳(メタデータ) (2023-12-13T10:00:44Z) - The language of prompting: What linguistic properties make a prompt
successful? [13.034603322224548]
LLMは、多くのNLPタスクにおいて、印象的なゼロショットまたは少数ショットのパフォーマンスを達成するよう促すことができる。
しかし、プロンプトの言語的特性がタスクのパフォーマンスとどのように関連しているかについての体系的な理解はいまだに欠けている。
モーメント,テンション,アスペクト,モダリティなどの文法的性質と,同義語の使用による語彙・意味の変化について検討する。
論文 参考訳(メタデータ) (2023-11-03T15:03:36Z) - Large Language Model as Attributed Training Data Generator: A Tale of
Diversity and Bias [92.41919689753051]
大規模言語モデル(LLM)は、最近、様々な自然言語処理(NLP)タスクのためのトレーニングデータジェネレータとして活用されている。
本稿では,多様な属性を持つプロンプトを用いたトレーニングデータ生成について検討する。
属性付きプロンプトは、結果のモデルの性能の観点から、単純なクラス条件プロンプトより優れていることを示す。
論文 参考訳(メタデータ) (2023-06-28T03:31:31Z) - Visualizing Linguistic Diversity of Text Datasets Synthesized by Large
Language Models [9.808214545408541]
LinguisticLensは,データセットの構文的多様性を理解し解析するための,新たなインタラクティブな可視化ツールである。
テキストデータセットの階層的な可視化をサポートしており、ユーザーは概要を素早くスキャンし、個々の例を検査することができる。
論文 参考訳(メタデータ) (2023-05-19T00:53:45Z) - Using Large Language Models to Generate Engaging Captions for Data
Visualizations [51.98253121636079]
大規模言語モデル(LLM)は、高度なディープラーニング技術を用いて人間のような散文を生成する。
主な課題は、プロンプトエンジニアリングと呼ばれるLLMの最も効果的なプロンプトを設計することである。
我々は,LLM GPT-3を用いた最初の実験について報告し,いくつかの有望な結果を得た。
論文 参考訳(メタデータ) (2022-12-27T23:56:57Z) - Schema-aware Reference as Prompt Improves Data-Efficient Knowledge Graph
Construction [57.854498238624366]
本稿では,データ効率のよい知識グラフ構築のためのRAP(Schema-Aware Reference As Prompt)の検索手法を提案する。
RAPは、人間の注釈付きおよび弱教師付きデータから受け継いだスキーマと知識を、各サンプルのプロンプトとして動的に活用することができる。
論文 参考訳(メタデータ) (2022-10-19T16:40:28Z) - RLPrompt: Optimizing Discrete Text Prompts With Reinforcement Learning [84.75064077323098]
本稿では、強化学習(RL)を用いた離散的高速最適化手法RLPromptを提案する。
RLPromptは、マスク付きジベリッシュ(例:grammaBERT)や左から右へのモデル(例:GPT)など、様々な種類のLMに柔軟に適用可能である。
少数ショット分類と教師なしテキストスタイル転送の実験は、既存のファインタニングやプロンプト手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-05-25T07:50:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。