論文の概要: TreePrompt: Learning to Compose Tree Prompts for Explainable Visual
Grounding
- arxiv url: http://arxiv.org/abs/2305.11497v1
- Date: Fri, 19 May 2023 07:52:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-22 15:34:20.734959
- Title: TreePrompt: Learning to Compose Tree Prompts for Explainable Visual
Grounding
- Title(参考訳): TreePrompt: 説明可能なビジュアルグラウンドのためのツリープロンプを学習する
- Authors: Chenchi Zhang, Jun Xiao, Lei Chen, Jian Shao, Long Chen
- Abstract要約: 本稿では,ツリープロンプトと呼ばれる説明可能な機能を備えた新しいプロンプト構築パラダイムを提案する。
具体的には、まず複雑な文を木に分解し、それは人間の推論と一致する。
このステップバイステップのプロンプト構築プロセスのおかげで、各中間プロンプト(つまりツリーノード)は推論プロセスを理解することができる。
- 参考スコア(独自算出の注目度): 17.9785504685384
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prompt tuning has achieved great success in transferring the knowledge from
large pretrained vision-language models into downstream tasks, and has
dominated the performance on visual grounding (VG). However, almost all
existing prompt tuning paradigms suffer from poor interpretability. In this
paper, we argue that their poor interpretability is attributed to the holistic
prompt generation and inference process. By "holistic", we mean that they
usually directly learn a set of vectors as the prompt (i.e., prompt
generation), and use the learned global prompt to augment the textual input for
the VG model (i.e., prompt inference). To this end, we propose a new prompt
construction paradigm with explicit explainable ability, named TreePrompt.
Specifically, we first deconstruct a complex sentence into a tree, that is
consistent with human reasoning. Then, following the syntax tree, we compose a
structured prompt in a bottom-up manner. Thanks to this step-by-step prompt
construction process, each intermediate prompt (i.e., tree node) permits us to
understand the reasoning process. Extensive ablations on various backbones and
benchmarks consistently demonstrate the effectiveness and interpretability of
our TreePrompt.
- Abstract(参考訳): プロンプトチューニングは、大きな事前訓練されたビジョン言語モデルの知識をダウンストリームタスクに移すことで大きな成功を収め、視覚グラウンド(vg)のパフォーマンスを支配した。
しかし、ほとんどの既存のプロンプトチューニングパラダイムは、解釈性に乏しい。
本稿では,それらの解釈の貧弱さが,総合的なプロンプト生成と推論のプロセスに起因していると主張する。
総称的」とは、通常、一連のベクトルをプロンプト(即ちプロンプト生成)として直接学習し、学習されたグローバルプロンプトを使用して、vgモデルのテキスト入力(即ちプロンプト推論)を増強することを意味する。
この目的のために,treeprompt という明示的な説明能力を持つ新しいプロンプト構築パラダイムを提案する。
具体的には、まず複雑な文を木に分解し、それは人間の推論と一致する。
次に、構文木に従い、ボトムアップ方式で構造化されたプロンプトを構成する。
このステップバイステップのプロンプト構築プロセスのおかげで、各中間プロンプト(つまりツリーノード)は推論プロセスを理解することができる。
さまざまなバックボーンやベンチマークに対する大規模な改善は、TreePromptの有効性と解釈性を一貫して示しています。
関連論文リスト
- Parse Trees Guided LLM Prompt Compression [20.61121589698341]
本稿では、PartPromptと呼ばれる新しい選択的圧縮手法を提案する。
まず、言語規則に基づいて各文のパースツリーを取得し、パースツリーの各ノードのローカル情報エントロピーを算出する。
実験によると、PartPromptはさまざまなデータセットで最先端のパフォーマンスを受信している。
論文 参考訳(メタデータ) (2024-09-23T06:21:40Z) - Tree Prompting: Efficient Task Adaptation without Fine-Tuning [112.71020326388029]
Tree Promptingはプロンプトの決定ツリーを構築し、複数のLMコールをリンクしてタスクを解決する。
分類データセットの実験により、Tree Promptingは競合するメソッドよりも精度が向上し、微調整と競合することが示された。
論文 参考訳(メタデータ) (2023-10-21T15:18:22Z) - On the Role of Attention in Prompt-tuning [90.97555030446563]
本研究では,一層アテンションアーキテクチャのプロンプトチューニングについて検討し,文脈混合モデルについて検討する。
ソフトマックス・プロンプト・アテンションは, ソフトマックス・自己アテンションやリニア・プロンプト・アテンションよりも明らかに表現力が高いことを示す。
また、実際のデータセットに関する理論的洞察を検証し、モデルが文脈関連情報にどのように対応できるかを示す実験も提供する。
論文 参考訳(メタデータ) (2023-06-06T06:23:38Z) - Demystifying Prompts in Language Models via Perplexity Estimation [109.59105230163041]
プロンプトのパフォーマンスは、モデルが含んでいる言語に精通している範囲と結合している。
プロンプトの難易度が低ければ低いほど、プロンプトがタスクを実行することができることを示す。
論文 参考訳(メタデータ) (2022-12-08T02:21:47Z) - Explaining Patterns in Data with Language Models via Interpretable
Autoprompting [143.4162028260874]
本稿では,データを説明する自然言語文字列を生成するアルゴリズムである,解釈可能なオートプロンプト(iPrompt)を提案する。
iPromptは、基盤となるデータセット記述を正確に見つけることで、意味のある洞察を得ることができる。
fMRIデータセットを用いた実験は、iPromptが科学的発見に役立つ可能性を示している。
論文 参考訳(メタデータ) (2022-10-04T18:32:14Z) - Maieutic Prompting: Logically Consistent Reasoning with Recursive
Explanations [71.2950434944196]
ノイズや一貫性のない言語モデルでさえも問題に対する正しい答えを推測するMaieutic Promptingを開発する。
Maieutic Promptingは最先端のプロンプト法よりも最大20%精度が高い。
論文 参考訳(メタデータ) (2022-05-24T06:36:42Z) - Instance-aware Prompt Learning for Language Understanding and Generation [49.22899822734549]
本稿では,インスタンス毎に異なるプロンプトを学習するインスタンス対応プロンプト学習手法を提案する。
提案手法は,SuperGLUE数ショット学習ベンチマークの最先端性を実現する。
論文 参考訳(メタデータ) (2022-01-18T17:03:25Z) - Do Prompt-Based Models Really Understand the Meaning of their Prompts? [12.857580576554865]
モデルは、意図的に無関係で、あるいは病理学的に誤解を招く多くのプロンプトで、同じように速く学習する。
既存のプロンプトベースのモデルが与えられたプロンプトの意味を真に理解していることを示す証拠はほとんど見つからない。
論文 参考訳(メタデータ) (2021-09-02T23:46:36Z) - Explaining Answers with Entailment Trees [16.555369850015055]
我々は,証拠が回答にどのようにつながるのかを体系的に示すことで,回答を説明することを目的とする。
私たちのアプローチは、エンテイメントツリー、すなわち、中間的な結論を通じて知られている事実から最終的な答えまで、エンテイメントステップのツリーの形で説明を生成することです。
このスキルでモデルをトレーニングするために、マルチステップのエンテイメントツリーを含む最初のデータセットであるEnTAILMENTBANKを作成しました。
論文 参考訳(メタデータ) (2021-04-17T23:13:56Z) - Unsupervised Learning of Discourse Structures using a Tree Autoencoder [8.005512864082126]
本研究では, 自動符号化目的による潜在木誘導フレームワークを拡張することにより, タスクに依存しない, 監視されていない方法で木構造を生成する新しい戦略を提案する。
提案されたアプローチは、構文解析、談話解析など、任意のツリー目的に適用することができる。
本稿では,複数の領域における自然文の一般的な木構造を推定し,様々なタスクで有望な結果を示す。
論文 参考訳(メタデータ) (2020-12-17T08:40:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。