論文の概要: Psychologically-informed chain-of-thought prompts for metaphor
understanding in large language models
- arxiv url: http://arxiv.org/abs/2209.08141v1
- Date: Fri, 16 Sep 2022 19:23:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 15:38:50.674261
- Title: Psychologically-informed chain-of-thought prompts for metaphor
understanding in large language models
- Title(参考訳): 大規模言語モデルにおけるメタファ理解のための心理的に非定型な思考連鎖プロンプト
- Authors: Ben Prystawski, Paul Thibodeau, Noah Goodman
- Abstract要約: 大規模言語モデル(LLM)は、文脈内学習によって多くのタスクを実行できるが、確率モデルの明確な構造は欠いている。
確率モデルからLLMへの構造導入にはチェーン・オブ・シント・プロンプトを用いる。
GPT-3の2つの大きなバージョンにこれらのプロンプトを適用し、パラフレーズ選択を改善することができることを示す。
- 参考スコア(独自算出の注目度): 1.6204795984450167
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Probabilistic models of language understanding are interpretable and
structured, for instance models of metaphor understanding describe inference
about latent topics and features. However, these models are manually designed
for a specific task. Large language models (LLMs) can perform many tasks
through in-context learning, but they lack the clear structure of probabilistic
models. In this paper, we use chain-of-thought prompts to introduce structures
from probabilistic models into LLMs. These prompts lead the model to infer
latent variables and reason about their relationships to choose appropriate
paraphrases for metaphors. The latent variables and relationships chosen are
informed by theories of metaphor understanding from cognitive psychology. We
apply these prompts to the two largest versions of GPT-3 and show that they can
improve paraphrase selection.
- Abstract(参考訳): 言語理解の確率的モデルは解釈可能で構造化されており、例えばメタファ理解のモデルは潜在トピックや特徴の推論を記述する。
しかし、これらのモデルは特定のタスクのために手動で設計されている。
大規模言語モデル(LLM)は、文脈内学習によって多くのタスクを実行できるが、確率モデルの明確な構造は欠いている。
本稿では,確率モデルからLLMへの構造導入にチェーン・オブ・シント・プロンプトを用いる。
これらのプロンプトはモデルに潜伏変数を推論し、それらの関係を推論し、メタファーの適切なパラフレーズを選択する。
選択された潜在変数と関係は、認知心理学からのメタファー理解の理論から学べる。
GPT-3の2つの大きなバージョンにこれらのプロンプトを適用し、パラフレーズ選択を改善することができることを示す。
関連論文リスト
- From Word Models to World Models: Translating from Natural Language to
the Probabilistic Language of Thought [124.40905824051079]
言語インフォームド・シンキングのための計算フレームワークである「構成」を合理的に提案する。
我々は、自然言語から確率論的思考言語への文脈感応的なマッピングとして、言語の意味を定式化する。
LLMは、現実的に適切な言語的意味をキャプチャする文脈依存翻訳を生成することができることを示す。
認知的なモチベーションを持つシンボリックモジュールを統合するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2023-06-22T05:14:00Z) - Large Language Models are In-Context Semantic Reasoners rather than
Symbolic Reasoners [75.85554779782048]
大規模言語モデル(LLM)は、近年、自然言語と機械学習コミュニティを興奮させています。
多くの成功を収めたアプリケーションにもかかわらず、そのようなコンテキスト内機能の基盤となるメカニズムはまだ不明である。
本研究では,学習した言語トークンのテクストセマンティクスが推論過程において最も重い処理を行うと仮定する。
論文 参考訳(メタデータ) (2023-05-24T07:33:34Z) - Black-box language model explanation by context length probing [7.526153863886609]
本稿では、因果言語モデルのための新しい説明手法である文脈長探索について述べる。
この技術はモデルに依存しず、トークンレベルの確率の計算以上のモデル内部へのアクセスに依存しない。
事前学習された大規模言語モデルに文脈長探索を適用し、初期分析と洞察を提供する。
論文 参考訳(メタデータ) (2022-12-30T16:24:10Z) - The Goldilocks of Pragmatic Understanding: Fine-Tuning Strategy Matters
for Implicature Resolution by LLMs [26.118193748582197]
我々は、広く使われている最先端モデルの4つのカテゴリを評価する。
2進推論を必要とする発話のみを評価するにもかかわらず、3つのカテゴリのモデルはランダムに近い性能を示す。
これらの結果は、特定の微調整戦略がモデルにおける実用的理解を誘導する上ではるかに優れていることを示唆している。
論文 参考訳(メタデータ) (2022-10-26T19:04:23Z) - Text and Patterns: For Effective Chain of Thought, It Takes Two to Tango [11.344587937052697]
この研究は、大規模言語モデルにおける推論機構のより深い理解に向けた予備的なステップを開始する。
私たちの作業は、シンボル、パターン、テキストというプロンプト内のコンポーネントの1つを除いて、モデルをクエリすることに集中しています。
我々は、テキストがパターンに常識的な知識と意味を与えると仮定する。
論文 参考訳(メタデータ) (2022-09-16T02:54:00Z) - Structured, flexible, and robust: benchmarking and improving large
language models towards more human-like behavior in out-of-distribution
reasoning tasks [39.39138995087475]
言語単独で統計的パターンを学習することで、どの程度の人間的な思考を捉えることができるのかを問う。
本ベンチマークは2つの問題解決領域(計画と説明生成)を含み,一般化を必要とするように設計されている。
このベンチマークでは、人間はLSMよりもはるかに堅牢であることが分かりました。
論文 参考訳(メタデータ) (2022-05-11T18:14:33Z) - Testing the Ability of Language Models to Interpret Figurative Language [69.59943454934799]
比喩的・比喩的な言語は言論において一般的である。
現代の言語モデルが非リテラルなフレーズをどの程度解釈できるかについては、未解決の疑問が残る。
ウィノグラードスタイルの非文字言語理解タスクであるFig-QAを紹介する。
論文 参考訳(メタデータ) (2022-04-26T23:42:22Z) - Interpreting Language Models with Contrastive Explanations [99.7035899290924]
言語モデルは、音声、数字、時制、意味論など、トークンを予測するための様々な特徴を考慮しなければならない。
既存の説明手法は、これらの特徴の証拠を1つの説明に分割するが、人間の理解には理解できない。
比較的な説明は、主要な文法現象の検証において、非対照的な説明よりも定量的に優れていることを示す。
論文 参考訳(メタデータ) (2022-02-21T18:32:24Z) - Chain of Thought Prompting Elicits Reasoning in Large Language Models [56.811278668446825]
本稿では,コヒーレントな思考連鎖を生成する言語モデルについて考察する。
実験により、プロンプトによって思考の連鎖を誘導することで、十分な大きな言語モデルが推論タスクをよりよく実行できるようになることが示されている。
論文 参考訳(メタデータ) (2022-01-28T02:33:07Z) - A Latent-Variable Model for Intrinsic Probing [94.61336186402615]
固有プローブ構築のための新しい潜在変数定式化を提案する。
我々は、事前訓練された表現が言語間交互に絡み合ったモルフォシンタクスの概念を発達させる経験的証拠を見出した。
論文 参考訳(メタデータ) (2022-01-20T15:01:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。