論文の概要: Speak Like a Native: Prompting Large Language Models in a Native Style
- arxiv url: http://arxiv.org/abs/2311.13538v2
- Date: Wed, 10 Jan 2024 14:16:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-11 16:53:47.499485
- Title: Speak Like a Native: Prompting Large Language Models in a Native Style
- Title(参考訳): Speak Like a Native: 大規模言語モデルをネイティブスタイルで提案する
- Authors: Zhicheng Yang, Yiwei Wang, Yinya Huang, Jing Xiong, Xiaodan Liang,
Jing Tang
- Abstract要約: In-context Learning (ICL) with large language model (LLMs) は、多くの自然言語処理タスクにおいて近代的なツールとなっている。
本稿では, LLMの推論能力を向上させるために, textbfAlignedCoT という新しい効果的手法を提案する。
数学的質問答え、常識的推論、テキスト理解に関するいくつかのベンチマークにおいて、広範囲かつ包括的な実験を行う。
- 参考スコア(独自算出の注目度): 53.84738665918496
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In-context learning (ICL) with large language models (LLMs) has become the
modern tools of choice for many natural language processing tasks. However, how
the text style of in-context examples influences the performance of LLMs still
remains under-explored. This paper presents a novel and effective approach,
named \textbf{AlignedCoT}, to improve the reasoning capability of LLMs by
aligning the in-context examples with the native style of LLMs.''Native''
refers to the inherent characteristic of LLMs which can be probed by zero-shot
scenarios.AlignedCoT is widely applicable to ICL methods, making it easy to
combine with state-of-the-art techniques to further improve the LLMs'
performance. We conduct extensive and comprehensive experiments on several
benchmarks on mathematical question-answering, common-sense reasoning, and text
understanding. The empirical results demonstrate that our AlignedCoT
significantly improves performance over the carefully handcrafted
demonstrations. Specifically, with AlignedCoT, we observe an average +3.2\%
improvement for \texttt{gpt-3.5-turbo} compared to the carefully handcrafted
CoT on multi-step reasoning benchmarks.Furthermore, we use AlignedCoT to
rewrite the CoT text style in the training set, which improves the performance
of Retrieval Augmented Generation by 3.6\%.The source code and dataset is
available at https://github.com/yangzhch6/AlignedCoT
- Abstract(参考訳): In-context Learning (ICL) with large language model (LLMs) は、多くの自然言語処理タスクにおいて近代的なツールとなっている。
しかし,テキスト形式がLLMの性能にどのように影響するかはいまだ解明されていない。
本稿では, LLMのネイティブスタイルとコンテキスト内例を整合させることにより, LLMの推論能力を向上させるために, 新規で効果的なアプローチである \textbf{AlignedCoT} を提案する。
ゼロショットシナリオで探索できるLCMの固有の特性を「Native」と呼ぶが、AlignedCoTはICL法に広く適用されており、最先端技術と組み合わせてLLMの性能をより向上させることができる。
数学的質問答え、常識推論、テキスト理解に関するいくつかのベンチマークにおいて、広範囲かつ包括的な実験を行う。
実験の結果,アライメントコットは手作りのデモよりも性能が著しく向上した。
具体的には、AlignedCoTでは、マルチステップ推論ベンチマークで慎重に手作りされたCoTと比較して平均+3.2\%の改善が見られ、さらに、AlignedCoTを使用してトレーニングセットのCoTテキストスタイルを書き換えることで、Retrieval Augmented Generationのパフォーマンスが3.6\%向上する。
ソースコードとデータセットはhttps://github.com/yangzhch6/alignedcotで入手できる。
関連論文リスト
- LLMs' Understanding of Natural Language Revealed [0.0]
大規模言語モデル(LLM)は、大規模言語におけるボトムアップ、データ駆動のリバースエンジニアリングにおける大規模な実験の結果である。
私たちはLLMの言語理解能力、彼らが想定する砦をテストすることに重点を置きます。
論文 参考訳(メタデータ) (2024-07-29T01:21:11Z) - Detecting Hallucinations in Large Language Model Generation: A Token Probability Approach [0.0]
LLM(Large Language Models)は、幻覚と呼ばれる不正確な出力を生成する。
本稿では,トークンから得られる4つの数値的特徴と,他の評価者から得られる語彙的確率を用いた教師付き学習手法を提案する。
この方法は有望な結果をもたらし、3つの異なるベンチマークで複数のタスクで最先端の結果を上回る。
論文 参考訳(メタデータ) (2024-05-30T03:00:47Z) - "Sorry, Come Again?" Prompting -- Enhancing Comprehension and Diminishing Hallucination with [PAUSE]-injected Optimal Paraphrasing [10.20632187568563]
幻覚は現代大言語モデル(LLM)の最も脆弱な側面として現れてきた。
本稿では,LCMの幻覚を避けることを目的としたSCAプロンプトについて紹介する。
本稿では,21のLLMに対するプロンプトの形式性,可読性,具体性について,言語的ニュアンスを詳細に分析する。
与えられたプロンプトの最も理解しやすいパラフレーズを識別する最適なパラフレーズ化手法を提案する。
論文 参考訳(メタデータ) (2024-03-27T19:45:09Z) - When LLMs Meet Cunning Texts: A Fallacy Understanding Benchmark for Large Language Models [59.84769254832941]
本稿では,人間が理解し易いが,理解し難い文を含むFaLlacy Understanding Benchmark (FLUB)を提案する。
具体的には、FLUBが焦点を絞ったcunningテキストは、主に、実際のインターネット環境から収集されたトリッキーでユーモラスで誤解を招くテキストで構成されている。
FLUBに基づいて,複数の代表および先進LLMの性能について検討する。
論文 参考訳(メタデータ) (2024-02-16T22:12:53Z) - Large Language Models: A Survey [69.72787936480394]
大規模言語モデル(LLM)は、広範囲の自然言語タスクにおける強力なパフォーマンスのために、多くの注目を集めている。
LLMの汎用言語理解と生成能力は、膨大なテキストデータに基づいて数十億のモデルのパラメータを訓練することで得られる。
論文 参考訳(メタデータ) (2024-02-09T05:37:09Z) - Boosting Large Language Model for Speech Synthesis: An Empirical Study [86.89548753080432]
大規模言語モデル(LLM)は自然言語処理において大きな進歩を遂げており、言語能力は音声や視覚など他のモダリティにも拡張されている。
我々は,事前学習したLLM LLaMA/OPTと音声合成モデルVALL-Eを組み合わせることで,LLMの強化と音声生成能力の総合的な実証調査を行う。
テキストエンコーダとしてLLMとVALL-Eを組み合わせることで,LLMとVALL-Eの3つの統合手法を比較した。
論文 参考訳(メタデータ) (2023-12-30T14:20:04Z) - A Survey on Prompting Techniques in LLMs [0.0]
自己回帰型大規模言語モデルは自然言語処理のランドスケープに変化をもたらした。
本研究は,既存の文献の分類手法について紹介し,この分類法に基づく簡潔な調査を行う。
我々は、将来の研究の方向性として役立つ自己回帰型LSMの推進という領域において、いくつかの未解決の問題を特定した。
論文 参考訳(メタデータ) (2023-11-28T17:56:34Z) - Are Large Language Models Really Robust to Word-Level Perturbations? [68.60618778027694]
本稿では,事前学習した報酬モデルを診断ツールとして活用する,新たな合理的評価手法を提案する。
より長い会話は、質問を理解する能力の観点から言語モデルの包括的把握を示す。
この結果から,LLMは日常言語でよく使われる単語レベルの摂動に対する脆弱性をしばしば示している。
論文 参考訳(メタデータ) (2023-09-20T09:23:46Z) - Can Large Language Models Transform Computational Social Science? [79.62471267510963]
大規模言語モデル(LLM)は、(トレーニングデータなしで)ゼロショットで多くの言語処理タスクを実行することができる
この研究は、計算社会科学ツールとしてLLMを使用するためのロードマップを提供する。
論文 参考訳(メタデータ) (2023-04-12T17:33:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。