論文の概要: Pragmatic inference of scalar implicature by LLMs
- arxiv url: http://arxiv.org/abs/2408.06673v1
- Date: Tue, 13 Aug 2024 06:52:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-14 18:26:42.295598
- Title: Pragmatic inference of scalar implicature by LLMs
- Title(参考訳): LLMによるスカラー不適応の実用的推論
- Authors: Ye-eun Cho, Seong mook Kim,
- Abstract要約: 本研究では,Large Language Models (LLM) が不適応の実用的推論にどのように関与するかを検討する。
BERTは本質的に実用的不適応を一部という用語に含めず、デフォルトモデルに固執している。
GPT-2は、コンテキスト駆動モデルと整合して、コンテキスト内で実用的不適応を推論する処理困難に直面しているようだ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study investigates how Large Language Models (LLMs), particularly BERT (Devlin et al., 2019) and GPT-2 (Radford et al., 2019), engage in pragmatic inference of scalar implicature, such as some. Two sets of experiments were conducted using cosine similarity and next sentence/token prediction as experimental methods. The results in experiment 1 showed that, both models interpret some as pragmatic implicature not all in the absence of context, aligning with human language processing. In experiment 2, in which Question Under Discussion (QUD) was presented as a contextual cue, BERT showed consistent performance regardless of types of QUDs, while GPT-2 encountered processing difficulties since a certain type of QUD required pragmatic inference for implicature. The findings revealed that, in terms of theoretical approaches, BERT inherently incorporates pragmatic implicature not all within the term some, adhering to Default model (Levinson, 2000). In contrast, GPT-2 seems to encounter processing difficulties in inferring pragmatic implicature within context, consistent with Context-driven model (Sperber and Wilson, 2002).
- Abstract(参考訳): 本研究では,Large Language Models(LLMs),特にBERT(Devlin et al , 2019)とGPT-2(Radford et al , 2019)が,スカラー不適応の実用的な推論にどのように関わっているかを検討する。
実験手法として,コサイン類似性と次の文/単語予測を用いた2種類の実験を行った。
実験1では, 両モデルとも, 文脈の欠如がすべてではなく, 人間の言語処理と整合していると解釈した。
実験2では,QUDが文脈的キューとして提示された場合,BERTはQUDの種類に関わらず一貫した性能を示し,GPT-2はある種のQUDが不適応に実用的推論を必要とするため処理困難に遭遇した。
この結果から、BERT は理論的アプローチの観点で、本質的には「一部」という用語の中では実用的不適応を含まないことが判明した(Levinson, 2000)。
対照的に、GPT-2はコンテキスト駆動モデル(Sperber and Wilson, 2002)と整合して、文脈内で実用的不規則を推論する処理困難に直面しているようである。
関連論文リスト
- Explaining Text Similarity in Transformer Models [52.571158418102584]
説明可能なAIの最近の進歩により、トランスフォーマーの説明の改善を活用することで、制限を緩和できるようになった。
両線形類似性モデルにおける2次説明の計算のために開発された拡張であるBiLRPを用いて、NLPモデルにおいてどの特徴相互作用が類似性を促進するかを調べる。
我々の発見は、異なる意味的類似性タスクやモデルに対するより深い理解に寄与し、新しい説明可能なAIメソッドが、どのようにして深い分析とコーパスレベルの洞察を可能にするかを強調した。
論文 参考訳(メタデータ) (2024-05-10T17:11:31Z) - Understanding In-Context Learning with a Pelican Soup Framework [27.144616560712493]
本稿では,自然言語処理における文脈内学習の理論的枠組みを提案する。
本研究は,文脈内学習におけるフレームワークの有効性を実証するものである。
論文 参考訳(メタデータ) (2024-02-16T03:20:14Z) - DiPlomat: A Dialogue Dataset for Situated Pragmatic Reasoning [89.92601337474954]
プラグマティック推論は、実生活における会話でしばしば起こる暗黙の意味を解読する上で重要な役割を担っている。
そこで我々は,現実的な推論と会話理解の場所に関するマシンの能力のベンチマークを目的とした,新しい挑戦であるDiPlomatを紹介した。
論文 参考訳(メタデータ) (2023-06-15T10:41:23Z) - Prototyping Theories with ChatGPT: Experiment with the Technology
Acceptance Model [0.0]
この研究の目的は、ChatGPTが理論的概念を理解し、構成物を区別する能力を評価することである。
実験の結果,ChatGPTはアクセプタンス・テクノロジー・モデル(TAM)の構成に整合した応答を生成できることが示唆された。
実験では、生成したサンプルの潜在的なバイアス、特に性別や使用経験について明らかにした。
論文 参考訳(メタデータ) (2023-06-04T23:55:53Z) - How Does In-Context Learning Help Prompt Tuning? [55.78535874154915]
微調整された大きな言語モデルは、急速に拡大するスケールのために、ますます実用的ではないものになりつつある。
これはプロンプトチューニング(PT)のようなパラメータ効率のよい適応手法の使用を動機付け、凍ったモデルに少数のチューナブルな埋め込みを追加する。
近年,Singhalら (2022) はPTとICLを組み合わせた命令プロンプトチューニング (IPT) を提案している。
論文 参考訳(メタデータ) (2023-02-22T17:45:12Z) - Assessing the Capacity of Transformer to Abstract Syntactic
Representations: A Contrastive Analysis Based on Long-distance Agreement [4.995343972237368]
長距離契約は、ニューラルネットワークモデルの構文的一般化を評価するために、ますます使われている。
多くの研究から、トランスフォーマーは様々な合意タスクにおいて高い精度で実行可能であることが示されている。
この研究は、2つの超現実的に類似しているが理論的に異なる一致現象を扱う方法とは対照的である。
論文 参考訳(メタデータ) (2022-12-08T19:10:46Z) - Did the Cat Drink the Coffee? Challenging Transformers with Generalized
Event Knowledge [59.22170796793179]
Transformers Language Models (TLMs) を数学的適合のテクトダイナミックな評価のためのベンチマークで検証した。
以上の結果から, TLM は SDM に匹敵する性能が得られることが示された。
しかし、さらなる分析は、TLMがイベント知識の重要な側面を捉えていないことを一貫して示唆している。
論文 参考訳(メタデータ) (2021-07-22T20:52:26Z) - Infusing Finetuning with Semantic Dependencies [62.37697048781823]
シンタックスとは異なり、セマンティクスは今日の事前訓練モデルによって表面化されないことを示す。
次に、畳み込みグラフエンコーダを使用して、タスク固有の微調整にセマンティック解析を明示的に組み込む。
論文 参考訳(メタデータ) (2020-12-10T01:27:24Z) - A Matter of Framing: The Impact of Linguistic Formalism on Probing
Results [69.36678873492373]
BERT (Delvin et al.) のような事前訓練されたコンテキスト化エンコーダは、下流タスクで顕著なパフォーマンスを示す。
調査における最近の研究は、事前学習中にこれらのモデルによって暗黙的に学習された言語知識について調査している。
形式主義の選択は調査結果に影響を及ぼすか?
BERTによる意味的役割情報とプロトロール情報のエンコーディングにおける言語学的意義の相違は,形式主義に依存している。
論文 参考訳(メタデータ) (2020-04-30T17:45:16Z) - Are Natural Language Inference Models IMPPRESsive? Learning IMPlicature
and PRESupposition [17.642255516887968]
自然言語推論(NLI)は、自然言語理解にとってますます重要なタスクである。
NLIモデルが実用的推論を行う能力はまだ検討されていない。
BERT, InferSent, BOW NLIモデルがMultiNLIで訓練された場合, 実用的推論を学習するかを評価する。
論文 参考訳(メタデータ) (2020-04-07T01:20:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。