論文の概要: A fine-grained comparison of pragmatic language understanding in humans
and language models
- arxiv url: http://arxiv.org/abs/2212.06801v2
- Date: Tue, 23 May 2023 18:35:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 02:42:11.512477
- Title: A fine-grained comparison of pragmatic language understanding in humans
and language models
- Title(参考訳): 人間と言語モデルにおける実用的言語理解の細部的比較
- Authors: Jennifer Hu, Sammy Floyd, Olessia Jouravlev, Evelina Fedorenko, Edward
Gibson
- Abstract要約: 言語モデルと人間を7つの現実的な現象で比較する。
最大のモデルでは精度が高く,人間の誤りパターンと一致していることがわかった。
モデルと人間が同様の言語的手がかりに敏感であるという予備的な証拠がある。
- 参考スコア(独自算出の注目度): 2.231167375820083
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pragmatics and non-literal language understanding are essential to human
communication, and present a long-standing challenge for artificial language
models. We perform a fine-grained comparison of language models and humans on
seven pragmatic phenomena, using zero-shot prompting on an expert-curated set
of English materials. We ask whether models (1) select pragmatic
interpretations of speaker utterances, (2) make similar error patterns as
humans, and (3) use similar linguistic cues as humans to solve the tasks. We
find that the largest models achieve high accuracy and match human error
patterns: within incorrect responses, models favor literal interpretations over
heuristic-based distractors. We also find preliminary evidence that models and
humans are sensitive to similar linguistic cues. Our results suggest that
pragmatic behaviors can emerge in models without explicitly constructed
representations of mental states. However, models tend to struggle with
phenomena relying on social expectation violations.
- Abstract(参考訳): プラグマティクスと非リテラル言語理解は、人間のコミュニケーションに不可欠であり、人工言語モデルに対する長年の挑戦を示す。
英語の資料をゼロショットプロンプトして,7つの実用的現象について言語モデルと人間を詳細に比較した。
モデルが話者発話の実用的解釈を選択し、(2)人間と同様の誤りパターンを作り、(3)人間と同様の言語的手がかりを用いて課題を解決するかを問う。
最大のモデルは高い精度を達成し,人間の誤りパターンと一致していることが判明した。
また、モデルと人間は類似した言語的手がかりに敏感であるという予備的な証拠も発見する。
この結果から,心的状態の表現を明示的に構築することなく,現実的な行動がモデルに現れる可能性が示唆された。
しかし、モデルは社会的期待違反に依存する現象に苦しむ傾向がある。
関連論文リスト
- A Psycholinguistic Evaluation of Language Models' Sensitivity to Argument Roles [0.06554326244334868]
我々は,人間の議論的役割処理に関する心理言語学的研究を再現することにより,大規模言語モデルの議論的役割に対する感受性を評価する。
言語モデルでは,動詞とその先行する引数の関係から,可否が決定されるような,可否的かつ不可解な文脈で現れる動詞を識別することができる。
このことは、言語モデルが動詞の可読性を検出する能力は、人間のリアルタイム文処理の基盤となるメカニズムから生じるものではないことを示唆している。
論文 参考訳(メタデータ) (2024-10-21T16:05:58Z) - Perceptions of Linguistic Uncertainty by Language Models and Humans [26.69714008538173]
言語モデルが不確実性の言語表現を数値応答にどうマッピングするかを検討する。
10モデル中7モデルで不確実性表現を確率的応答に人間的な方法でマッピングできることが判明した。
この感度は、言語モデルは以前の知識に基づいてバイアスの影響を受けやすいことを示している。
論文 参考訳(メタデータ) (2024-07-22T17:26:12Z) - UNcommonsense Reasoning: Abductive Reasoning about Uncommon Situations [62.71847873326847]
異常、予期せぬ、そしてありそうもない状況をモデル化する能力について検討する。
予期せぬ結果のコンテキストが与えられた場合、このタスクは説明を生成するために故意に推論する必要がある。
私たちはUNcommonsenseという新しい英語コーパスをリリースします。
論文 参考訳(メタデータ) (2023-11-14T19:00:55Z) - Beyond the limitations of any imaginable mechanism: large language
models and psycholinguistics [0.0]
大規模な言語モデルは、言語のためのモデルを提供する。
実践的な道具として有用であり、言語と思考の関係を再放送する基盤として、イラストレーター比較や哲学として有用である。
論文 参考訳(メタデータ) (2023-02-28T20:49:38Z) - Chain of Hindsight Aligns Language Models with Feedback [62.68665658130472]
我々は,その極性に関係なく,任意の形式のフィードバックから学習し,最適化が容易な新しい手法であるChain of Hindsightを提案する。
我々は、あらゆる種類のフィードバックを文のシーケンスに変換し、それをモデルを微調整するために使用する。
そうすることで、モデルはフィードバックに基づいて出力を生成するように訓練され、負の属性やエラーを特定し修正する。
論文 参考訳(メタデータ) (2023-02-06T10:28:16Z) - Transparency Helps Reveal When Language Models Learn Meaning [71.96920839263457]
合成データを用いた体系的な実験により,すべての表現が文脈に依存しない意味を持つ言語では,自己回帰型とマスキング型の両方の言語モデルが,表現間の意味的関係をエミュレートする。
自然言語に目を向けると、特定の現象(参照不透明さ)による実験は、現在の言語モデルが自然言語の意味論をうまく表現していないという証拠を増大させる。
論文 参考訳(メタデータ) (2022-10-14T02:35:19Z) - Testing the Ability of Language Models to Interpret Figurative Language [69.59943454934799]
比喩的・比喩的な言語は言論において一般的である。
現代の言語モデルが非リテラルなフレーズをどの程度解釈できるかについては、未解決の疑問が残る。
ウィノグラードスタイルの非文字言語理解タスクであるFig-QAを紹介する。
論文 参考訳(メタデータ) (2022-04-26T23:42:22Z) - Interpreting Language Models with Contrastive Explanations [99.7035899290924]
言語モデルは、音声、数字、時制、意味論など、トークンを予測するための様々な特徴を考慮しなければならない。
既存の説明手法は、これらの特徴の証拠を1つの説明に分割するが、人間の理解には理解できない。
比較的な説明は、主要な文法現象の検証において、非対照的な説明よりも定量的に優れていることを示す。
論文 参考訳(メタデータ) (2022-02-21T18:32:24Z) - It's not Rocket Science : Interpreting Figurative Language in Narratives [48.84507467131819]
我々は2つの非構成的図形言語(イディオムとシミュラ)の解釈を研究する。
実験の結果、事前学習された言語モデルのみに基づくモデルは、これらのタスクにおいて人間よりもはるかにひどい性能を示すことがわかった。
また, 知識強化モデルを提案し, 具体的言語を解釈するための人的戦略を採用した。
論文 参考訳(メタデータ) (2021-08-31T21:46:35Z) - Uncovering Constraint-Based Behavior in Neural Models via Targeted
Fine-Tuning [9.391375268580806]
本研究は,言語知識が不明な言語内での競合する言語プロセスを示す。
人間の行動は言語間で類似していることがわかったが、モデル行動の言語間差異は見いだされている。
以上の結果から,言語における言語的制約と相対的ランクの双方をモデルが学習する必要があることが示唆された。
論文 参考訳(メタデータ) (2021-06-02T14:52:11Z) - The Sensitivity of Language Models and Humans to Winograd Schema
Perturbations [36.47219885590433]
大規模事前学習型言語モデルは,人間の理解に最小限に影響を及ぼす言語摂動に敏感であることを示す。
この結果は、人間と言語モデルとの興味深い違いを浮き彫りにしている。
論文 参考訳(メタデータ) (2020-05-04T09:44:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。