論文の概要: Bears, all bears, and some bears. Language Constraints on Language Models' Inductive Inferences
- arxiv url: http://arxiv.org/abs/2601.09852v1
- Date: Wed, 14 Jan 2026 20:16:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:18.88815
- Title: Bears, all bears, and some bears. Language Constraints on Language Models' Inductive Inferences
- Title(参考訳): 言語モデルによる帰納的推論に関する言語制約
- Authors: Sriram Padmanabhan, Siyuan Song, Kanishka Misra,
- Abstract要約: 発達的証拠は、子供(4歳以上)が一般的な言明("Bears are daxable")、普遍的に定量化されたNP("All bears are daxable")、そして無限に複数のNP("some bears are daxable")を区別することを示している。
これらの微妙な違いが、視覚言語モデルのような汎用的な統計的学習者において、元の実験を複製することによって生じるかどうかを検証する。
一連のプレコンディショニングテスト(画像内のカテゴリの不正な識別と、それに続く感性)を経て、最初の実験で、モデルと人間の行動アライメントが見つかった。
- 参考スコア(独自算出の注目度): 7.263164490018489
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Language places subtle constraints on how we make inductive inferences. Developmental evidence by Gelman et al. (2002) has shown children (4 years and older) to differentiate among generic statements ("Bears are daxable"), universally quantified NPs ("all bears are daxable") and indefinite plural NPs ("some bears are daxable") in extending novel properties to a specific member (all > generics > some), suggesting that they represent these types of propositions differently. We test if these subtle differences arise in general purpose statistical learners like Vision Language Models, by replicating the original experiment. On tasking them through a series of precondition tests (robust identification of categories in images and sensitivities to all and some), followed by the original experiment, we find behavioral alignment between models and humans. Post-hoc analyses on their representations revealed that these differences are organized based on inductive constraints and not surface-form differences.
- Abstract(参考訳): 言語は帰納的推論の方法に微妙な制約を課します。
Gelman et al (2002) による発達的エビデンスでは、子供たち(4歳以上)が、特定のメンバー(すべての>ジェネリックス>)に新規な性質を拡張する際に、一般的なステートメント("Bears are daxable")、普遍的に定量化されたNP("all bears are daxable")、および不定の複数のNP("some bears are daxable")を区別することを示しており、それらがこれらの命題のタイプが異なることを示唆している。
これらの微妙な違いが、視覚言語モデルのような汎用的な統計的学習者において、元の実験を複製することによって生じるかどうかを検証する。
一連のプレコンディショニングテスト(画像内のカテゴリの不正な識別と、それに続く感性)を経て、最初の実験で、モデルと人間の行動アライメントが見つかった。
ポストホック解析により,これらの差異は表面形状の違いではなく誘導的制約に基づいて組織化されていることが明らかとなった。
関連論文リスト
- The in-context inductive biases of vision-language models differ across modalities [15.501577963067856]
一般化は、刺激が提示されるモダリティと、刺激がテキストで記述される方法によってどのように変化するかを調べる。
モデルは通常、色よりも形状に応じて一般化する傾向を示す。
これらの結果は、視覚言語モデルがコンテキスト内の異なるタイプの入力をどのように表現するかを明らかにするのに役立つ。
論文 参考訳(メタデータ) (2025-02-03T17:11:03Z) - PROPRES: Investigating the Projectivity of Presupposition with Various
Triggers and Environments [13.896697187967547]
我々は新しいデータセット、PROPRES(PROPRES)を導入する。
人間の評価は、ある場合において、人間が様々な射影性を示すことを示している。
本研究は, 実用的推論の探索研究は, 人間の判断の多様性を余分に考慮する必要があることを示唆している。
論文 参考訳(メタデータ) (2023-12-14T09:07:57Z) - Simple Linguistic Inferences of Large Language Models (LLMs): Blind Spots and Blinds [59.71218039095155]
我々は,ほとんどの人間が自明に感じる単純な推論タスクにおいて,言語理解能力を評価する。
我々は, (i) 文法的に特定された含意, (ii) 不確実性のある明らかな副詞を持つ前提, (iii) 単調性含意を目標とする。
モデルはこれらの評価セットに対して中程度から低い性能を示す。
論文 参考訳(メタデータ) (2023-05-24T06:41:09Z) - Naturalistic Causal Probing for Morpho-Syntax [76.83735391276547]
スペインにおける実世界のデータに対する入力レベルの介入に対する自然主義的戦略を提案する。
提案手法を用いて,共同設立者から文章中の形態・症状の特徴を抽出する。
本研究では,事前学習したモデルから抽出した文脈化表現に対する性別と数字の因果効果を解析するために,本手法を適用した。
論文 参考訳(メタデータ) (2022-05-14T11:47:58Z) - Interpreting Language Models with Contrastive Explanations [99.7035899290924]
言語モデルは、音声、数字、時制、意味論など、トークンを予測するための様々な特徴を考慮しなければならない。
既存の説明手法は、これらの特徴の証拠を1つの説明に分割するが、人間の理解には理解できない。
比較的な説明は、主要な文法現象の検証において、非対照的な説明よりも定量的に優れていることを示す。
論文 参考訳(メタデータ) (2022-02-21T18:32:24Z) - A Latent-Variable Model for Intrinsic Probing [93.62808331764072]
固有プローブ構築のための新しい潜在変数定式化を提案する。
我々は、事前訓練された表現が言語間交互に絡み合ったモルフォシンタクスの概念を発達させる経験的証拠を見出した。
論文 参考訳(メタデータ) (2022-01-20T15:01:12Z) - ABNIRML: Analyzing the Behavior of Neural IR Models [45.74073795558624]
BERTやT5のような事前訓練された言語モデルは、アドホック検索のための新しい最先端技術を確立した。
ニューラルIRモードL(ABNIRML)の挙動解析のための包括的枠組みを提案する。
我々は、ニューラルネットワークの利得に寄与する要因についての洞察を得るための実証的研究を行う。
論文 参考訳(メタデータ) (2020-11-02T03:07:38Z) - A Matter of Framing: The Impact of Linguistic Formalism on Probing
Results [69.36678873492373]
BERT (Delvin et al.) のような事前訓練されたコンテキスト化エンコーダは、下流タスクで顕著なパフォーマンスを示す。
調査における最近の研究は、事前学習中にこれらのモデルによって暗黙的に学習された言語知識について調査している。
形式主義の選択は調査結果に影響を及ぼすか?
BERTによる意味的役割情報とプロトロール情報のエンコーディングにおける言語学的意義の相違は,形式主義に依存している。
論文 参考訳(メタデータ) (2020-04-30T17:45:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。