論文の概要: Interpretive Blindness
- arxiv url: http://arxiv.org/abs/2111.00867v1
- Date: Tue, 19 Oct 2021 13:25:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-07 13:53:17.034122
- Title: Interpretive Blindness
- Title(参考訳): 解釈的盲目
- Authors: Nicholas Asher and Julie Hunter
- Abstract要約: 我々は,背景信念とベイズ的文脈における解釈と,現代的証言の性質の共存から,ICBが従うことを示す。
我々は、特定の特徴ある現代的証言、テクスト的完全性は、階層的ベイズ的セッティングにおける学習を妨げると論じている。
- 参考スコア(独自算出の注目度): 2.0813318162800707
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We model here an epistemic bias we call \textit{interpretive blindness} (IB).
IB is a special problem for learning from testimony, in which one acquires
information only from text or conversation. We show that IB follows from a
co-dependence between background beliefs and interpretation in a Bayesian
setting and the nature of contemporary testimony. We argue that a particular
characteristic contemporary testimony, \textit{argumentative completeness}, can
preclude learning in hierarchical Bayesian settings, even in the presence of
constraints that are designed to promote good epistemic practices.
- Abstract(参考訳): ここでは「textit{interpretive blindness} (IB)」と呼ばれるてんかんバイアスをモデル化する。
IBは証言から学ぶための特別な問題であり、テキストや会話からのみ情報を取得する。
我々は,背景信念とベイズ的文脈における解釈と現代的証言の性質の共存から,IBが従うことを示す。
優れた疫学的実践を促進するために設計された制約が存在する場合でも,特定の特徴的現代的証言である「textit{argumentative completeness}」は階層的ベイズ的環境下での学習を妨げうると論じる。
関連論文リスト
- ChatGPT and Simple Linguistic Inferences: Blind Spots and Blinds [51.220650412095665]
本稿では,人間にとって容易な単純な推論タスクに焦点をあてる。
我々は, (i) 文法的に特定された含意, (ii) 不確実性のある明らかな副詞を持つ前提, (iii) 単調性含意を目標とする。
以上の結果から,モデルがこのような推論に苦慮し,中程度の精度で精度が低いことが示唆された。
論文 参考訳(メタデータ) (2023-05-24T06:41:09Z) - Natural Language Decompositions of Implicit Content Enable Better Text
Representations [56.85319224208865]
本稿では,暗黙的に伝達されたコンテンツを明示的に考慮したテキスト分析手法を提案する。
我々は大きな言語モデルを用いて、観察されたテキストと推論的に関係する命題の集合を生成する。
本研究は,NLPにおいて,文字のみではなく,観察された言語の背景にある意味をモデル化することが重要であることを示唆する。
論文 参考訳(メタデータ) (2023-05-23T23:45:20Z) - Bayesian Prompt Learning for Image-Language Model Generalization [64.50204877434878]
我々はベイズ法の正規化能力を用いて、変分推論問題としてプロンプト学習をフレーム化する。
提案手法は,プロンプト空間を正規化し,目に見えないプロンプトへの過剰適合を低減し,目に見えないプロンプトのプロンプト一般化を改善する。
ベイジアン・プロンプト学習がプロンプト空間の適切なカバレッジを提供する15のベンチマークを実証的に示す。
論文 参考訳(メタデータ) (2022-10-05T17:05:56Z) - Improving Contextual Representation with Gloss Regularized Pre-training [9.589252392388758]
本稿では,単語の意味的類似性を高めるため,BERT事前学習(GR-BERT)に補助的なグロース正規化モジュールを提案する。
マスクされた単語を予測し、コンテキスト埋め込みを対応するグルースに同時にアライメントすることにより、単語の類似性を明示的にモデル化することができる。
実験結果から,単語レベルおよび文レベルの意味表現において,Gloss regularizerはBERTの恩恵を受けることがわかった。
論文 参考訳(メタデータ) (2022-05-13T12:50:32Z) - Does BERT really agree ? Fine-grained Analysis of Lexical Dependence on
a Syntactic Task [70.29624135819884]
目的の構文テンプレート上で,BERTが語彙非依存の主観値数アグリーメント(NA)を実行できる範囲について検討した。
名詞文では,単純なテンプレートに対してモデルがよく一般化されるが,1つのアトラクターが存在する場合,語彙非依存の構文一般化を行うことができないことが示唆された。
論文 参考訳(メタデータ) (2022-04-14T11:33:15Z) - Probing as Quantifying the Inductive Bias of Pre-trained Representations [99.93552997506438]
本稿では,特定のタスクに対する表現の帰納的バイアスを評価することを目的とした,探索のための新しいフレームワークを提案する。
トークン、アーク、文レベルの一連のタスクに我々のフレームワークを適用します。
論文 参考訳(メタデータ) (2021-10-15T22:01:16Z) - NOPE: A Corpus of Naturally-Occurring Presuppositions in English [33.69537711677911]
英語におけるNaturally-Occurring Presuppositions(NOPE)を紹介する。
本研究は,10種類のプレポーズトリガーの文脈感度について検討した。
我々は、人間の推論を予測する機械学習モデルの能力を評価する。
論文 参考訳(メタデータ) (2021-09-14T22:03:23Z) - Probabilistic modelling of rational communication with conditionals [0.0]
条件に関する実用的推論には確率論的アプローチを採用する。
本モデルは,文献で検証された推論を一様に説明できることを示す。
論文 参考訳(メタデータ) (2021-05-12T08:21:25Z) - An Interpretability Illusion for BERT [61.2687465308121]
BERTモデル解析時に生じる「解釈性イリュージョン」について述べる。
このイリュージョンの源をBERTの埋め込み空間の幾何学的性質にトレースする。
モデル学習概念の分類法を提供し,解釈可能性研究の方法論的意義について論じる。
論文 参考訳(メタデータ) (2021-04-14T22:04:48Z) - Case-Based Abductive Natural Language Inference [4.726777092009554]
事例ベース帰納的自然言語推論(CB-ANLI)
事例ベース帰納的自然言語推論(CB-ANLI)
論文 参考訳(メタデータ) (2020-09-30T09:50:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。