論文の概要: Implicit causality in GPT-2: a case study
- arxiv url: http://arxiv.org/abs/2212.04348v1
- Date: Thu, 8 Dec 2022 15:42:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 14:40:12.839764
- Title: Implicit causality in GPT-2: a case study
- Title(参考訳): gpt-2の暗黙的因果関係 : 症例研究
- Authors: Hien Huynh and Tomas O. Lentz and Emiel van Miltenburg
- Abstract要約: 本稿では,言語モデル(GPT-2)が文完成作業における暗黙の因果関係に関する母語話者の直感を捉えることができる範囲について検討する。
まず、先行結果(主語または目的語のいずれかと一致した代名詞の低次値を示す)を再現し、その上で、モデル性能に対する性別と動詞の頻度の影響について検討する。
また,モデルが生み出す強迫観念や反響に偏らされるのを避ける手法も開発した。
- 参考スコア(独自算出の注目度): 2.6195600317605394
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This case study investigates the extent to which a language model (GPT-2) is
able to capture native speakers' intuitions about implicit causality in a
sentence completion task. We first reproduce earlier results (showing lower
surprisal values for pronouns that are congruent with either the subject or
object, depending on which one corresponds to the implicit causality bias of
the verb), and then examine the effects of gender and verb frequency on model
performance. Our second study examines the reasoning ability of GPT-2: is the
model able to produce more sensible motivations for why the subject VERBed the
object if the verbs have stronger causality biases? We also developed a
methodology to avoid human raters being biased by obscenities and disfluencies
generated by the model.
- Abstract(参考訳): 本稿では,言語モデル(GPT-2)が文完成作業における暗黙の因果関係に関する母語話者の直感を捉えることができる範囲について検討する。
まず、先行結果(動詞の暗黙的因果バイアスに対応する主語または目的語のいずれかと一致した代名詞の低次値を示す)を再現し、その上で、性および動詞の頻度がモデル性能に与える影響について検討する。
第2報では, GPT-2の推論能力について検討し, 動詞の因果バイアスが強い場合, 被験者が対象を超過した理由について, より合理的なモチベーションを導出できるか?
また,モデルが生み出す不連続や不連続により,人手がバイアスを受けるのを避ける手法を開発した。
関連論文リスト
- Causal Micro-Narratives [62.47217054314046]
テキストから因果マイクロナラティブを分類する新しい手法を提案する。
これらの物語は、対象対象の因果関係と/または効果の文レベルの説明である。
論文 参考訳(メタデータ) (2024-10-07T17:55:10Z) - How often are errors in natural language reasoning due to paraphrastic variability? [29.079188032623605]
本稿では,自然言語推論モデルのパラフラスティック一貫性を評価するための指標を提案する。
我々は、この計量をパラフレーズ化に起因するモデルの正しさの分散の比率に数学的に結合する。
そこで我々は,7,782人の人間による記述・検証された推論問題のデータセットであるParaNLUを収集した。
論文 参考訳(メタデータ) (2024-04-17T20:11:32Z) - Estimating the Causal Effects of Natural Logic Features in Transformer-Based NLI Models [16.328341121232484]
文脈介入の効果を測定するために因果効果推定手法を適用した。
本研究はトランスフォーマーの無関係な変化に対する堅牢性と影響の高い変化に対する感受性について検討する。
論文 参考訳(メタデータ) (2024-04-03T10:22:35Z) - CausalGym: Benchmarking causal interpretability methods on linguistic
tasks [52.61917615039112]
CausalGymを使って、モデル動作に因果的に影響を及ぼす解釈可能性手法のベンチマークを行う。
ピチアモデル (14M--6.9B) について検討し, 幅広い解釈可能性手法の因果効果について検討した。
DASは他の手法よりも優れており、2つの困難な言語現象の学習軌跡の研究に利用している。
論文 参考訳(メタデータ) (2024-02-19T21:35:56Z) - UNcommonsense Reasoning: Abductive Reasoning about Uncommon Situations [62.71847873326847]
異常、予期せぬ、そしてありそうもない状況をモデル化する能力について検討する。
予期せぬ結果のコンテキストが与えられた場合、このタスクは説明を生成するために故意に推論する必要がある。
私たちはUNcommonsenseという新しい英語コーパスをリリースします。
論文 参考訳(メタデータ) (2023-11-14T19:00:55Z) - Loose lips sink ships: Mitigating Length Bias in Reinforcement Learning
from Human Feedback [55.78118035358662]
人間のフィードバックからの強化学習は、大きな言語モデルと人間と社会的価値を整合させる重要な橋として機能する。
報酬モデルが意図した目的を回避できるショートカットを見つけることがよくあります。
本稿では、報酬モデリングとシーケンス長の影響を分離するために、Product-of-Experts技術を適用した革新的なソリューションを提案する。
論文 参考訳(メタデータ) (2023-10-08T15:14:39Z) - Unveiling Cross Modality Bias in Visual Question Answering: A Causal
View with Possible Worlds VQA [111.41719652451701]
まず、言語と視覚のバイアスを同時に引き起こす相反する効果をモデル化する。
次に、この効果の影響を除去するための反実的推論を提案する。
提案手法は,VQA-CP v2データセットの最先端手法よりも優れている。
論文 参考訳(メタデータ) (2023-05-31T09:02:58Z) - Naturalistic Causal Probing for Morpho-Syntax [76.83735391276547]
スペインにおける実世界のデータに対する入力レベルの介入に対する自然主義的戦略を提案する。
提案手法を用いて,共同設立者から文章中の形態・症状の特徴を抽出する。
本研究では,事前学習したモデルから抽出した文脈化表現に対する性別と数字の因果効果を解析するために,本手法を適用した。
論文 参考訳(メタデータ) (2022-05-14T11:47:58Z) - Interactive Model with Structural Loss for Language-based Abductive
Reasoning [36.02450824915494]
帰納的自然言語推論タスク(alpha$NLI)は、原因と事象の間の最も明確な説明を推測するために提案される。
我々はこの新モデルを$alpha$NLI: Interactive Model with Structure Loss (IMSL) と命名する。
IMSL は RoBERTa-large Pretrained model で最高性能を達成し,ACC と AUC はそれぞれ約1%,AUC は5% 向上した。
論文 参考訳(メタデータ) (2021-12-01T05:21:07Z) - CausaLM: Causal Model Explanation Through Counterfactual Language Models [33.29636213961804]
CausaLMは、対実言語表現モデルを用いた因果モデル説明を作成するためのフレームワークである。
本稿では,BERT のような言語表現モデルが,ある意味ある概念に対する対実表現を効果的に学習できることを示す。
本手法の副産物は,テストされた概念の影響を受けない言語表現モデルである。
論文 参考訳(メタデータ) (2020-05-27T15:06:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。