論文の概要: Modeling Event Plausibility with Consistent Conceptual Abstraction
- arxiv url: http://arxiv.org/abs/2104.10247v1
- Date: Tue, 20 Apr 2021 21:08:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-23 01:59:06.515348
- Title: Modeling Event Plausibility with Consistent Conceptual Abstraction
- Title(参考訳): 一貫性概念抽象化によるイベント可塑性のモデル化
- Authors: Ian Porada, Kaheer Suleman, Adam Trischler, and Jackie Chi Kit Cheung
- Abstract要約: トランスフォーマビリティモデルでは,語彙階層の概念クラス間で有意な一貫性が認められないことを示す。
本稿では,モデル一貫性を強制する簡単なポストホック法を提案する。
- 参考スコア(独自算出の注目度): 29.69958315418181
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding natural language requires common sense, one aspect of which is
the ability to discern the plausibility of events. While distributional models
-- most recently pre-trained, Transformer language models -- have demonstrated
improvements in modeling event plausibility, their performance still falls
short of humans'. In this work, we show that Transformer-based plausibility
models are markedly inconsistent across the conceptual classes of a lexical
hierarchy, inferring that "a person breathing" is plausible while "a dentist
breathing" is not, for example. We find this inconsistency persists even when
models are softly injected with lexical knowledge, and we present a simple
post-hoc method of forcing model consistency that improves correlation with
human plausibility judgements.
- Abstract(参考訳): 自然言語を理解するには常識が必要であるが、その1つの側面は出来事の妥当性を識別する能力である。
分散モデル — 最近ではトレーニング済みのTransformer言語モデル — は、イベントの可視性モデリングの改善を実証しているが、そのパフォーマンスは依然として人間に劣っている。
本研究は, トランスフォーマティブ・プルーサビリティモデルが語彙階層の概念クラス間で著しく矛盾していることを示し, 例えば「呼吸する人」は「呼吸する人」は「呼吸する歯医者」はそうではないと推測する。
我々は,モデルに語彙的知識をソフトに注入しても,この不整合が持続することを見いだし,モデルの一貫性を強制する簡単なポストホックな手法を提案する。
関連論文リスト
- How often are errors in natural language reasoning due to paraphrastic variability? [29.079188032623605]
本稿では,自然言語推論モデルのパラフラスティック一貫性を評価するための指標を提案する。
我々は、この計量をパラフレーズ化に起因するモデルの正しさの分散の比率に数学的に結合する。
そこで我々は,7,782人の人間による記述・検証された推論問題のデータセットであるParaNLUを収集した。
論文 参考訳(メタデータ) (2024-04-17T20:11:32Z) - Representation Surgery: Theory and Practice of Affine Steering [72.61363182652853]
言語モデルは、しばしば好ましくない振る舞いを示す。
モデルが望ましくない振る舞いを示すのを防ぐための自然な(そして一般的な)アプローチの1つは、モデルの表現を操ることである。
本稿では, ステアリング機能の形式的および経験的特性について検討する。
論文 参考訳(メタデータ) (2024-02-15T00:20:30Z) - UNcommonsense Reasoning: Abductive Reasoning about Uncommon Situations [62.71847873326847]
異常、予期せぬ、そしてありそうもない状況をモデル化する能力について検討する。
予期せぬ結果のコンテキストが与えられた場合、このタスクは説明を生成するために故意に推論する必要がある。
私たちはUNcommonsenseという新しい英語コーパスをリリースします。
論文 参考訳(メタデータ) (2023-11-14T19:00:55Z) - Longer Fixations, More Computation: Gaze-Guided Recurrent Neural
Networks [12.57650361978445]
人間はさまざまなペースでテキストを読み、機械学習モデルはそれぞれのトークンを同じように扱う。
本稿では,この直感を固定誘導並列RNNやレイヤを用いた新しいモデルに変換する。
興味深いことに、ニューラルネットワークによって予測される固定期間は、人間の固定と多少似ている。
論文 参考訳(メタデータ) (2023-10-31T21:32:11Z) - NaturalAdversaries: Can Naturalistic Adversaries Be as Effective as
Artificial Adversaries? [61.58261351116679]
自然言語理解タスクのための2段階の逆例生成フレームワーク(NaturalAdversaries)を提案する。
モデルパラメータへのアクセスレベルに基づいて、ブラックボックスとホワイトボックスの双方に適応可能である。
以上の結果から,これらの対立はドメイン全体にわたって一般化され,ニューラルネットワーク分類モデルの堅牢性向上に向けた今後の研究への洞察が得られた。
論文 参考訳(メタデータ) (2022-11-08T16:37:34Z) - Lexical Generalization Improves with Larger Models and Longer Training [42.024050065980845]
本稿では,自然言語推論,パラフレーズ検出,読解理解における語彙重なりの活用について分析する。
より大型のモデルでは、語彙的な重複を採用することへの感受性がはるかに低いことが分かりました。
論文 参考訳(メタデータ) (2022-10-23T09:20:11Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - BERT & Family Eat Word Salad: Experiments with Text Understanding [17.998891912502092]
自然言語の理解を主張するどんなモデルも混同すべき不整合な入力に対するBERTファミリーからの大規模なモデルの応答を研究します。
実験により、最先端のモデルは常に不適切なものとして認識できず、その代わりに高い信頼度を予測できることが示されている。
モデルが無効な入力を認識するように明示的に訓練されている場合、パフォーマンスが低下することなくそのような攻撃に堅牢であることが示されています。
論文 参考訳(メタデータ) (2021-01-10T01:32:57Z) - Concept Bottleneck Models [79.91795150047804]
現在の最先端モデルは、通常「骨の支柱の存在」のような概念の操作をサポートしない。
トレーニング時に提供される概念を最初に予測し、ラベルを予測するためにこれらの概念を使用するという古典的な考え方を再考する。
X線グレーディングと鳥の識別では、概念ボトルネックモデルが標準のエンドツーエンドモデルと競合する精度を達成する。
論文 参考訳(メタデータ) (2020-07-09T07:47:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。