論文の概要: Learning to Rationalize for Nonmonotonic Reasoning with Distant
Supervision
- arxiv url: http://arxiv.org/abs/2012.08012v1
- Date: Mon, 14 Dec 2020 23:50:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-08 14:33:59.115036
- Title: Learning to Rationalize for Nonmonotonic Reasoning with Distant
Supervision
- Title(参考訳): 遠隔指導による非単調推論の合理化の学習
- Authors: Faeze Brahman, Vered Shwartz, Rachel Rudinger, Yejin Choi
- Abstract要約: モデル予測を説明する自然言語の理性について,ニューラルモデルが判断できる範囲について検討する。
トレーニング済みの言語モデル、ニューラルナレッジモデル、関連するタスクからの遠隔監視を使用します。
我々のモデルは、追加情報から推論が多かれ少なかれ起こりそうな理由を説明するポストホック論理を生成することを約束している。
- 参考スコア(独自算出の注目度): 44.32874972577682
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The black-box nature of neural models has motivated a line of research that
aims to generate natural language rationales to explain why a model made
certain predictions. Such rationale generation models, to date, have been
trained on dataset-specific crowdsourced rationales, but this approach is
costly and is not generalizable to new tasks and domains. In this paper, we
investigate the extent to which neural models can reason about natural language
rationales that explain model predictions, relying only on distant supervision
with no additional annotation cost for human-written rationales. We investigate
multiple ways to automatically generate rationales using pre-trained language
models, neural knowledge models, and distant supervision from related tasks,
and train generative models capable of composing explanatory rationales for
unseen instances. We demonstrate our approach on the defeasible inference task,
a nonmonotonic reasoning task in which an inference may be strengthened or
weakened when new information (an update) is introduced. Our model shows
promises at generating post-hoc rationales explaining why an inference is more
or less likely given the additional information, however, it mostly generates
trivial rationales reflecting the fundamental limitations of neural language
models. Conversely, the more realistic setup of jointly predicting the update
or its type and generating rationale is more challenging, suggesting an
important future direction.
- Abstract(参考訳): ニューラルモデルのブラックボックスの性質は、モデルがなぜ特定の予測をしたのかを説明するために、自然言語理論を生成することを目的とした一連の研究の動機となった。
このような合理的生成モデルは、これまで、データセット固有のクラウドソース論理に基づいてトレーニングされてきたが、このアプローチはコストが高く、新しいタスクやドメインには一般化できない。
本稿では,モデル予測を説明する自然言語理論について,人文的推論に付加的な注釈コストを要せず,遠方的監督のみに頼りながら,ニューラルモデルが推論できる程度について検討する。
本研究では,学習済み言語モデル,ニューラル知識モデル,関連するタスクからの遠隔監視を用いて,有理を自動生成する複数の方法を検討した。
我々は,新しい情報(更新)を導入する際に推論を強化したり弱めたりする非単調な推論タスクであるdefeasible inferenceタスクに対する我々のアプローチを実証する。
我々のモデルは、追加情報から推論が多かれ少なかれ起こりそうな理由を説明するポストホック論理を生成することを約束するが、ニューラルネットワークモデルの基本的制約を反映した自明な論理を生成する。
逆に、更新あるいはそのタイプを共同で予測し、合理的に生成する、より現実的なセットアップは、より困難であり、将来の重要な方向性を示唆する。
関連論文リスト
- Representation Surgery: Theory and Practice of Affine Steering [72.61363182652853]
言語モデルは、しばしば好ましくない振る舞いを示す。
モデルが望ましくない振る舞いを示すのを防ぐための自然な(そして一般的な)アプローチの1つは、モデルの表現を操ることである。
本稿では, ステアリング機能の形式的および経験的特性について検討する。
論文 参考訳(メタデータ) (2024-02-15T00:20:30Z) - Emulating the Human Mind: A Neural-symbolic Link Prediction Model with
Fast and Slow Reasoning and Filtered Rules [4.979279893937017]
本稿では,FaSt-FLiPというニューラル・シンボリックモデルを提案する。
我々の目標は、リンク予測の強化のための論理モデルとニューラルモデルを組み合わせることである。
論文 参考訳(メタデータ) (2023-10-21T12:45:11Z) - Unsupervised Selective Rationalization with Noise Injection [7.17737088382948]
教師なし選択的合理化は、2つの共同訓練されたコンポーネント、有理生成器と予測器をチェーンすることで、予測と共に有理性を生成する。
本稿では,生成器と予測器との間にノイズを注入することにより,有理数生成を効果的に抑制する新しい訓練手法を提案する。
新しいベンチマークを含め、さまざまなタスクにおける最先端技術に対する合理的な妥当性とタスク精度の大幅な改善を実現しています。
論文 参考訳(メタデータ) (2023-05-27T17:34:36Z) - Can Rationalization Improve Robustness? [39.741059642044874]
ニューラルNLPモデルが、その解釈可能な性質に加えて、敵攻撃に対して堅牢性をもたらすかどうかを検討する。
トークンと文レベルの合理化タスクの両方に対して,さまざまなタイプのAddText攻撃を生成する。
実験の結果、合理的モデルでは、特定のシナリオで苦労しながら、堅牢性を改善するという約束が示されることがわかった。
論文 参考訳(メタデータ) (2022-04-25T17:02:42Z) - Towards Interpretable Deep Reinforcement Learning Models via Inverse
Reinforcement Learning [27.841725567976315]
本稿では,逆逆強化学習を利用した新しいフレームワークを提案する。
このフレームワークは、強化学習モデルによる決定のグローバルな説明を提供する。
モデルの意思決定過程を要約することで、モデルが従う直感的な傾向を捉える。
論文 参考訳(メタデータ) (2022-03-30T17:01:59Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - On robustness of generative representations against catastrophic
forgetting [17.467589890017123]
新しいタスクを学習しながら学習した知識を破滅的に忘れることは、現代のニューラルネットワークの限界として広く観察されている。
本研究では,ニューラルモデルにより内部に構築された表現の特異性に関する一連の研究仮説をポーズし,検証することにより,この問題に対処することを目的とする。
識別モデルにより学習された表現は、その生成モデルよりも破滅的な忘れがちであり、連続学習のための生成モデルを開発する利点に新たな光を当てている。
論文 参考訳(メタデータ) (2021-09-04T11:33:24Z) - The Neural Coding Framework for Learning Generative Models [91.0357317238509]
本稿では,脳の予測処理理論に触発された新しい神経生成モデルを提案する。
同様に、私たちの生成モデルにおける人工ニューロンは、隣接するニューロンが何をするかを予測し、予測が現実にどの程度一致するかに基づいてパラメータを調整します。
論文 参考訳(メタデータ) (2020-12-07T01:20:38Z) - Towards Interpretable Natural Language Understanding with Explanations
as Latent Variables [146.83882632854485]
そこで本研究では,人間に注釈付き説明文の小さなセットだけを必要とする自然言語理解の枠組みを構築した。
我々のフレームワークは、ニューラルネットワークの基本的な推論過程をモデル化する潜在変数として、自然言語の説明を扱う。
論文 参考訳(メタデータ) (2020-10-24T02:05:56Z) - Leap-Of-Thought: Teaching Pre-Trained Models to Systematically Reason
Over Implicit Knowledge [96.92252296244233]
大規模な事前学習言語モデル(LM)は推論能力を得るが、制御は困難である。
本研究では,暗黙的,事前学習された知識と明示的な自然言語文を併用して,体系的推論を確実に行うことができることを示す。
我々の研究は、シンプルな自然言語文を追加することで、モデルを簡単に修正できるユーザと対話することで、常に改善されるオープンドメインシステムへの道を開く。
論文 参考訳(メタデータ) (2020-06-11T17:02:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。