論文の概要: Keeping it simple: Implementation and performance of the proto-principle
of adaptation and learning in the language sciences
- arxiv url: http://arxiv.org/abs/2003.03813v2
- Date: Sat, 28 Aug 2021 10:55:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-25 13:58:53.192958
- Title: Keeping it simple: Implementation and performance of the proto-principle
of adaptation and learning in the language sciences
- Title(参考訳): シンプルさを維持する:言語科学における適応と学習の原原則の実装と性能
- Authors: Petar Milin, Harish Tayyar Madabushi, Michael Croucher, Dagmar Divjak
- Abstract要約: We present the Widrow-Hoff rule and its application to language data。
ルールを歴史的に解釈し、ニューラルネットワークにインスパイアされた機械学習モデルの連鎖に配置した後、その理論的および実装的考察を説明する。
- 参考スコア(独自算出の注目度): 0.9845144212844665
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we present the Widrow-Hoff rule and its applications to
language data. After contextualizing the rule historically and placing it in
the chain of neurally inspired artificial learning models, we explain its
rationale and implementational considerations. Using a number of case studies
we illustrate how the Widrow-Hoff rule offers unexpected opportunities for the
computational simulation of a range of language phenomena that make it possible
to approach old problems from a novel perspective.
- Abstract(参考訳): 本稿では,Widrow-Hoffルールとその言語データへの応用について述べる。
ルールを歴史的に解釈し、ニューラルネットワークにインスパイアされた機械学習モデルの連鎖に配置した後、その理論的および実装的考察を説明する。
いくつかのケーススタディを用いて、widrow-hoff則が、新しい視点から古い問題にアプローチできる様々な言語現象の計算シミュレーションの予期せぬ機会を提供する方法を示す。
関連論文リスト
- UNcommonsense Reasoning: Abductive Reasoning about Uncommon Situations [65.07706249058549]
異常、予期せぬ、そしてありそうもない状況をモデル化する能力について検討する。
予期せぬ結果のコンテキストが与えられた場合、このタスクは自然言語の説明を生成するために故意に推論する必要がある。
私たちはUNcommonsenseという新しい英語コーパスをリリースします。
論文 参考訳(メタデータ) (2023-11-14T19:00:55Z) - Large Language Models as Analogical Reasoners [155.9617224350088]
CoT(Chain-of- Thought)は、言語モデルのプロンプトとして、推論タスク全体で素晴らしいパフォーマンスを示す。
そこで本稿では,大規模言語モデルの推論プロセスを自動的にガイドする,新たなプロンプト手法であるアナログプロンプトを導入する。
論文 参考訳(メタデータ) (2023-10-03T00:57:26Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Black-box language model explanation by context length probing [7.526153863886609]
本稿では、因果言語モデルのための新しい説明手法である文脈長探索について述べる。
この技術はモデルに依存しず、トークンレベルの確率の計算以上のモデル内部へのアクセスに依存しない。
事前学習された大規模言語モデルに文脈長探索を適用し、初期分析と洞察を提供する。
論文 参考訳(メタデータ) (2022-12-30T16:24:10Z) - Language Models as Inductive Reasoners [125.99461874008703]
本稿では,帰納的推論のための新しいパラダイム(タスク)を提案し,自然言語の事実から自然言語規則を誘導する。
タスクのための1.2kルールファクトペアを含むデータセットDEERを作成し,ルールと事実を自然言語で記述する。
我々は、事前訓練された言語モデルが自然言語の事実から自然言語規則をいかに誘導できるかを、初めてかつ包括的な分析を行う。
論文 参考訳(メタデータ) (2022-12-21T11:12:14Z) - Neural Unsupervised Reconstruction of Protolanguage Word Forms [34.66200889614538]
古語形態の教師なし再構成に対する最先端のニューラルアプローチを提案する。
我々はこの研究を、より複雑な音韻学的および形態学的変化を捉えることができるニューラルモデルで拡張する。
論文 参考訳(メタデータ) (2022-11-16T05:38:51Z) - A Survey of Knowledge Enhanced Pre-trained Models [28.160826399552462]
知識注入を伴う事前学習言語モデルを知識強化事前学習言語モデル(KEPLM)と呼ぶ。
これらのモデルは深い理解と論理的推論を示し、解釈可能性を導入する。
論文 参考訳(メタデータ) (2021-10-01T08:51:58Z) - Towards Zero-shot Commonsense Reasoning with Self-supervised Refinement
of Language Models [27.11678023496321]
本稿では,Winograd Challengeにおけるゼロショットコモンセンス推論の実現可能性について検討する。
類似概念関係の言語摂動を用いて言語モデルを洗練する,新たな自己教師型学習手法を提案する。
概念的にシンプルなフレームワークの実証分析は、複数のベンチマーク上でゼロショットコモンセンス推論が実現可能であることを示す。
論文 参考訳(メタデータ) (2021-09-10T21:02:24Z) - Learning to Rationalize for Nonmonotonic Reasoning with Distant
Supervision [44.32874972577682]
モデル予測を説明する自然言語の理性について,ニューラルモデルが判断できる範囲について検討する。
トレーニング済みの言語モデル、ニューラルナレッジモデル、関連するタスクからの遠隔監視を使用します。
我々のモデルは、追加情報から推論が多かれ少なかれ起こりそうな理由を説明するポストホック論理を生成することを約束している。
論文 参考訳(メタデータ) (2020-12-14T23:50:20Z) - Back to the Future: Unsupervised Backprop-based Decoding for
Counterfactual and Abductive Commonsense Reasoning [79.48769764508006]
ジェネレーティブ言語モデル(LM)は、過去の文脈のみを条件にするか、狭い範囲のテキスト入力を実行するよう訓練することができる。
我々は過去と将来の両方の文脈を柔軟に組み込むことができる新しい教師なし復号アルゴリズムであるDeLoreanを提案する。
提案手法は, 帰納的テキスト生成と反事実的ストーリーリビジョンの2つの非単調推論タスクに適用可能であることを示す。
論文 参考訳(メタデータ) (2020-10-12T17:58:43Z) - Learning Compositional Rules via Neural Program Synthesis [67.62112086708859]
少数の例からルールシステム全体を学習するニューロシンボリックモデルを提案する。
入力からの出力を直接予測する代わりに、前述した例の集合を規定する規則の明示的な体系を誘導するようにモデルを訓練する。
論文 参考訳(メタデータ) (2020-03-12T01:06:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。