論文の概要: Evaluating Transformer Models and Human Behaviors on Chinese Character
Naming
- arxiv url: http://arxiv.org/abs/2303.12294v1
- Date: Wed, 22 Mar 2023 03:58:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-23 15:30:22.270241
- Title: Evaluating Transformer Models and Human Behaviors on Chinese Character
Naming
- Title(参考訳): 漢字命名におけるトランスフォーマーモデルの評価と人間の行動
- Authors: Xiaomeng Ma and Lingyu Gao
- Abstract要約: 変圧器モデルの集合を評価し,その性能を未知の漢字命名課題における人間の行動と比較する。
モデルと人間は同じような振る舞いをしており、各キャラクタに類似した精度分布を持ち、回答にかなりの重複があることが判明した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural network models have been proposed to explain the grapheme-phoneme
mapping process in humans for many alphabet languages. These models not only
successfully learned the correspondence of the letter strings and their
pronunciation, but also captured human behavior in nonce word naming tasks. How
would the neural models perform for a non-alphabet language (e.g., Chinese)
unknown character task? How well would the model capture human behavior? In
this study, we evaluate a set of transformer models and compare their
performances with human behaviors on an unknown Chinese character naming task.
We found that the models and humans behaved very similarly, that they had
similar accuracy distribution for each character, and had a substantial overlap
in answers. In addition, the models' answers are highly correlated with humans'
answers. These results suggested that the transformer models can well capture
human's character naming behavior.
- Abstract(参考訳): ニューラルネットワークモデルは、多くのアルファベット言語に対する人間のグラファイム・音素マッピングプロセスを説明するために提案されている。
これらのモデルは、文字文字列とその発音の対応をうまく学習しただけでなく、人間の振る舞いを言葉命名タスクで捉えた。
ニューラルネットワークは、非アルファベット言語(例えば中国語)の未知文字タスクに対してどのように機能するか?
モデルはどの程度人間の行動を捉えますか?
本研究では,一連のトランスフォーマーモデルを評価し,その性能を未知の漢字命名課題における人間の行動と比較する。
モデルと人間は同じような振る舞いをしており、各キャラクタに類似した精度分布を持ち、回答にかなりの重複があることが判明した。
さらに、モデルの回答は人間の回答と非常に相関している。
これらの結果はトランスモデルが人間のキャラクタ命名行動をうまく捉えていることを示唆している。
関連論文リスト
- A Probability--Quality Trade-off in Aligned Language Models and its Relation to Sampling Adaptors [50.046717886067555]
一致した言語モデルからコーパスをサンプリングする場合,文字列の平均報酬と平均ログ類似度との間にはトレードオフが存在することを示す。
我々は、この現象を形式的に処理し、サンプリングアダプタの選択が、どれだけの確率で報酬を交換できるかを選択できるかを実証する。
論文 参考訳(メタデータ) (2024-06-14T17:38:21Z) - Multicultural Name Recognition For Previously Unseen Names [65.268245109828]
本論文は、人名の認識を改善することを目的としており、それは、誰かが生まれたり、名前を変えたりする際にも、成長できる多様なカテゴリーである。
私は103か国の名前を見て、モデルが異なる文化の名前でどれだけうまく機能するかを比較します。
文字入力と単語入力を組み合わせたモデルの方が単語のみのモデルより優れており,従来のNERモデルと比較して精度が向上する可能性がある。
論文 参考訳(メタデータ) (2024-01-23T17:58:38Z) - Longer Fixations, More Computation: Gaze-Guided Recurrent Neural
Networks [12.57650361978445]
人間はさまざまなペースでテキストを読み、機械学習モデルはそれぞれのトークンを同じように扱う。
本稿では,この直感を固定誘導並列RNNやレイヤを用いた新しいモデルに変換する。
興味深いことに、ニューラルネットワークによって予測される固定期間は、人間の固定と多少似ている。
論文 参考訳(メタデータ) (2023-10-31T21:32:11Z) - How do we get there? Evaluating transformer neural networks as cognitive
models for English past tense inflection [0.0]
私たちは、このタスクの振る舞いを調べるために、異なる設定のトランスフォーマーモデルセットをトレーニングします。
モデルの性能はタイプ周波数と比に大きく影響されるが、トークン周波数と比には影響しない。
変圧器モデルは動詞の規則性の抽象的なカテゴリについてある程度の学習レベルを示すが、その性能は人間のデータによく適合しない。
論文 参考訳(メタデータ) (2022-10-17T15:13:35Z) - Quark: Controllable Text Generation with Reinforced Unlearning [68.07749519374089]
大規模言語モデルは、しばしばユーザの期待に合わない振る舞いを学ぶ。
本稿では,(不必要な)特性を定量化する報酬関数を最適化するアルゴリズムQuarkを紹介する。
未学習の毒性、ネガティブな感情、反復について、我々の実験はQuarkが強いベースラインと最先端の強化学習法の両方より優れていることを示している。
論文 参考訳(メタデータ) (2022-05-26T21:11:51Z) - Training Language Models with Natural Language Feedback [51.36137482891037]
3段階学習アルゴリズムを用いてモデル出力の言語フィードバックから学習する。
合成実験において、まず言語モデルがフィードバックを正確に組み込んで改良を行うかどうかを評価する。
人間の手書きフィードバックのサンプルは100程度しかなく, 学習アルゴリズムはGPT-3モデルを微調整し, ほぼ人間レベルの要約を行う。
論文 参考訳(メタデータ) (2022-04-29T15:06:58Z) - A Targeted Assessment of Incremental Processing in Neural LanguageModels
and Humans [2.7624021966289605]
本稿では,人間とニューラル言語モデルにおけるインクリメンタル処理のスケールアップ比較について述べる。
データはInterpolated Maze Taskと呼ばれる新しいオンライン実験パラダイムに由来する。
人間と言語モデルの両方が、非文法的な文領域における処理困難を増大させていることが判明した。
論文 参考訳(メタデータ) (2021-06-06T20:04:39Z) - Multilingual Language Models Predict Human Reading Behavior [8.830621849672108]
言語固有および多言語事前学習トランスフォーマーモデルの性能比較を行い,読解時間尺度の予測を行った。
BERT と XLM のモデルでは,様々な視線追跡特性の予測に成功している。
一連の実験で、これらのモデルのクロスドメインおよびクロス言語能力を分析し、人間の文処理をどのように反映するかを示す。
論文 参考訳(メタデータ) (2021-04-12T13:03:49Z) - Linguistically inspired morphological inflection with a sequence to
sequence model [19.892441884896893]
我々の研究課題は、ニューラルネットワークが反射生成のための屈折形態を学習できるかどうかである。
我々は、この仮説をテストするために、屈折コーパスと単一の層Seq2seqモデルを使用している。
キャラクタ・ツー・キャラクタとインフレクションアフィクスをキャラクタブロックとして予測することにより,文字形態に基づくモデルでインフレクションを生成する。
論文 参考訳(メタデータ) (2020-09-04T08:58:42Z) - Investigation of Sentiment Controllable Chatbot [50.34061353512263]
本稿では,反応の感情をスケールまたは調整する4つのモデルについて検討する。
モデルはペルソナベースのモデル、強化学習、プラグアンドプレイモデル、CycleGANである。
入力に対して応答が妥当かどうかを推定するために,機械評価メトリクスを開発する。
論文 参考訳(メタデータ) (2020-07-11T16:04:30Z) - Mechanisms for Handling Nested Dependencies in Neural-Network Language
Models and Humans [75.15855405318855]
我々は,「深層学習」手法で訓練された現代人工ニューラルネットワークが,人間の文処理の中心的な側面を模倣するかどうかを検討した。
ネットワークは、大きなコーパスで次の単語を予測するためにのみ訓練されたが、分析の結果、局所的および長距離の構文合意をうまく処理する特別なユニットが出現した。
我々は,複数の名詞の単数/複数状態における体系的な変化を伴う文中の数一致の違反を人間が検出する行動実験において,モデルの予測を検証した。
論文 参考訳(メタデータ) (2020-06-19T12:00:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。