論文の概要: What artificial intelligence might teach us about the origin of human
language
- arxiv url: http://arxiv.org/abs/2301.06211v1
- Date: Sun, 15 Jan 2023 23:25:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-18 16:43:05.647312
- Title: What artificial intelligence might teach us about the origin of human
language
- Title(参考訳): 人工知能が人間の言語の起源を教えてくれるかもしれない
- Authors: Alexander Kilpatrick
- Abstract要約: 本研究は、人工知能と音の象徴性を組み合わせた研究から生まれたパターンを探索する。
機械学習アルゴリズムは、音のシンボリズムの効率的な学習者であるが、あるカテゴリーを他方に偏りがちである。
- 参考スコア(独自算出の注目度): 91.3755431537592
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: This study explores an interesting pattern emerging from research that
combines artificial intelligence with sound symbolism. In these studies,
supervised machine learning algorithms are trained to classify samples based on
the sounds of referent names. Machine learning algorithms are efficient
learners of sound symbolism, but they tend to bias one category over the other.
The pattern is this: when a category arguably represents greater threat, the
algorithms tend to overpredict to that category. A hypothesis, framed by error
management theory, is presented that proposes that this may be evidence of an
adaptation to preference cautious behaviour. This hypothesis is tested by
constructing extreme gradient boosted (XGBoost) models using the sounds that
make up the names of Chinese, Japanese and Korean Pokemon and observing
classification error distribution.
- Abstract(参考訳): この研究は、人工知能と音の象徴性を組み合わせた研究から生まれた興味深いパターンを探求する。
本研究では、教師付き機械学習アルゴリズムを用いて、参照名の音に基づいてサンプルを分類する。
機械学習アルゴリズムは、サウンドシンボルの効率的な学習者であるが、一方のカテゴリを他方に偏りがちである。
あるカテゴリが明らかにより大きな脅威を表す場合、アルゴリズムはそのカテゴリに過度に予測する傾向にある。
誤り管理理論によって構成された仮説が提示され、これは選好慎重な行動に適応する証拠である可能性が示唆されている。
この仮説は、中国語、日本語、韓国のポケモンの名前を構成する音を用いて、極端な勾配(XGBoost)モデルを構築し、分類誤差の分布を観察して検証する。
関連論文リスト
- On the Proper Treatment of Tokenization in Psycholinguistics [53.960910019072436]
論文は、トークンレベルの言語モデルは、精神言語学研究で使用される前に、文字レベルの言語モデルにマージ化されるべきであると主張している。
興味領域自体のサブプライムよりも心理学的予測が優れている様々な焦点領域を見いだす。
論文 参考訳(メタデータ) (2024-10-03T17:18:03Z) - An Adversarial Approach to Evaluating the Robustness of Event Identification Models [12.862865254507179]
本稿では,事象分類の特徴を抽出する物理に基づくモーダル分解法について考察する。
得られた分類器は、その堅牢性を評価するために、逆アルゴリズムに対してテストされる。
論文 参考訳(メタデータ) (2024-02-19T18:11:37Z) - A Brain-Inspired Sequence Learning Model based on a Logic [6.653734987585243]
本稿では,非公理論理で解釈可能なシーケンス学習モデルの設計と試験を行う。
その結果、モデルは異なるレベルの難易度でうまく機能することがわかった。
論文 参考訳(メタデータ) (2023-08-24T01:01:41Z) - Correntropy-Based Logistic Regression with Automatic Relevance
Determination for Robust Sparse Brain Activity Decoding [18.327196310636864]
相関学習フレームワークを,自動関係決定に基づくスパース分類モデルに導入する。
人工的データセット,脳波(EEG)データセット,機能的磁気共鳴画像(fMRI)データセットで評価した。
論文 参考訳(メタデータ) (2022-07-20T06:49:23Z) - A Falsificationist Account of Artificial Neural Networks [0.0]
我々は、ファルシフィケーションの考え方が機械学習の方法論の中心であると主張している。
機械学習は統計学と計算機科学の交差点で機能する。
論文 参考訳(メタデータ) (2022-05-03T11:19:56Z) - Semantic Clustering based Deduction Learning for Image Recognition and
Classification [19.757743366620613]
本稿では,人間の脳の学習・思考過程を模倣した意味的クラスタリングに基づく推論学習を提案する。
提案手法は広範な実験を通じて理論的,実証的に支持される。
論文 参考訳(メタデータ) (2021-12-25T01:31:21Z) - Teach me to play, gamer! Imitative learning in computer games via
linguistic description of complex phenomena and decision tree [55.41644538483948]
本稿では,複雑な現象の言語記述に基づく模倣による新しい機械学習モデルを提案する。
この手法は,ゲーム開発における知的エージェントの動作を設計し,実装するための優れた代替手段となる。
論文 参考訳(メタデータ) (2021-01-06T21:14:10Z) - On the Transferability of Adversarial Attacksagainst Neural Text
Classifier [121.6758865857686]
テキスト分類モデルの逆例の転送可能性について検討する。
本稿では,ほとんどすべての既存モデルを騙すために,敵の例を誘導できるモデル群を見つける遺伝的アルゴリズムを提案する。
これらの逆例からモデル診断に使用できる単語置換規則を導出する。
論文 参考訳(メタデータ) (2020-11-17T10:45:05Z) - Deducing neighborhoods of classes from a fitted model [68.8204255655161]
本稿では,新しいタイプの解釈可能な機械学習手法を提案する。
量子シフトを用いた分類モデルでは、特徴空間の予測クラスへの分割を理解するのに役立ちます。
基本的に、実際のデータポイント(または特定の関心点)を使用し、特定の特徴をわずかに引き上げたり減少させたりした後の予測の変化を観察する。
論文 参考訳(メタデータ) (2020-09-11T16:35:53Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。