論文の概要: Word Embeddings Inherently Recover the Conceptual Organization of the
Human Mind
- arxiv url: http://arxiv.org/abs/2002.10284v1
- Date: Thu, 6 Feb 2020 23:45:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 12:55:38.098899
- Title: Word Embeddings Inherently Recover the Conceptual Organization of the
Human Mind
- Title(参考訳): 言葉の埋め込みは人間の心の概念的組織を根本から再現する
- Authors: Victor Swift
- Abstract要約: 機械学習は、何百万人もの人々の自然言語利用に適用すれば、人間の心の概念的な組織を回復できることがわかった。
本研究は,機械学習を人間の心を,自己申告法や観察法で達成不可能な深さとスケールで探究する方法として正当化するものである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning is a means to uncover deep patterns from rich sources of
data. Here, we find that machine learning can recover the conceptual
organization of the human mind when applied to the natural language use of
millions of people. Utilizing text from billions of webpages, we recover most
of the concepts contained in English, Dutch, and Japanese, as represented in
large scale Word Association networks. Our results justify machine learning as
a means to probe the human mind, at a depth and scale that has been
unattainable using self-report and observational methods. Beyond direct
psychological applications, our methods may prove useful for projects concerned
with defining, assessing, relating, or uncovering concepts in any scientific
field.
- Abstract(参考訳): 機械学習は、豊富なデータソースから深いパターンを明らかにする手段である。
ここでは、数百万人の自然言語利用に適用することで、機械学習が人間の心の概念的な組織を回復できることを見出します。
数十億のwebページからのテキストを利用して,大規模単語連想ネットワークに代表されるように,英語,オランダ語,日本語に含まれる概念のほとんどを復元する。
本研究は, 自己報告と観察的手法を用いて, 人間の心を深く, スケール的に探究する手段として, 機械学習を正当化する。
直接的な心理学的応用を超えて、我々の手法はあらゆる科学分野の概念を定義し、評価し、関連づけ、発見するプロジェクトに役立つかもしれない。
関連論文リスト
- Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - Conceptual structure coheres in human cognition but not in large
language models [7.405352374343134]
概念構造は, 文化, 言語, 推定方法の違いに対して堅牢であることを示す。
結果は、現代の大言語モデルと人間の認知の間に重要な違いを浮き彫りにしている。
論文 参考訳(メタデータ) (2023-04-05T21:27:01Z) - Neural networks for learning personality traits from natural language [0.0]
この論文プロジェクトは、非常に実験的であり、その背景にある動機は、そのトピックに関する詳細な分析を提示することである。
出発点は、心理学文献が5つの主要な性格特性(Big Five)のマーカーとして定義する形容詞の辞書である。
私たちは2013年にTomas Mikolov氏が発明した分散アルゴリズムのクラスを使用します。
論文 参考訳(メタデータ) (2023-02-23T10:33:40Z) - A Theory of Human-Like Few-Shot Learning [14.271690184738205]
我々は、フォン・ノイマン=ランダウアーの原理から人間のような小ショット学習の理論を導いた。
変分オートエンコーダ(VAE)のような深部生成モデルを用いて,この理論を近似することができる。
論文 参考訳(メタデータ) (2023-01-03T11:22:37Z) - Imagination-Augmented Natural Language Understanding [71.51687221130925]
自然言語理解タスクを解決するために,Imagination-Augmented Cross-modal (iACE)を導入する。
iACEは、強力な生成的および事前訓練された視覚・言語モデルから変換された外部知識で視覚的な想像を可能にする。
GLUEとSWAGの実験は、iACEが視覚的に教師付き事前訓練されたモデルよりも一貫した改善を達成していることを示している。
論文 参考訳(メタデータ) (2022-04-18T19:39:36Z) - Can machines learn to see without visual databases? [93.73109506642112]
本稿では,視覚的データベースを扱わずに視界を学習するマシンの開発に焦点をあてる。
これは、ビジョンのためのディープラーニング技術に関する真に競争の激しい道を開くかもしれない。
論文 参考訳(メタデータ) (2021-10-12T13:03:54Z) - Ten Quick Tips for Deep Learning in Biology [116.78436313026478]
機械学習は、データのパターンを認識し、予測モデリングに使用するアルゴリズムの開発と応用に関係している。
ディープラーニングは、独自の機械学習のサブフィールドになっている。
生物学的研究の文脈において、ディープラーニングは高次元の生物学的データから新しい洞察を導き出すためにますます使われてきた。
論文 参考訳(メタデータ) (2021-05-29T21:02:44Z) - Bongard-LOGO: A New Benchmark for Human-Level Concept Learning and
Reasoning [78.13740873213223]
ボナード問題(BP)は、インテリジェントシステムにおける視覚認知へのインスピレーションとして導入された。
我々は人間レベルの概念学習と推論のための新しいベンチマークBongard-LOGOを提案する。
論文 参考訳(メタデータ) (2020-10-02T03:19:46Z) - Learning to Complement Humans [67.38348247794949]
オープンワールドにおけるAIに対するビジョンの高まりは、知覚、診断、推論タスクのために人間を補完できるシステムの開発に焦点を当てている。
我々は,人間-機械チームの複合的なパフォーマンスを最適化するために,エンド・ツー・エンドの学習戦略をどのように活用できるかを実証する。
論文 参考訳(メタデータ) (2020-05-01T20:00:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。