論文の概要: Word Embeddings Inherently Recover the Conceptual Organization of the
Human Mind
- arxiv url: http://arxiv.org/abs/2002.10284v1
- Date: Thu, 6 Feb 2020 23:45:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 12:55:38.098899
- Title: Word Embeddings Inherently Recover the Conceptual Organization of the
Human Mind
- Title(参考訳): 言葉の埋め込みは人間の心の概念的組織を根本から再現する
- Authors: Victor Swift
- Abstract要約: 機械学習は、何百万人もの人々の自然言語利用に適用すれば、人間の心の概念的な組織を回復できることがわかった。
本研究は,機械学習を人間の心を,自己申告法や観察法で達成不可能な深さとスケールで探究する方法として正当化するものである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning is a means to uncover deep patterns from rich sources of
data. Here, we find that machine learning can recover the conceptual
organization of the human mind when applied to the natural language use of
millions of people. Utilizing text from billions of webpages, we recover most
of the concepts contained in English, Dutch, and Japanese, as represented in
large scale Word Association networks. Our results justify machine learning as
a means to probe the human mind, at a depth and scale that has been
unattainable using self-report and observational methods. Beyond direct
psychological applications, our methods may prove useful for projects concerned
with defining, assessing, relating, or uncovering concepts in any scientific
field.
- Abstract(参考訳): 機械学習は、豊富なデータソースから深いパターンを明らかにする手段である。
ここでは、数百万人の自然言語利用に適用することで、機械学習が人間の心の概念的な組織を回復できることを見出します。
数十億のwebページからのテキストを利用して,大規模単語連想ネットワークに代表されるように,英語,オランダ語,日本語に含まれる概念のほとんどを復元する。
本研究は, 自己報告と観察的手法を用いて, 人間の心を深く, スケール的に探究する手段として, 機械学習を正当化する。
直接的な心理学的応用を超えて、我々の手法はあらゆる科学分野の概念を定義し、評価し、関連づけ、発見するプロジェクトに役立つかもしれない。
関連論文リスト
- Human-like conceptual representations emerge from language prediction [72.5875173689788]
大型言語モデル(LLM)における人間に似た概念表現の出現について検討した。
その結果、LLMは定義記述から概念を推論し、共有された文脈に依存しない構造に収束する表現空間を構築することができた。
我々の研究は、LLMが複雑な人間の認知を理解するための貴重なツールであり、人工知能と人間の知能の整合性を高めるための道を開くという見解を支持している。
論文 参考訳(メタデータ) (2025-01-21T23:54:17Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - Conceptual structure coheres in human cognition but not in large
language models [7.405352374343134]
概念構造は, 文化, 言語, 推定方法の違いに対して堅牢であることを示す。
結果は、現代の大言語モデルと人間の認知の間に重要な違いを浮き彫りにしている。
論文 参考訳(メタデータ) (2023-04-05T21:27:01Z) - Neural networks for learning personality traits from natural language [0.0]
この論文プロジェクトは、非常に実験的であり、その背景にある動機は、そのトピックに関する詳細な分析を提示することである。
出発点は、心理学文献が5つの主要な性格特性(Big Five)のマーカーとして定義する形容詞の辞書である。
私たちは2013年にTomas Mikolov氏が発明した分散アルゴリズムのクラスを使用します。
論文 参考訳(メタデータ) (2023-02-23T10:33:40Z) - Imagination-Augmented Natural Language Understanding [71.51687221130925]
自然言語理解タスクを解決するために,Imagination-Augmented Cross-modal (iACE)を導入する。
iACEは、強力な生成的および事前訓練された視覚・言語モデルから変換された外部知識で視覚的な想像を可能にする。
GLUEとSWAGの実験は、iACEが視覚的に教師付き事前訓練されたモデルよりも一貫した改善を達成していることを示している。
論文 参考訳(メタデータ) (2022-04-18T19:39:36Z) - Ten Quick Tips for Deep Learning in Biology [116.78436313026478]
機械学習は、データのパターンを認識し、予測モデリングに使用するアルゴリズムの開発と応用に関係している。
ディープラーニングは、独自の機械学習のサブフィールドになっている。
生物学的研究の文脈において、ディープラーニングは高次元の生物学的データから新しい洞察を導き出すためにますます使われてきた。
論文 参考訳(メタデータ) (2021-05-29T21:02:44Z) - Bongard-LOGO: A New Benchmark for Human-Level Concept Learning and
Reasoning [78.13740873213223]
ボナード問題(BP)は、インテリジェントシステムにおける視覚認知へのインスピレーションとして導入された。
我々は人間レベルの概念学習と推論のための新しいベンチマークBongard-LOGOを提案する。
論文 参考訳(メタデータ) (2020-10-02T03:19:46Z) - Learning to Complement Humans [67.38348247794949]
オープンワールドにおけるAIに対するビジョンの高まりは、知覚、診断、推論タスクのために人間を補完できるシステムの開発に焦点を当てている。
我々は,人間-機械チームの複合的なパフォーマンスを最適化するために,エンド・ツー・エンドの学習戦略をどのように活用できるかを実証する。
論文 参考訳(メタデータ) (2020-05-01T20:00:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。