論文の概要: What's in a Scientific Name?
- arxiv url: http://arxiv.org/abs/2106.14610v1
- Date: Mon, 31 May 2021 22:06:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-04 19:33:25.987529
- Title: What's in a Scientific Name?
- Title(参考訳): 科学名には何があるの?
- Authors: Henrique Ferraz de Arruda, Luciano da Fontoura Costa
- Abstract要約: 本研究は,「予測」,「モデル」,「最適化」,「複雑」,「エントロピー」,「ランダム」,「決定論的」,「パターン」,「データベース」の語源を考察した。
いくつかの単語は、異なる領域で顕著に異なる関連性を持っていることが観察され、生物学はコンピュータ科学と関連し、データベースと関連性を共有することが判明した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To a good extent, words can be understood as corresponding to patterns or
categories that appeared in order to represent concepts and structures that are
particularly important or useful in a given time and space. Words are
characterized by not being completely general nor specific, in the sense that
the same word can be instantiated or related to several different contexts,
depending on specific situations. Indeed, the way in which words are
instantiated and associated represents a particularly interesting aspect that
can substantially help to better understand the context in which they are
employed. Scientific words are no exception to that. In the present work, we
approach the associations between a set of particularly relevant words in the
sense of being not only frequently used in several areas, but also representing
concepts that are currently related to some of the main standing challenges in
science. More specifically, the study reported here takes into account the
words "prediction", "model", "optimization", "complex", "entropy", "random",
"deterministic", "pattern", and "database". In order to complement the
analysis, we also obtain a network representing the relationship between the
adopted areas. Many interesting results were found. First and foremost, several
of the words were observed to have markedly distinct associations in different
areas. Biology was found to be related to computer science, sharing
associations with databases. Furthermore, for most of the cases, the words
"complex", "model", and "prediction" were observed to have several strong
associations.
- Abstract(参考訳): 単語は、特定の時間や空間において特に重要または有用な概念や構造を表現するために出現したパターンやカテゴリに対応するものとして理解することができる。
単語は、特定の状況に応じて、同じ単語をインスタンス化したり、複数の異なる文脈に関連付けることができるという意味で、完全に一般的で特定のものではないことが特徴である。
実際、言葉をインスタンス化し、関連付ける方法は、特に興味深い側面を示し、それらが採用されている文脈をよりよく理解するのに役立ちます。
科学的な言葉は例外ではない。
本研究では,いくつかの分野において多用されるという意味で,特に関連性の高い単語の組間の関連にアプローチし,現在,科学における主要な課題と関連する概念を表現する。
より具体的には、ここで報告された研究は、"prediction"、"model"、"optimization"、"complex"、"entropy"、"random"、" deterministic"、"pattern"、"database"という単語を考慮に入れている。
また,分析を補完するために,適用地域間の関係を表すネットワークを得る。
多くの興味深い結果が得られた。
まず第一に、いくつかの単語は異なる地域で著しく異なる関連を持つことが観察された。
生物学はコンピュータ科学に関連しており、データベースと関連付けられている。
さらに,ほとんどの場合,「複雑」「モデル」「予測」という言葉にはいくつかの強い関連性があることが観察された。
関連論文リスト
- Measuring Meaning Composition in the Human Brain with Composition Scores from Large Language Models [53.840982361119565]
コンポジションスコアは、文理解中に意味合成の度合いを定量化するために設計された、新しいモデルに基づく計量である。
実験結果から, 単語の頻度, 構造処理, 単語に対する一般感性に関連する脳クラスタとの関連が示唆された。
論文 参考訳(メタデータ) (2024-03-07T08:44:42Z) - How Do In-Context Examples Affect Compositional Generalization? [86.57079616209474]
本稿では,コンテクスト内構成一般化を検証するためのテストスイートであるCoFeを提案する。
構成一般化性能は、文脈内例の選択によって容易に影響を受けることが判明した。
我々の系統実験は、文脈内サンプルは、テストケースと構造的に似ており、互いに異なっており、個別に単純であることを示します。
論文 参考訳(メタデータ) (2023-05-08T16:32:18Z) - Neighboring Words Affect Human Interpretation of Saliency Explanations [65.29015910991261]
単語レベルのサリエンシの説明は、しばしばテキストベースのモデルで特徴属性を伝えるために使われる。
近年の研究では、単語の長さなどの表面的要因が、コミュニケーションされたサリエンシスコアの人間の解釈を歪めてしまうことが報告されている。
本研究では,単語の近傍にある単語のマーキングが,その単語の重要性に対する説明者の認識にどのように影響するかを検討する。
論文 参考訳(メタデータ) (2023-05-04T09:50:25Z) - Quantifying the Roles of Visual, Linguistic, and Visual-Linguistic
Complexity in Verb Acquisition [8.183763443800348]
我々は、事前学習された人工ニューラルネットワークから得られる単語の視覚的および言語的表現を用いる。
動詞の表現は一般的に、名詞の表現よりも領域内ではより可変であり、識別しにくいことが分かる。
視覚的可変性は、言語学習を内部的に推進する最強の要因であり、次いで視覚言語的アライメントと言語的可変性である。
論文 参考訳(メタデータ) (2023-04-05T15:08:21Z) - Evaluation of Word Embeddings for the Social Sciences [0.0]
本稿では,37,604の社会科学研究論文に基づく単語埋め込みモデルの作成と評価について述べる。
作成したドメイン固有モデルは,社会科学の概念の大部分をカバーしていることがわかった。
すべての関係型において、意味的関係をより広範囲に網羅している。
論文 参考訳(メタデータ) (2023-02-13T08:23:03Z) - Words as Gatekeepers: Measuring Discipline-specific Terms and Meanings
in Scholarly Publications [13.443742417911352]
テキストから学術用語を測定するための解釈可能なアプローチを開発し,検証する。
我々は、単語知覚誘導を用いて、広い範囲にまたがって異なる意味を持つ単語を識別する。
単語感覚は、語型と平行してジャゴンの相補的かつユニークなビューを提供することを示す。
論文 参考訳(メタデータ) (2022-12-19T18:01:06Z) - An Informational Space Based Semantic Analysis for Scientific Texts [62.997667081978825]
本稿では、意味分析のための計算手法と、短い科学的テキストの意味の定量化について紹介する。
科学的意味の表現は、心理的特性ではなく、状況表現を置き換えることで標準化される。
本研究は,テキストの意味の幾何学的表現の基礎となる研究である。
論文 参考訳(メタデータ) (2022-05-31T11:19:32Z) - Towards a Theoretical Understanding of Word and Relation Representation [8.020742121274418]
ベクトルまたは埋め込みによる単語の表現は、計算的推論を可能にする。
テキストコーパスと知識グラフから学習した単語埋め込みに注目した。
論文 参考訳(メタデータ) (2022-02-01T15:34:58Z) - Compositional Processing Emerges in Neural Networks Solving Math
Problems [100.80518350845668]
人工知能の最近の進歩は、大きなモデルが十分な言語データに基づいて訓練されると、文法構造が表現に現れることを示している。
我々は、この研究を数学的推論の領域にまで拡張し、どのように意味を構成するべきかについての正確な仮説を定式化することができる。
私たちの研究は、ニューラルネットワークがトレーニングデータに暗黙的に構造化された関係について何かを推測できるだけでなく、個々の意味の合成を合成全体へと導くために、この知識を展開できることを示している。
論文 参考訳(メタデータ) (2021-05-19T07:24:42Z) - Topology of Word Embeddings: Singularities Reflect Polysemy [68.8204255655161]
本稿では,単語の意味の実際の数とよく相関する,永続的ホモロジーに基づく多意味性のトポロジカル尺度を提案する。
本稿では,SemEval-2010における単語センスの誘導と曖昧さに対する単純なトポロジ的な解決法を提案する。
論文 参考訳(メタデータ) (2020-11-18T17:21:51Z) - Contextualized Word Embeddings Encode Aspects of Human-Like Word Sense
Knowledge [0.0]
NLPの最近の進歩、特に文脈的単語埋め込みは、英語の単語感覚間の人間的な区別を捉えているかどうかを考察する。
BERT埋め込み空間における感覚間の距離と,感覚間の関連性に関する被験者の判断が相関していることが判明した。
本研究は,意味の連続空間表現の有用性を示唆するものである。
論文 参考訳(メタデータ) (2020-10-25T07:56:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。