論文の概要: Characterizing Human Semantic Navigation in Concept Production as Trajectories in Embedding Space
- arxiv url: http://arxiv.org/abs/2602.05971v1
- Date: Thu, 05 Feb 2026 18:23:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:09.114232
- Title: Characterizing Human Semantic Navigation in Concept Production as Trajectories in Embedding Space
- Title(参考訳): 埋め込み空間における軌道としての概念生成における人間の意味的ナビゲーションの特徴
- Authors: Felipe D. Toro-Hernández, Jesuino Vieira Filho, Rodrigo M. Cabral-Carvalho,
- Abstract要約: 組込み空間を通したナビゲーションとして,概念生産を表現したフレームワークを導入する。
本研究では,累積埋め込みに基づく参加者固有の意味軌道を構築し,幾何学的および動的メトリクスを抽出する。
異なる言語にまたがる4つのデータセット上で、異なるプロパティ生成タスクにまたがるフレームワークを評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Semantic representations can be framed as a structured, dynamic knowledge space through which humans navigate to retrieve and manipulate meaning. To investigate how humans traverse this geometry, we introduce a framework that represents concept production as navigation through embedding space. Using different transformer text embedding models, we construct participant-specific semantic trajectories based on cumulative embeddings and extract geometric and dynamical metrics, including distance to next, distance to centroid, entropy, velocity, and acceleration. These measures capture both scalar and directional aspects of semantic navigation, providing a computationally grounded view of semantic representation search as movement in a geometric space. We evaluate the framework on four datasets across different languages, spanning different property generation tasks: Neurodegenerative, Swear verbal fluency, Property listing task in Italian, and in German. Across these contexts, our approach distinguishes between clinical groups and concept types, offering a mathematical framework that requires minimal human intervention compared to typical labor-intensive linguistic pre-processing methods. Comparison with a non-cumulative approach reveals that cumulative embeddings work best for longer trajectories, whereas shorter ones may provide too little context, favoring the non-cumulative alternative. Critically, different embedding models yielded similar results, highlighting similarities between different learned representations despite different training pipelines. By framing semantic navigation as a structured trajectory through embedding space, bridging cognitive modeling with learned representation, thereby establishing a pipeline for quantifying semantic representation dynamics with applications in clinical research, cross-linguistic analysis, and the assessment of artificial cognition.
- Abstract(参考訳): 意味表現は、人間が意味を検索し、操作するためにナビゲートする構造化された動的知識空間としてフレーム化することができる。
人間がどのようにこの幾何学を横切るかを調べるために,埋め込み空間を通して,概念生産をナビゲーションとして表現する枠組みを導入する。
異なるトランスフォーマーテキスト埋め込みモデルを用いて、累積埋め込みに基づく参加者固有の意味軌道を構築し、次から次への距離、遠近距離、エントロピー、速度、加速度を含む幾何学的および動的メトリクスを抽出する。
これらの測度は意味的ナビゲーションのスカラー的側面と方向的側面の両方を捉え、幾何学空間における運動としての意味的表現探索の計算的基盤となるビューを提供する。
異なる言語にまたがる4つのデータセットの枠組みを, 言語によって異なる特性生成タスク(ニューロデジェネティブ, Swear verbal fluency, イタリア語のProperty Listing Task, ドイツ語)で評価した。
これらの文脈において,本手法は臨床グループと概念タイプを区別し,典型的な労働集約型言語前処理法と比較して,人間の介入を最小限に抑える数学的枠組みを提供する。
非累積的なアプローチと比較すると、累積埋め込みは長い軌道に対して最適であるのに対し、短いものはほとんど文脈を提供しておらず、非累積的な方法を好むことが分かる。
批判的に、異なる埋め込みモデルは同様の結果をもたらし、異なるトレーニングパイプラインにもかかわらず、異なる学習された表現間の類似性を強調した。
セマンティックナビゲーションを組込み空間による構造化軌道としてフレーミングし、認知モデルに学習表現を組み込むことにより、セマンティック表現のダイナミクスを定量化するためのパイプラインを構築し、臨床研究、言語横断分析、人工認知の評価に応用する。
関連論文リスト
- Beyond Global Alignment: Fine-Grained Motion-Language Retrieval via Pyramidal Shapley-Taylor Learning [56.6025512458557]
動き言語検索は、自然言語と人間の動きの間の意味的ギャップを埋めることを目的としている。
既存のアプローチは主に、全動作シーケンスとグローバルテキスト表現の整合性に重点を置いている。
本研究では,微粒な動き言語検索のためのPST学習フレームワークを提案する。
論文 参考訳(メタデータ) (2026-01-29T16:00:12Z) - Relative Representations of Latent Spaces enable Efficient Semantic Channel Equalization [11.052047963214006]
本稿では,新たな意味等化アルゴリズムを提案する。
提案手法の有効性を数値計算により明らかにした。
論文 参考訳(メタデータ) (2024-11-29T14:08:48Z) - Investigating semantic subspaces of Transformer sentence embeddings
through linear structural probing [2.5002227227256864]
本研究では,文レベル表現の研究手法である意味構造探索を用いた実験を行う。
本手法は,2つのタスクの文脈において,異なる言語モデル(エンコーダのみ,デコーダのみ,エンコーダのみ,エンコーダ-デコーダ)と異なる大きさの言語モデルに適用する。
モデルファミリは、その性能と層動力学において大きく異なるが、結果は大半がモデルサイズの不変量である。
論文 参考訳(メタデータ) (2023-10-18T12:32:07Z) - Inverse Dynamics Pretraining Learns Good Representations for Multitask
Imitation [66.86987509942607]
このようなパラダイムを模倣学習でどのように行うべきかを評価する。
本稿では,事前学習コーパスがマルチタスクのデモンストレーションから成り立つ環境について考察する。
逆動力学モデリングはこの設定に適していると主張する。
論文 参考訳(メタデータ) (2023-05-26T14:40:46Z) - Constructing Word-Context-Coupled Space Aligned with Associative
Knowledge Relations for Interpretable Language Modeling [0.0]
事前訓練された言語モデルにおけるディープニューラルネットワークのブラックボックス構造は、言語モデリングプロセスの解釈可能性を大幅に制限する。
解釈不能なニューラル表現と解釈不能な統計論理のアライメント処理を導入することで,ワードコンテキスト結合空間(W2CSpace)を提案する。
我々の言語モデルは,関連する最先端手法と比較して,優れた性能と信頼性の高い解釈能力を実現することができる。
論文 参考訳(メタデータ) (2023-05-19T09:26:02Z) - Low-Dimensional Structure in the Space of Language Representations is
Reflected in Brain Responses [62.197912623223964]
言語モデルと翻訳モデルは,単語の埋め込み,構文的・意味的タスク,将来的な単語埋め込みとの間を円滑に介在する低次元構造を示す。
この表現埋め込みは、各特徴空間が、fMRIを用いて記録された自然言語刺激に対する人間の脳反応にどれだけうまく対応しているかを予測することができる。
これは、埋め込みが脳の自然言語表現構造の一部を捉えていることを示唆している。
論文 参考訳(メタデータ) (2021-06-09T22:59:12Z) - Testing the Quantitative Spacetime Hypothesis using Artificial Narrative
Comprehension (II) : Establishing the Geometry of Invariant Concepts, Themes,
and Namespaces [0.0]
本研究は、セマンティック時空仮説の継続的な適用に寄与し、物語テキストの教師なし分析を実証する。
データストリームは、バイオインフォマティクス解析の方法で、マルチスケール干渉計によって、小さな成分に解析され、分別される。
入力のフラグメントは、各スケールで新しい有効言語を定義するアルファベット階層のシンボルとして機能する。
論文 参考訳(メタデータ) (2020-09-23T11:19:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。