論文の概要: Identifying and interpreting non-aligned human conceptual
representations using language modeling
- arxiv url: http://arxiv.org/abs/2403.06204v1
- Date: Sun, 10 Mar 2024 13:02:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 07:20:25.233912
- Title: Identifying and interpreting non-aligned human conceptual
representations using language modeling
- Title(参考訳): 言語モデルを用いた非整合人間の概念表現の同定と解釈
- Authors: Wanqian Bao and Uri Hasson
- Abstract要約: 先天性失明は,a-モダル語と知覚関連言語ドメインの両方において概念的再編成を引き起こすことを示す。
視覚障害者は、より強く社会的・認知的な意味と、行動に関連する動詞を関連づける。
一部の動詞では、盲目と盲目の表現は非常に似ている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The question of whether people's experience in the world shapes conceptual
representation and lexical semantics is longstanding. Word-association,
feature-listing and similarity rating tasks aim to address this question but
require a subjective interpretation of the latent dimensions identified. In
this study, we introduce a supervised representational-alignment method that
(i) determines whether two groups of individuals share the same basis of a
certain category, and (ii) explains in what respects they differ. In applying
this method, we show that congenital blindness induces conceptual
reorganization in both a-modal and sensory-related verbal domains, and we
identify the associated semantic shifts. We first apply supervised
feature-pruning to a language model (GloVe) to optimize prediction accuracy of
human similarity judgments from word embeddings. Pruning identifies one subset
of retained GloVe features that optimizes prediction of judgments made by
sighted individuals and another subset that optimizes judgments made by blind.
A linear probing analysis then interprets the latent semantics of these
feature-subsets by learning a mapping from the retained GloVe features to 65
interpretable semantic dimensions. We applied this approach to seven semantic
domains, including verbs related to motion, sight, touch, and amodal verbs
related to knowledge acquisition. We find that blind individuals more strongly
associate social and cognitive meanings to verbs related to motion or those
communicating non-speech vocal utterances (e.g., whimper, moan). Conversely,
for amodal verbs, they demonstrate much sparser information. Finally, for some
verbs, representations of blind and sighted are highly similar. The study
presents a formal approach for studying interindividual differences in word
meaning, and the first demonstration of how blindness impacts conceptual
representation of everyday verbs.
- Abstract(参考訳): 世界の人々の経験が概念表現や語彙意味論を形作っているかどうかという問題は長く続いている。
単語連想、特徴リスト、類似度評価タスクは、この問題に対処しようとするが、潜在次元を主観的に解釈する必要がある。
本研究では,教師付き表現アライメント手法を提案する。
(i)あるカテゴリーの2つの集団が同一の基底を共有しているか否かを判断し
(ii)それぞれがどう異なるかを説明する。
本手法の適用において, 先天盲目は, アモーダル語と知覚関連言語ドメインの両方において概念的再編成を誘導し, 関連する意味変化を同定する。
まず,言語モデル(GloVe)に対して,単語埋め込みによる人間の類似性判断の予測精度を最適化する。
プルーニングは、目撃者による判断の予測を最適化するGloVe機能の1つのサブセットと、盲人による判断を最適化する別のサブセットを識別する。
線形プローブ解析は、保持されたグローブ特徴から65の解釈可能な意味次元へのマッピングを学習することにより、これらの特徴集合の潜在意味論を解釈する。
本手法を7つの意味領域に適用し,動き,視覚,触覚,および知識獲得に関連するアモーダル動詞を含む。
視覚障害者は、より強く社会的・認知的な意味を、運動に関連する動詞や非音声発声者(例えば、whimper, moan)と結びつけている。
逆に、アモーダル動詞に対しては、多くのスパーザー情報を示す。
最後に、一部の動詞では、盲目と視覚の表現は極めて類似している。
本研究は,単語の意味の個人間差異を研究するための形式的アプローチと,視覚が日常動詞の概念的表現に与える影響を初めて示す。
関連論文リスト
- Pixel Sentence Representation Learning [67.4775296225521]
本研究では,視覚表現学習プロセスとして,文レベルのテキスト意味論の学習を概念化する。
タイポスや単語順シャッフルのような視覚的に接地されたテキスト摂動法を採用し、人間の認知パターンに共鳴し、摂動を連続的に認識できるようにする。
我々のアプローチは、大規模に教師なしのトピックアライメントトレーニングと自然言語推論監督によってさらに強化されている。
論文 参考訳(メタデータ) (2024-02-13T02:46:45Z) - Enhancing Interpretability using Human Similarity Judgements to Prune
Word Embeddings [0.0]
NLPの解釈可能性メソッドは、特定のシステムアーキテクチャの基礎となるセマンティクスに関する洞察を提供することを目的としている。
本稿では,人間の類似性判断の予測を強く改善するモデル特徴のサブセットを同定する教師付き学習手法を提案する。
本手法は,8つの独立したセマンティックドメインに対して,元の埋め込みの20~40%しか保持していないことを示す。
次に、保持された特徴のセマンティクスを解釈するための2つのアプローチを提案する。
論文 参考訳(メタデータ) (2023-10-16T10:38:49Z) - Agentivit\`a e telicit\`a in GilBERTo: implicazioni cognitive [77.71680953280436]
本研究の目的は,トランスフォーマーに基づくニューラルネットワークモデルが語彙意味論を推論するかどうかを検討することである。
考慮される意味的性質は、テリシティ(定性とも組み合わされる)と作用性である。
論文 参考訳(メタデータ) (2023-07-06T10:52:22Z) - Neighboring Words Affect Human Interpretation of Saliency Explanations [65.29015910991261]
単語レベルのサリエンシの説明は、しばしばテキストベースのモデルで特徴属性を伝えるために使われる。
近年の研究では、単語の長さなどの表面的要因が、コミュニケーションされたサリエンシスコアの人間の解釈を歪めてしまうことが報告されている。
本研究では,単語の近傍にある単語のマーキングが,その単語の重要性に対する説明者の認識にどのように影響するかを検討する。
論文 参考訳(メタデータ) (2023-05-04T09:50:25Z) - Visual Superordinate Abstraction for Robust Concept Learning [80.15940996821541]
概念学習は言語意味論と結びついた視覚表現を構成する。
視覚概念の本質的な意味的階層を探索する失敗のボトルネックについて説明する。
本稿では,意味認識型視覚サブ空間を明示的にモデル化するビジュアル・スーパーオーディネート・抽象化・フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-28T14:27:38Z) - Learnable Visual Words for Interpretable Image Recognition [70.85686267987744]
モデル予測動作を2つの新しいモジュールで解釈するLearable Visual Words (LVW)を提案する。
意味的な視覚的単語学習は、カテゴリ固有の制約を緩和し、異なるカテゴリ間で共有される一般的な視覚的単語を可能にする。
6つの視覚的ベンチマーク実験により,提案したLVWの精度とモデル解釈における優れた効果が示された。
論文 参考訳(メタデータ) (2022-05-22T03:24:45Z) - Building a visual semantics aware object hierarchy [0.0]
視覚的意味論を意識したオブジェクト階層を構築するための新しい教師なし手法を提案する。
この論文の直感は、概念が階層的に組織化されている現実世界の知識表現から来ています。
評価は2つの部分から構成され、まず、構築された階層をオブジェクト認識タスクに適用し、その上で、視覚的階層と既存の語彙階層を比較して、提案手法の有効性を示す。
論文 参考訳(メタデータ) (2022-02-26T00:10:21Z) - Unsupervised Multimodal Word Discovery based on Double Articulation
Analysis with Co-occurrence cues [7.332652485849632]
ヒトの幼児は、言語に関する最小限の事前知識で口頭語彙を取得する。
本研究では,音声単位を発見するための教師なし学習手法を提案する。
提案手法は教師なし学習を用いて音声信号から単語と音素を取得することができる。
論文 参考訳(メタデータ) (2022-01-18T07:31:59Z) - Understanding Synonymous Referring Expressions via Contrastive Features [105.36814858748285]
画像とオブジェクトインスタンスレベルでのコントラスト機能を学ぶためのエンドツーエンドのトレーニング可能なフレームワークを開発しています。
提案アルゴリズムをいくつかのベンチマークデータセットで評価するための広範囲な実験を行った。
論文 参考訳(メタデータ) (2021-04-20T17:56:24Z) - Hearings and mishearings: decrypting the spoken word [0.0]
本研究では,誤聴の有無を考慮した個々の単語の音声知覚モデルを提案する。
例えば、単語長がしきい値以下である場合には、音声知覚が容易であることを示し、静的な遷移で識別する。
我々はこれを単語認識の力学に拡張し、個別の孤立した誤聴と連続した誤聴のクラスタの区別を強調する直感的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-01T13:58:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。