論文の概要: A Computational Framework to Identify Self-Aspects in Text
- arxiv url: http://arxiv.org/abs/2507.13115v1
- Date: Thu, 17 Jul 2025 13:31:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-18 20:10:24.518063
- Title: A Computational Framework to Identify Self-Aspects in Text
- Title(参考訳): テキスト中の自己アスペクトを識別する計算フレームワーク
- Authors: Jaya Caporusso, Matthew Purver, Senja Pollak,
- Abstract要約: Selfは多面的な構造であり、言語で反映されている。
自己の多くの側面は、心理的および他のよく研究された現象と一致している。
本提案では,テキスト中の自己アスペクトを識別する計算フレームワークを開発する計画を提案する。
- 参考スコア(独自算出の注目度): 9.187473897664105
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This Ph.D. proposal introduces a plan to develop a computational framework to identify Self-aspects in text. The Self is a multifaceted construct and it is reflected in language. While it is described across disciplines like cognitive science and phenomenology, it remains underexplored in natural language processing (NLP). Many of the aspects of the Self align with psychological and other well-researched phenomena (e.g., those related to mental health), highlighting the need for systematic NLP-based analysis. In line with this, we plan to introduce an ontology of Self-aspects and a gold-standard annotated dataset. Using this foundation, we will develop and evaluate conventional discriminative models, generative large language models, and embedding-based retrieval approaches against four main criteria: interpretability, ground-truth adherence, accuracy, and computational efficiency. Top-performing models will be applied in case studies in mental health and empirical phenomenology.
- Abstract(参考訳): このPh.D.提案は、テキスト中の自己アスペクトを識別する計算フレームワークを開発する計画を紹介している。
Selfは多面的構造であり、言語で反映されている。
認知科学や現象学などの分野にまたがって記述されているが、自然言語処理(NLP)では未熟である。
自己の側面の多くは、心理的および他のよく研究された現象(例えば、メンタルヘルスに関連するもの)と一致しており、体系的なNLP分析の必要性を強調している。
これに合わせて、セルフアスペクトのオントロジーとゴールドスタンダードアノテートデータセットを導入する計画である。
本研究は,従来の識別モデル,生成型大規模言語モデル,組込み型検索手法を,解釈可能性,地道順守性,精度,計算効率の4つの主要な基準に対して開発・評価する。
トップパフォーマンスモデルは、メンタルヘルスと経験的現象学のケーススタディに適用される。
関連論文リスト
- Distinguishing AI-Generated and Human-Written Text Through Psycholinguistic Analysis [0.0]
本研究は, 語彙検索, 談話計画, 認知負荷管理, メタ認知的自己監視などの認知過程に, 31の異なる形態的特徴をマッピングする。
このフレームワークは、生成AIの時代における学術的整合性を維持することを目的とした信頼性の高いツールの開発に寄与する。
論文 参考訳(メタデータ) (2025-05-03T12:06:53Z) - Learning from Impairment: Leveraging Insights from Clinical Linguistics in Language Modelling Research [1.544681800932596]
本研究は,言語モデル(LM)の学習戦略と評価フレームワークを開発するために,言語障害研究からの洞察と臨床治療を統合する可能性について検討する。
本稿では,神経言語学,特に失語症治療における言語スキルの回復と一般化をめざした,言語学的動機の強い訓練アプローチの根底にある理論的基盤を考察する。
これらの知見が、LMの厳密な評価、特に複雑な構文現象の扱い、そして人間のような学習戦略の発展にどう影響するかを明らかにする。
論文 参考訳(メタデータ) (2024-12-20T10:53:21Z) - STRICTA: Structured Reasoning in Critical Text Assessment for Peer Review and Beyond [68.47402386668846]
本研究では,テキストアセスメントをステップワイド推論プロセスとしてモデル化するために,Structured Reasoning In Critical Text Assessment (STRICTA)を導入する。
STRICTAは、因果性理論に基づく相互接続推論ステップのグラフに評価を分解する。
約40人のバイオメディカル専門家が20以上の論文について4000以上の推論ステップのデータセットにSTRICTAを適用した。
論文 参考訳(メタデータ) (2024-09-09T06:55:37Z) - Language Evolution with Deep Learning [49.879239655532324]
計算モデリングは言語の出現の研究において重要な役割を担っている。
構造化言語の出現を誘発する可能性のある条件と学習プロセスをシミュレートすることを目的としている。
この章では、最近機械学習の分野に革命をもたらした別の種類の計算モデル、ディープ・ラーニング・モデルについて論じる。
論文 参考訳(メタデータ) (2024-03-18T16:52:54Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - Disco-Bench: A Discourse-Aware Evaluation Benchmark for Language
Modelling [70.23876429382969]
本研究では,多種多様なNLPタスクに対して,文内談話特性を評価できるベンチマークを提案する。
ディスコ・ベンチは文学領域における9つの文書レベルのテストセットから構成されており、豊富な談話現象を含んでいる。
また,言語分析のために,対象モデルが談話知識を学習するかどうかを検証できる診断テストスイートを設計する。
論文 参考訳(メタデータ) (2023-07-16T15:18:25Z) - Interactive Natural Language Processing [67.87925315773924]
対話型自然言語処理(iNLP)は,NLP分野における新しいパラダイムとして登場した。
本稿では,iNLPの概念の統一的定義と枠組みを提案することから,iNLPに関する包括的調査を行う。
論文 参考訳(メタデータ) (2023-05-22T17:18:29Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z) - Design considerations for a hierarchical semantic compositional
framework for medical natural language understanding [3.7003326903946756]
NLP性能曲線を跳躍する試みとして,人間の認知のメカニズムにインスパイアされた枠組みについて述べる。
セマンティックメモリ、セマンティックコンポジション、セマンティックアクティベーションを含む4つの重要な側面からの洞察について述べる。
本稿では,自由文文を意味の論理的表現に変換するための生成意味モデルと関連する意味モデルの設計について論じる。
論文 参考訳(メタデータ) (2022-04-05T09:04:34Z) - A Latent-Variable Model for Intrinsic Probing [93.62808331764072]
固有プローブ構築のための新しい潜在変数定式化を提案する。
我々は、事前訓練された表現が言語間交互に絡み合ったモルフォシンタクスの概念を発達させる経験的証拠を見出した。
論文 参考訳(メタデータ) (2022-01-20T15:01:12Z) - Schr\"odinger's Tree -- On Syntax and Neural Language Models [10.296219074343785]
言語モデルは、NLPのワークホースとして登場し、ますます流動的な生成能力を示している。
我々は、多くの次元にまたがる明瞭さの欠如を観察し、研究者が形成する仮説に影響を及ぼす。
本稿では,構文研究における様々な研究課題の意義について概説する。
論文 参考訳(メタデータ) (2021-10-17T18:25:23Z) - Modelling Compositionality and Structure Dependence in Natural Language [0.12183405753834563]
言語学と集合論に基づいて、これらの概念の形式化がこの論文の前半で述べられている。
言語処理を行う認知システムは,特定の機能的制約を持つ必要がある。
単語埋め込み技術の進歩を利用して、関係学習のモデルがシミュレートされる。
論文 参考訳(メタデータ) (2020-11-22T17:28:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。