論文の概要: AWARE, Beyond Sentence Boundaries: A Contextual Transformer Framework for Identifying Cultural Capital in STEM Narratives
- arxiv url: http://arxiv.org/abs/2510.04983v2
- Date: Tue, 07 Oct 2025 05:08:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 13:19:51.501254
- Title: AWARE, Beyond Sentence Boundaries: A Contextual Transformer Framework for Identifying Cultural Capital in STEM Narratives
- Title(参考訳): AWARE, Beyond Sentence boundaries: AContextual Transformer Framework for Identification Cultural Capital in STEM Narratives
- Authors: Khalid Mehtab Khan, Anagha Kulkarni,
- Abstract要約: AWAREは、この微妙なタスクに対するトランスフォーマーモデルの認識を改善するためのフレームワークである。
入力の特性を明示的に認識させることにより、AWAREはマクロF1において2.1ポイントの強いベースラインを上回ります。
この研究は、物語の文脈に依存するあらゆるテキスト分類タスクに対して、堅牢で一般化可能な方法論を提供する。
- 参考スコア(独自算出の注目度): 0.5514573274011145
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Identifying cultural capital (CC) themes in student reflections can offer valuable insights that help foster equitable learning environments in classrooms. However, themes such as aspirational goals or family support are often woven into narratives, rather than appearing as direct keywords. This makes them difficult to detect for standard NLP models that process sentences in isolation. The core challenge stems from a lack of awareness, as standard models are pre-trained on general corpora, leaving them blind to the domain-specific language and narrative context inherent to the data. To address this, we introduce AWARE, a framework that systematically attempts to improve a transformer model's awareness for this nuanced task. AWARE has three core components: 1) Domain Awareness, adapting the model's vocabulary to the linguistic style of student reflections; 2) Context Awareness, generating sentence embeddings that are aware of the full essay context; and 3) Class Overlap Awareness, employing a multi-label strategy to recognize the coexistence of themes in a single sentence. Our results show that by making the model explicitly aware of the properties of the input, AWARE outperforms a strong baseline by 2.1 percentage points in Macro-F1 and shows considerable improvements across all themes. This work provides a robust and generalizable methodology for any text classification task in which meaning depends on the context of the narrative.
- Abstract(参考訳): 学生リフレクションにおける文化資本(CC)のテーマの特定は、教室における平等な学習環境の育成に役立つ貴重な洞察を与えることができる。
しかし、願望的な目標や家族の支援といったテーマは、直接のキーワードとしてではなく、物語に織り込まれていることが多い。
これにより、文を独立に処理する標準NLPモデルの検出が困難になる。
標準モデルは一般的なコーパスで事前訓練され、それらがデータ固有のドメイン固有の言語や物語のコンテキストに盲目になるためである。
この問題に対処するため,我々は,このニュアンス化されたタスクに対するトランスフォーマーモデルの認識を体系的に改善しようとするフレームワークであるAWAREを紹介した。
AWAREには3つのコアコンポーネントがある。
1) モデルの語彙を学生の振り返りの言語的スタイルに適合させるドメイン認識
2) 文脈認識,全エッセイの文脈を意識した文埋め込みの生成,及び
3) クラスオーバーラップ・アウェアネスは, 一つの文におけるテーマの共存を認識するために, マルチラベル戦略を用いている。
以上の結果から,AWAREは,入力の特性を明示的に認識することにより,マクロF1において2.1ポイントの強いベースラインを達成し,すべてのテーマにおいて大幅な改善が見られた。
この研究は、物語の文脈に依存するあらゆるテキスト分類タスクに対して、堅牢で一般化可能な方法論を提供する。
関連論文リスト
- Sigma: Semantically Informative Pre-training for Skeleton-based Sign Language Understanding [47.469519895247366]
事前学習は手話理解タスクにおける伝達可能な特徴の学習に有効であることが証明されている。
1)視覚的特徴と言語的文脈との深い相互作用を促進し,視覚的特徴と言語的文脈との深い相互作用を促進するサイン・アウェア・アーリー・フュージョン・メカニズム,2)異なるモダリティから異なるレベルの特徴のマッチングを共同で最大化し,詳細な詳細と高レベルのセマンティックな関係を効果的に把握する階層的アライメント学習戦略,3)コントラスト的学習,テキストマッチング,言語モデリングを組み合わせた統合事前学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-25T14:28:34Z) - Gradient-Attention Guided Dual-Masking Synergetic Framework for Robust Text-based Person Retrieval [15.126709823382539]
本研究は、人物表現学習のためのコントラスト言語画像事前学習(CLIP)を推進している。
MLLMのコンテキスト内学習機能を活用した耐雑音性データ構築パイプラインを開発した。
我々はGA-DMSフレームワークを導入し、ノイズの多いテキストトークンを適応的にマスキングすることで、クロスモーダルアライメントを改善する。
論文 参考訳(メタデータ) (2025-09-11T03:06:22Z) - Decoding Memes: Benchmarking Narrative Role Classification across Multilingual and Multimodal Models [26.91963265869296]
本研究は,インターネットミームにおける物語的役割の特定という課題について考察する。
元々は'他'クラスにスキューされたアノテーション付きデータセットの上に構築される。
包括的語彙および構造解析は、実際のミームで使われるニュアンス、文化特化、文脈に富んだ言語を強調している。
論文 参考訳(メタデータ) (2025-06-29T07:12:11Z) - Harnessing the Intrinsic Knowledge of Pretrained Language Models for Challenging Text Classification Settings [5.257719744958367]
この論文は、事前学習された言語モデル(PLM)の本質的な知識を活用することによって、テキスト分類における3つの挑戦的な設定を探求する。
本研究では, PLMの文脈表現に基づく特徴量を利用したモデルを構築し, 人間の精度に匹敵する, あるいは超越する性能を実現する。
最後に、実効的な実演を選択することで、大規模言語モデルの文脈内学習プロンプトに対する感受性に取り組む。
論文 参考訳(メタデータ) (2024-08-28T09:07:30Z) - Seeing Beyond Classes: Zero-Shot Grounded Situation Recognition via Language Explainer [15.21084337999065]
接地状況認識(GSR)では、モデルが行動に参加するすべての意味的役割を検出する必要がある。
この複雑なタスクは通常、動詞の認識、意味的役割の接地、名詞の認識という3つのステップを含む。
我々はLanguage EXplainer (LEX) を用いたゼロショットGSRの新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-04-24T10:17:13Z) - Foundational Models Defining a New Era in Vision: A Survey and Outlook [151.49434496615427]
視覚シーンの構成的性質を観察し、推論する視覚システムは、我々の世界を理解するのに不可欠である。
モデルは、このようなモダリティと大規模なトレーニングデータとのギャップを埋めることを学び、コンテキスト推論、一般化、テスト時の迅速な機能を容易にした。
このようなモデルの出力は、例えば、バウンディングボックスを設けて特定のオブジェクトをセグメント化したり、画像や映像シーンについて質問したり、言語命令でロボットの動作を操作することで対話的な対話を行うなど、リトレーニングすることなく、人為的なプロンプトによって変更することができる。
論文 参考訳(メタデータ) (2023-07-25T17:59:18Z) - Disco-Bench: A Discourse-Aware Evaluation Benchmark for Language
Modelling [70.23876429382969]
本研究では,多種多様なNLPタスクに対して,文内談話特性を評価できるベンチマークを提案する。
ディスコ・ベンチは文学領域における9つの文書レベルのテストセットから構成されており、豊富な談話現象を含んでいる。
また,言語分析のために,対象モデルが談話知識を学習するかどうかを検証できる診断テストスイートを設計する。
論文 参考訳(メタデータ) (2023-07-16T15:18:25Z) - O-Dang! The Ontology of Dangerous Speech Messages [53.15616413153125]
O-Dang!:The Ontology of Dangerous Speech Messages, a systematic and interoperable Knowledge Graph (KG)
O-Dang!は、Lingguistic Linked Open Dataコミュニティで共有されている原則に従って、イタリアのデータセットを構造化されたKGにまとめ、整理するように設計されている。
ゴールド・スタンダードとシングル・アノテータのラベルをKGにエンコードするモデルを提供する。
論文 参考訳(メタデータ) (2022-07-13T11:50:05Z) - data2vec: A General Framework for Self-supervised Learning in Speech,
Vision and Language [85.9019051663368]
data2vecは、音声、NLP、コンピュータビジョンのいずれかに同じ学習方法を使用するフレームワークである。
中心となる考え方は、自己蒸留装置における入力のマスキングビューに基づいて、完全な入力データの潜在表現を予測することである。
音声認識、画像分類、自然言語理解に関する主要なベンチマークの実験は、新しい技術や競争性能の状態を実証している。
論文 参考訳(メタデータ) (2022-02-07T22:52:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。