論文の概要: TopicENA: Enabling Epistemic Network Analysis at Scale through Automated Topic-Based Coding
- arxiv url: http://arxiv.org/abs/2603.03307v1
- Date: Sun, 08 Feb 2026 11:58:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 01:20:08.134095
- Title: TopicENA: Enabling Epistemic Network Analysis at Scale through Automated Topic-Based Coding
- Title(参考訳): TopicENA: 自動トピックベースコーディングによる大規模な疫学ネットワーク解析の実現
- Authors: Owen H. T. Lu, Tiffany T. Y. Hsu,
- Abstract要約: エピステミック・ネットワーク・アナリティクス(ENA)は、共起概念をネットワークとして表現することで、テキストにおける概念の構造を調査する手法である。
従来のENAは手動のエキスパートコーディングに大きく依存しており、拡張性と実世界の大きなテキストコーパスに適用性を制限する。
この制限に対処するため、本研究ではBERTopicをENAにマージし、トピックベースのネットワーク分析フレームワークであるTopicENAを紹介する。
- 参考スコア(独自算出の注目度): 3.8673630752805437
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Epistemic Network Analysis (ENA) is a method for investigating the relational structure of concepts in text by representing co-occurring concepts as networks. Traditional ENA, however, relies heavily on manual expert coding, which limits its scalability and real-world applicability to large text corpora. Topic modeling provides an automated approach to extracting concept-level representations from text and can serve as an alternative to manual coding. To tackle this limitation, the present study merges BERTopic with ENA and introduces TopicENA, a topic-based epistemic network analysis framework. TopicENA substitutes manual concept coding with automatically generated topics while maintaining ENA's capacity for modeling structural associations among concepts. To explain the impact of modeling choices on TopicENA outcomes, three analysis cases are presented. The first case assesses the effect of topic granularity, indicating that coarse-grained topics are preferable for large datasets, whereas fine-grained topics are more effective for smaller datasets. The second case examines topic inclusion thresholds and finds that threshold values should be adjusted according to topic quality indicators to balance network consistency and interpretability. The third case tests TopicENA's scalability by applying it to a substantially larger dataset than those used in previous ENA studies. Collectively, these cases illustrate that TopicENA facilitates practical and interpretable ENA analysis at scale and offers concrete guidance for configuring topic-based ENA pipelines in large-scale text analysis.
- Abstract(参考訳): エピステミック・ネットワーク・アナリティクス(ENA)は、共起概念をネットワークとして表現することで、テキストにおける概念の関連構造を調査する手法である。
しかし、従来のENAは手動のエキスパートコーディングに大きく依存しており、大きなテキストコーパスへのスケーラビリティと実世界の適用性を制限している。
トピックモデリングは、テキストから概念レベルの表現を抽出するための自動化されたアプローチを提供する。
この制限に対処するため、本研究ではBERTopicをENAと統合し、トピックベースの疫学ネットワーク分析フレームワークであるTopicENAを紹介する。
TopicENAは、概念間の構造的関連をモデル化するENAの能力を維持しながら、手動のコンセプトコーディングを自動生成のトピックで置き換える。
TopicENAの結果に対するモデル選択の影響を説明するために、3つの分析ケースを提示する。
最初のケースでは、トピックの粒度の影響を評価し、大きめのデータセットでは粗粒のトピックが好ましいが、小さめのデータセットでは細粒のトピックの方が効果的であることを示す。
第2のケースでは、トピックの包摂しきい値を調べ、ネットワークの一貫性と解釈可能性のバランスをとるために、トピックの品質指標に従ってしきい値を調整するべきであることに気付きます。
第3のケースでは、TopicENAのスケーラビリティを、以前のENA研究で使用されていたものよりもはるかに大きなデータセットに適用することでテストする。
これらの事例は、TopicENAが大規模で実用的で解釈可能なENA分析を促進することを示し、大規模テキスト解析においてトピックベースのENAパイプラインを構成するための具体的なガイダンスを提供する。
関連論文リスト
- Context-level Language Modeling by Learning Predictive Context Embeddings [79.00607069677393]
textbfContextLMは、固有のtextbfnext-context予測目標で標準事前学習を強化するフレームワークである。
このメカニズムは、将来のトークンチャンクから派生したエラー信号を利用して、マルチトークンコンテキストの予測表現を学ぶようモデルを訓練する。
GPT2およびPythiaモデルファミリーの実験では、1.5ドルBのパラメータまでスケールし、ContextLMがパープレキシティとダウンストリームのタスクパフォーマンスの両方で一貫した改善を提供することを示した。
論文 参考訳(メタデータ) (2025-10-23T07:09:45Z) - Conceptual Topic Aggregation [0.0]
本稿では,FAT-CATを提案する。FAT-CATは,意味のあるトピックアグリゲーションと可視化を強化するための形式概念分析(FCA)に基づくアプローチである。
当社のアプローチでは,さまざまなトピックやファイルタイプ – ディレクトリによってグループ化された – を処理して,そのトピック分布の構造化された階層的な表現を提供する概念格子を構築することが可能です。
論文 参考訳(メタデータ) (2025-06-27T15:19:38Z) - Semantic Component Analysis: Introducing Multi-Topic Distributions to Clustering-Based Topic Modeling [8.834228408033896]
本稿では,サンプル毎に複数のトピックを検出するトピックモデリング手法であるセマンティックコンポーネント分析(SCA)を紹介する。
英語、ハウサ語、中国語のTwitterデータセット上でSCAを評価する。
論文 参考訳(メタデータ) (2024-10-28T14:09:52Z) - Tri-Level Navigator: LLM-Empowered Tri-Level Learning for Time Series OOD Generalization [9.95894026392039]
事前学習された大言語モデルを用いた時系列OOD一般化について検討する。
まず,textbfSeries textbfOOD 一般化のための新しい textbfTri レベルの学習フレームワーク TTSO を提案する。
本稿では,この三段階最適化問題に適した階層化ローカライゼーションアルゴリズムを開発し,提案アルゴリズムの保証収束を理論的に実証する。
論文 参考訳(メタデータ) (2024-10-09T16:00:21Z) - BIDRN: A Method of Bidirectional Recurrent Neural Network for Sentiment
Analysis [0.0]
この研究では、感情分析にディープバイオリエント・リカレント・ニューラル・ニューラルネットワークが用いられている。
このデータセットは、公平な意見の抽出が可能な感情分析モデルのトレーニングと評価に使用することができる。
論文 参考訳(メタデータ) (2023-11-13T12:36:53Z) - Coherent Entity Disambiguation via Modeling Topic and Categorical
Dependency [87.16283281290053]
従来のエンティティ曖昧化(ED)メソッドは、参照コンテキストと候補エンティティの一致するスコアに基づいて予測を行う、識別パラダイムを採用している。
本稿では,エンティティ予測のコヒーレンス向上を目的とした新しいデザインを備えたEDシステムであるCoherentedを提案する。
我々は、人気EDベンチマークにおいて、平均1.3F1ポイントの改善により、最先端の新たな結果を得る。
論文 参考訳(メタデータ) (2023-11-06T16:40:13Z) - Exploring the Power of Topic Modeling Techniques in Analyzing Customer
Reviews: A Comparative Analysis [0.0]
大量のテキストデータをオンラインで分析するために、機械学習と自然言語処理アルゴリズムがデプロイされている。
本研究では,顧客レビューに特化して用いられる5つのトピックモデリング手法について検討・比較する。
以上の結果から,BERTopicはより意味のあるトピックを抽出し,良好な結果を得ることができた。
論文 参考訳(メタデータ) (2023-08-19T08:18:04Z) - Robust Saliency-Aware Distillation for Few-shot Fine-grained Visual
Recognition [57.08108545219043]
サンプルが少ない新しいサブカテゴリを認識することは、コンピュータビジョンにおいて不可欠で挑戦的な研究課題である。
既存の文献は、ローカルベースの表現アプローチを採用することでこの問題に対処している。
本稿では,ロバスト・サリエンシ・アウェア蒸留法(RSaD)を提案する。
論文 参考訳(メタデータ) (2023-05-12T00:13:17Z) - VA-DepthNet: A Variational Approach to Single Image Depth Prediction [163.14849753700682]
VA-DepthNetは、単一画像深度予測問題に対する単純で効果的で正確なディープニューラルネットワークアプローチである。
本論文は,複数のベンチマークデータセットに対する広範囲な評価とアブレーション解析により提案手法の有用性を実証する。
論文 参考訳(メタデータ) (2023-02-13T17:55:58Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。