論文の概要: How to predict creativity ratings from written narratives: A comparison of co-occurrence and textual forma mentis networks
- arxiv url: http://arxiv.org/abs/2601.07327v1
- Date: Mon, 12 Jan 2026 08:52:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.295244
- Title: How to predict creativity ratings from written narratives: A comparison of co-occurrence and textual forma mentis networks
- Title(参考訳): 物語による創造性評価の予測方法:共起性とテキスト・フォーマ・メンティス・ネットワークの比較
- Authors: Roberto Passaro, Edith Haim, Massimo Stella,
- Abstract要約: 本チュートリアルでは,短い創作テキストから意味ネットワークを構築し,分析するためのステップバイステップのワークフローを提供する。
我々は、単語共起ネットワークとテキスト・フォルマ・メンティス・ネットワーク(TFMN)の2つの広く使われているテキスト・ツー・ネットワーク・アプローチを紹介し比較する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This tutorial paper provides a step-by-step workflow for building and analysing semantic networks from short creative texts. We introduce and compare two widely used text-to-network approaches: word co-occurrence networks and textual forma mentis networks (TFMNs). We also demonstrate how they can be used in machine learning to predict human creativity ratings. Using a corpus of 1029 short stories, we guide readers through text preprocessing, network construction, feature extraction (structural measures, spreading-activation indices, and emotion scores), and application of regression models. We evaluate how network-construction choices influence both network topology and predictive performance. Across all modelling settings, TFMNs consistently outperformed co-occurrence networks through lower prediction errors (best MAE = 0.581 for TFMN, vs 0.592 for co-occurrence with window size 3). Network-structural features dominated predictive performance (MAE = 0.591 for TFMN), whereas emotion features performed worse (MAE = 0.711 for TFMN) and spreading-activation measures contributed little (MAE = 0.788 for TFMN). This paper offers practical guidance for researchers interested in applying network-based methods for cognitive fields like creativity research. we show when syntactic networks are preferable to surface co-occurrence models, and provide an open, reproducible workflow accessible to newcomers in the field, while also offering deeper methodological insight for experienced researchers.
- Abstract(参考訳): 本チュートリアルでは,短い創作テキストから意味ネットワークを構築し,分析するためのステップバイステップのワークフローを提供する。
本稿では、単語共起ネットワークとテキスト・フォルマ・メンティスネットワーク(TFMN)の2つの広く使われているテキスト・ツー・ネットワーク・アプローチを紹介し比較する。
また、人間の創造性評価を予測するために機械学習でどのように使用できるかを実証する。
1029の短編記事のコーパスを用いて,テキスト前処理,ネットワーク構築,特徴抽出(構造計測,拡散行動指標,感情スコア),回帰モデルの適用を通じて読者をガイドする。
ネットワーク構成の選択がネットワークトポロジと予測性能の両方にどのように影響するかを評価する。
すべてのモデリング設定全体において、TFMNは予測誤差を低くして共起ネットワークを一貫して上回った(最も良いMAE = 0.581、ウィンドウサイズで共起ネットワークは0.592)。
ネットワーク構造的特徴は予測性能(MAE = 0.591, TFMNはMAE = 0.711, TFMNはMAE = 0.788, TFMNはMAE = 0.788)を支配した。
本稿では,ネットワークベースの手法を創造性研究などの認知分野に適用することに関心のある研究者に対して,実践的なガイダンスを提供する。
シンタクティック・ネットワークが共起モデルに好適であることを示し、現場の新参者に対してオープンで再現可能なワークフローを提供するとともに、経験豊富な研究者により深い方法論的な洞察を提供する。
関連論文リスト
- A Top-down Graph-based Tool for Modeling Classical Semantic Maps: A Crosslinguistic Case Study of Supplementary Adverbs [50.982315553104975]
セマンティックマップモデル(SMM)は、言語横断的なインスタンスや形式からネットワークのような概念空間を構築する。
ほとんどのSMMは、ボトムアップ手順を使用して、人間の専門家によって手動で構築される。
本稿では,概念空間とSMMをトップダウンで自動生成するグラフベースの新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-12-02T12:06:41Z) - Learning Multiplex Representations on Text-Attributed Graphs with One Language Model Encoder [55.24276913049635]
テキスト分散グラフ上での多重表現学習のための新しいフレームワークMETAGを提案する。
既存の手法とは対照的に、MeTAGは1つのテキストエンコーダを使用して関係性間の共有知識をモデル化する。
学術分野と電子商取引分野の5つのグラフにおいて,9つの下流タスクについて実験を行った。
論文 参考訳(メタデータ) (2023-10-10T14:59:22Z) - TeKo: Text-Rich Graph Neural Networks with External Knowledge [75.91477450060808]
外部知識を用いた新しいテキストリッチグラフニューラルネットワーク(TeKo)を提案する。
まず、高品質なエンティティを組み込んだフレキシブルな異種セマンティックネットワークを提案する。
次に、構造化三重項と非構造化実体記述という2種類の外部知識を導入する。
論文 参考訳(メタデータ) (2022-06-15T02:33:10Z) - Interpretable part-whole hierarchies and conceptual-semantic
relationships in neural networks [4.153804257347222]
本稿では、視覚的手がかりから部分全体階層を表現できるフレームワークであるAgglomeratorについて述べる。
本研究では,SmallNORB,MNIST,FashionMNIST,CIFAR-10,CIFAR-100などの共通データセットを用いて評価を行った。
論文 参考訳(メタデータ) (2022-03-07T10:56:13Z) - Bandit Sampling for Multiplex Networks [8.771092194928674]
多数のレイヤを持つ多重ネットワーク上でのスケーラブルな学習アルゴリズムを提案する。
オンライン学習アルゴリズムは、トレーニング中に関連する情報を持つレイヤのみを集約するように、関連する隣のレイヤをサンプリングする方法を学ぶ。
合成シナリオと実世界のシナリオの両方に関する実験結果を示す。
論文 参考訳(メタデータ) (2022-02-08T03:26:34Z) - Text analysis and deep learning: A network approach [0.0]
本稿では,変圧器モデルとネットワーク解析を併用して,言語使用の自己参照表現を生成する手法を提案する。
我々のアプローチは、基礎となるモデルと強く整合した言語関係と、それらに関する数学的に明確に定義された操作を生成する。
我々の知る限りでは、深層言語モデルから直接意味ネットワークを抽出する最初の教師なし手法である。
論文 参考訳(メタデータ) (2021-10-08T14:18:36Z) - NetReAct: Interactive Learning for Network Summarization [60.18513812680714]
本論文では,テキストコーポラによる感覚生成のネットワーク可視化を支援する,新しいインタラクティブネットワーク要約アルゴリズムであるNetReActを提案する。
netreactが、他の非自明なベースラインよりも、隠れたパターンを明らかにする高品質な要約や視覚化の生成に成功していることを示す。
論文 参考訳(メタデータ) (2020-12-22T03:56:26Z) - Large Scale Subject Category Classification of Scholarly Papers with
Deep Attentive Neural Networks [15.241086410108512]
本稿では,学術論文を要約のみを用いて分類するディープ注意ニューラルネットワーク(DANN)を提案する。
提案するネットワークは2つの双方向リカレントニューラルネットワークとアテンション層から構成される。
最適モデルでは,0.50~0.95の範囲の個々の対象カテゴリーのF1に対して0.76のマイクロF1測定値が得られる。
論文 参考訳(メタデータ) (2020-07-27T19:42:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。