論文の概要: Semiotic Complexity and Its Epistemological Implications for Modeling Culture
- arxiv url: http://arxiv.org/abs/2508.00095v1
- Date: Thu, 31 Jul 2025 18:44:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-04 18:08:53.628687
- Title: Semiotic Complexity and Its Epistemological Implications for Modeling Culture
- Title(参考訳): 文化のモデリングにおけるセミオティック複雑度とその認識論的意義
- Authors: Zachary K. Stine, James E. Deitrick,
- Abstract要約: 我々は、文化的、言語的領域から計算的、数学的領域への翻訳作業に従事するようなモデリングの枠組みを定めている。
翻訳者は翻訳過程の内部理論を明確にすることの恩恵を受ける。
我々は、研究者がこれらの問題を自分たち自身の仕事でよりよく説明できるよう、いくつかの勧告を立てた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Greater theorizing of methods in the computational humanities is needed for epistemological and interpretive clarity, and therefore the maturation of the field. In this paper, we frame such modeling work as engaging in translation work from a cultural, linguistic domain into a computational, mathematical domain, and back again. Translators benefit from articulating the theory of their translation process, and so do computational humanists in their work -- to ensure internal consistency, avoid subtle yet consequential translation errors, and facilitate interpretive transparency. Our contribution in this paper is to lay out a particularly consequential dimension of the lack of theorizing and the sorts of translation errors that emerge in our modeling practices as a result. Along these lines we introduce the idea of semiotic complexity as the degree to which the meaning of some text may vary across interpretive lenses, and make the case that dominant modeling practices -- especially around evaluation -- commit a translation error by treating semiotically complex data as semiotically simple when it seems epistemologically convenient by conferring superficial clarity. We then lay out several recommendations for researchers to better account for these epistemological issues in their own work.
- Abstract(参考訳): 計算人文科学における方法のより深い理論化は、認識論的および解釈的明確性のために必要であり、したがって場の成熟である。
本稿では,文化的,言語的領域から算術的,数学的領域への翻訳作業に携わるものとして,そのようなモデリング作業について考察する。
翻訳者は、翻訳過程の理論を明確にし、内部の一貫性を確保し、微妙に連続的な翻訳誤りを回避し、解釈的透明性を促進するために、その作業において計算的ヒューマニストを実践する。本論文における我々の貢献は、モデリングの実践に現れる理論化の欠如と翻訳エラーの種類について、特に簡潔な側面を明らかにすることである。これらの線に沿って、あるテキストの意味が解釈的レンズによって異なる程度に半論理的複雑性の概念を導入し、支配的なモデリング慣行、特に評価に関して、半論理的複素データを扱うことによって半論理的簡易な翻訳誤差を、表面的明瞭度を基準として、認識論的に有用と思われる場合に、半論理的複雑データを半論理的に扱い、翻訳エラーを犯すようにすることである。
次に、研究者が自身の研究でこれらの認識論的な問題をよりよく理解するよう、いくつかの推奨事項を提示する。
関連論文リスト
- Less is More: Local Intrinsic Dimensions of Contextual Language Models [13.561226514150695]
本研究では,テクスチュアな埋め込みの幾何学的特性に基づく新しい視点を導入し,トレーニングと微調整の効果について検討する。
局所的な次元はモデルのトレーニング力学と一般化能力に関する洞察を与える。
実験では, 平均局所次元の減少が伴う傾向にあり, その後のパフォーマンス向上が予測される傾向がある。
論文 参考訳(メタデータ) (2025-06-01T14:30:46Z) - Reasoning Inconsistencies and How to Mitigate Them in Deep Learning [4.124590489579409]
この論文は予測的不整合を検出し定量化する2つの技術に貢献している。
トレーニングデータのバイアスから不整合を緩和するため,本論文では,データ効率のよいサンプリング手法を提案する。
最後に、この論文は、複雑な推論タスクのためにモデルを最適化する2つのテクニックを提供する。
論文 参考訳(メタデータ) (2025-04-03T13:40:55Z) - Analysis and Visualization of Linguistic Structures in Large Language Models: Neural Representations of Verb-Particle Constructions in BERT [0.0]
本研究では,大言語モデル(LLM)における動詞-助詞の組み合わせの内部表現について検討する。
我々は'agree on'、'come back'、'give up'といった様々な動詞粒子構築のための各層の表現効果を分析する。
その結果,BERTの中間層は,各動詞カテゴリの表現精度に有意なばらつきがあり,構文構造を効果的に捉えていることがわかった。
論文 参考訳(メタデータ) (2024-12-19T09:21:39Z) - Explaining Text Similarity in Transformer Models [52.571158418102584]
説明可能なAIの最近の進歩により、トランスフォーマーの説明の改善を活用することで、制限を緩和できるようになった。
両線形類似性モデルにおける2次説明の計算のために開発された拡張であるBiLRPを用いて、NLPモデルにおいてどの特徴相互作用が類似性を促進するかを調べる。
我々の発見は、異なる意味的類似性タスクやモデルに対するより深い理解に寄与し、新しい説明可能なAIメソッドが、どのようにして深い分析とコーパスレベルの洞察を可能にするかを強調した。
論文 参考訳(メタデータ) (2024-05-10T17:11:31Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - Modeling Target-Side Morphology in Neural Machine Translation: A
Comparison of Strategies [72.56158036639707]
形態的に豊かな言語は機械翻訳に困難をもたらす。
多数の異なる屈折する単語曲面は、より大きな語彙を必要とする。
いくつかの頻度の低い用語は、通常、トレーニングコーパスには現れない。
言語的合意は、出力文中の屈折語形間の文法的カテゴリを正しく一致させる必要がある。
論文 参考訳(メタデータ) (2022-03-25T10:13:20Z) - A Latent-Variable Model for Intrinsic Probing [93.62808331764072]
固有プローブ構築のための新しい潜在変数定式化を提案する。
我々は、事前訓練された表現が言語間交互に絡み合ったモルフォシンタクスの概念を発達させる経験的証拠を見出した。
論文 参考訳(メタデータ) (2022-01-20T15:01:12Z) - Schr\"odinger's Tree -- On Syntax and Neural Language Models [10.296219074343785]
言語モデルは、NLPのワークホースとして登場し、ますます流動的な生成能力を示している。
我々は、多くの次元にまたがる明瞭さの欠如を観察し、研究者が形成する仮説に影響を及ぼす。
本稿では,構文研究における様々な研究課題の意義について概説する。
論文 参考訳(メタデータ) (2021-10-17T18:25:23Z) - Under the Microscope: Interpreting Readability Assessment Models for
Filipino [0.0]
フィリピンにおける機械学習に基づく可読性評価モデルを,グローバルモデルとローカルモデルによる解釈によって識別する。
その結果,大域的解釈から上位特徴を学習したモデルを用いることで,スピアマン相関による特徴を用いたモデルよりも高い性能が得られることがわかった。
論文 参考訳(メタデータ) (2021-10-01T01:27:10Z) - Interpretable Deep Learning: Interpretations, Interpretability,
Trustworthiness, and Beyond [49.93153180169685]
一般に混同される2つの基本的な概念(解釈と解釈可能性)を紹介・明らかにする。
我々は,新しい分類法を提案することにより,異なる視点から,最近のいくつかの解釈アルゴリズムの設計を詳細に述べる。
信頼される」解釈アルゴリズムを用いてモデルの解釈可能性を評価する上での既存の作業をまとめる。
論文 参考訳(メタデータ) (2021-03-19T08:40:30Z) - Enriching Non-Autoregressive Transformer with Syntactic and
SemanticStructures for Neural Machine Translation [54.864148836486166]
本稿では,言語の明示的な構文構造と意味構造を非自己回帰トランスフォーマーに組み込むことを提案する。
我々のモデルは、最先端の非自己回帰モデルと比較して翻訳品質を保ちながら、はるかに高速な速度を実現している。
論文 参考訳(メタデータ) (2021-01-22T04:12:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。