論文の概要: Scaling In, Not Up? Testing Thick Citation Context Analysis with GPT-5 and Fragile Prompts
- arxiv url: http://arxiv.org/abs/2602.22359v1
- Date: Wed, 25 Feb 2026 19:33:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.387593
- Title: Scaling In, Not Up? Testing Thick Citation Context Analysis with GPT-5 and Fragile Prompts
- Title(参考訳): GPT-5とFragile Promptsを用いた厚みクッションコンテキスト解析
- Authors: Arno Simons,
- Abstract要約: 本稿では,大言語モデルが解釈的引用文脈分析をサポートできるかを検証する。
即時足場やフレーミングの変化による方法論上の問題として、即時感度分析を先導する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper tests whether large language models (LLMs) can support interpretative citation context analysis (CCA) by scaling in thick, text-grounded readings of a single hard case rather than scaling up typological labels. It foregrounds prompt-sensitivity analysis as a methodological issue by varying prompt scaffolding and framing in a balanced 2x3 design. Using footnote 6 in Chubin and Moitra (1975) and Gilbert's (1977) reconstruction as a probe, I implement a two-stage GPT-5 pipeline: a citation-text-only surface classification and expectation pass, followed by cross-document interpretative reconstruction using the citing and cited full texts. Across 90 reconstructions, the model produces 450 distinct hypotheses. Close reading and inductive coding identify 21 recurring interpretative moves, and linear probability models estimate how prompt choices shift their frequencies and lexical repertoire. GPT-5's surface pass is highly stable, consistently classifying the citation as "supplementary". In reconstruction, the model generates a structured space of plausible alternatives, but scaffolding and examples redistribute attention and vocabulary, sometimes toward strained readings. Relative to Gilbert, GPT-5 detects the same textual hinges yet more often resolves them as lineage and positioning than as admonishment. The study outlines opportunities and risks of using LLMs as guided co-analysts for inspectable, contestable interpretative CCA, and it shows that prompt scaffolding and framing systematically tilt which plausible readings and vocabularies the model foregrounds.
- Abstract(参考訳): 本稿では,大言語モデル (LLM) が, タイプ的ラベルをスケールアップするのではなく, 1つのハードケースの厚みのあるテキストグラウンドの読み出しを拡大することにより, 解釈的引用文脈解析 (CCA) をサポートできるかどうかを検証する。
これは、バランスの取れた2x3設計において、急進的な足場とフレーミングを変化させることで、手法上の問題としてプロンプト感度分析を先導する。
注記6 in Chubin and Moitra (1975) and Gilbert's (1977) reconstruction as a probe, I implement a two-stage GPT-5 pipeline: a citation-text-only surface classification and expectation pass, followed by cross-document interpretative reconstruction using the quote and reference full texts。
90回の復元で、モデルは450の異なる仮説を導出する。
クローズリーディングとインダクティブコーディングは、21の繰り返し解釈的な動きを識別し、線形確率モデルは、迅速な選択が周波数と語彙レパートリーをどのようにシフトするかを推定する。
GPT-5の表面通過は非常に安定しており、常に励起を「補助的」と分類している。
復元において、モデルは可塑性な代替品の構造空間を生成するが、足場や例は注意と語彙を再分割し、時折歪んだ読み物に向ける。
ギルバートとは対照的に、GPT-5は同一の文字のヒンジを検知するが、しばしばそれらが指示よりも系統や位置として解決する。
この研究は、LLMを検査可能な解釈的CCAのためのガイド付きコアナリストとして使用する機会とリスクを概説し、モデルフォアグラウンドの読みや語彙を、足場やフレーミングによって体系的に傾けることを示す。
関連論文リスト
- LLM Reasoning Predicts When Models Are Right: Evidence from Coding Classroom Discourse [0.18268488712787334]
大規模言語モデル(LLM)は、大規模に教育対話を自動的にラベル付けし分析するために、ますます多くデプロイされている。
本研究では,LLMが生成した推論がモデル自身の予測の正確性を予測するのに有効かどうかを検討する。
授業の対話から30,300人の教師の発話を分析し,複数の最先端LPMでラベル付けし,指導的移動構造とそれに伴う推論を行った。
論文 参考訳(メタデータ) (2026-02-10T14:38:13Z) - Spectral Archaeology: The Causal Topology of Model Evolution [0.0]
振る舞いベンチマークは、モデルが何をするかをTextithowに教えてくれますが、textithowではありません。
本研究では,アテンショングラフスペクトルを用いた無トレーニングメカニスティックプローブを提案する。
12のモデルと10の言語にまたがって、標準評価で欠落した不連続を露呈する「安定な指紋」が得られる。
論文 参考訳(メタデータ) (2026-01-06T21:26:54Z) - SCALEX: Scalable Concept and Latent Exploration for Diffusion Models [59.86284983662119]
画像生成モデルは、しばしば、性別、人種、職業に関連するステレオタイプを含む社会的バイアスを符号化する。
拡散モデルラテント空間のスケーラブルかつ自動探索のためのフレームワークであるSCALEXを紹介する。
自然言語プロンプトのみを使用して、H空間から意味論的に意味のある方向を抽出し、リトレーニングやラベル付けをせずにゼロショット解釈を可能にする。
論文 参考訳(メタデータ) (2025-11-13T22:02:44Z) - Retrieval is Not Enough: Enhancing RAG Reasoning through Test-Time Critique and Optimization [58.390885294401066]
Retrieval-augmented Generation (RAG) は知識基底型大規模言語モデル(LLM)を実現するためのパラダイムとして広く採用されている。
RAGパイプラインは、モデル推論が得られた証拠と整合性を維持するのに失敗することが多く、事実上の矛盾や否定的な結論につながる。
批判駆動アライメント(CDA)に基づく新しい反復的枠組みであるAlignRAGを提案する。
AlignRAG-autoは、動的に洗練を終了し、批判的な反復回数を事前に指定する必要がなくなる自律的な変種である。
論文 参考訳(メタデータ) (2025-04-21T04:56:47Z) - Discourse Features Enhance Detection of Document-Level Machine-Generated Content [53.41994768824785]
機械生成コンテンツは、学術プラジャリズムや誤報の拡散といった課題を提起する。
既存のMGC検出器は、しばしば表面レベルの情報のみに焦点を当て、暗黙的かつ構造的な特徴を見渡す。
これらの課題を克服するために、新しい方法論とデータセットを導入します。
論文 参考訳(メタデータ) (2024-12-17T08:47:41Z) - Analysing Zero-Shot Readability-Controlled Sentence Simplification [54.09069745799918]
本研究では,異なる種類の文脈情報が,所望の可読性を持つ文を生成するモデルの能力に与える影響について検討する。
結果から,全ての試験されたモデルは,原文の制限や特徴のため,文の簡略化に苦慮していることがわかった。
実験では、RCTSに合わせたより良い自動評価指標の必要性も強調した。
論文 参考訳(メタデータ) (2024-09-30T12:36:25Z) - Discovering Elementary Discourse Units in Textual Data Using Canonical Correlation Analysis [0.0]
本研究は,初等談話単位(EDU)の同定におけるカノニカル相関分析(CCA)の可能性を示すことによって,さらに一歩進める。
モデルは単純で、線形で、適応可能で、言語に依存しないため、特にラベル付きトレーニングデータが不足している場合、理想的なベースラインとなる。
論文 参考訳(メタデータ) (2024-06-18T18:37:24Z) - Markovian Transformers for Informative Language Modeling [1.172865818448696]
CoT(Chain-of-Thought)推論は、しばしば言語モデルの根底にある決定プロセスを忠実に反映しない。
推論オートエンコーダとして理解可能なマルコフ言語モデルフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-29T17:36:58Z) - Mitigating Bias in Text Classification via Prompt-Based Text Transformation [0.2864713389096699]
テキストの書き直しをChatGPTに促すことが、意味を保ちながら人口統計信号を減少させるかどうかを検討する。
その結果, テキスト分類におけるバイアス軽減のための実践的, 一般化可能な手法として, プロンプトベースの書き直しが提案されている。
論文 参考訳(メタデータ) (2023-05-09T13:10:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。