論文の概要: Bridging Human Interpretation and Machine Representation: A Landscape of Qualitative Data Analysis in the LLM Era
- arxiv url: http://arxiv.org/abs/2601.11739v1
- Date: Fri, 16 Jan 2026 19:47:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.305885
- Title: Bridging Human Interpretation and Machine Representation: A Landscape of Qualitative Data Analysis in the LLM Era
- Title(参考訳): ブリッジング人間解釈と機械表現:LLM時代の質的データ分析のランドスケープ
- Authors: Xinyu Pi, Qisen Yang, Chuong Nguyen, Hua Shen,
- Abstract要約: 4段階のモデリングで4段階の意味作りを4段階に分けた4$times$4のランドスケープを紹介した。
ランドスケープをLLMベースの自動化に適用すると、低レベルの意味と低コミット表現に対する強い歪が浮き彫りになる。
- 参考スコア(独自算出の注目度): 13.819368368469348
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: LLMs are increasingly used to support qualitative research, yet existing systems produce outputs that vary widely--from trace-faithful summaries to theory-mediated explanations and system models. To make these differences explicit, we introduce a 4$\times$4 landscape crossing four levels of meaning-making (descriptive, categorical, interpretive, theoretical) with four levels of modeling (static structure, stages/timelines, causal pathways, feedback dynamics). Applying the landscape to prior LLM-based automation highlights a strong skew toward low-level meaning and low-commitment representations, with few reliable attempts at interpretive/theoretical inference or dynamical modeling. Based on the revealed gap, we outline an agenda for applying and building LLM-systems that make their interpretive and modeling commitments explicit, selectable, and governable.
- Abstract(参考訳): LLMは定性的な研究を支援するために使われることが多いが、既存のシステムは、トレースに忠実な要約から理論による説明やシステムモデルまで、様々な出力を生成する。
これらの差異を明確にするために,4つの意味形成レベル(記述的,分類的,解釈的,理論的)と4つのモデリングレベル(静的構造,ステージ/タイムライン,因果経路,フィードバックダイナミクス)を横断する4$\times$4のランドスケープを導入する。
ランドスケープをLLMベースの自動化に適用することは、解釈的/理論的推論や動的モデリングの信頼性を損なうことなく、低レベルの意味と低コミットメント表現への強い歪を浮き彫りにする。
得られたギャップに基づいて、我々は、その解釈とモデリングのコミットメントを明確にし、選択可能で、統制可能なLCMシステムを適用し、構築するための議題を概説する。
関連論文リスト
- Automated Interpretation of Non-Destructive Evaluation Contour Maps Using Large Language Models for Bridge Condition Assessment [0.0]
橋の維持と安全は交通機関にとって不可欠である。
非破壊的評価(NDE)技術は構造的整合性を評価する上で重要である。
大規模言語モデル(LLM)の最近の進歩は、この分析を自動化し改善する新しい方法を提供する。
論文 参考訳(メタデータ) (2025-07-18T17:39:03Z) - A Survey on Mechanistic Interpretability for Multi-Modal Foundation Models [74.48084001058672]
基礎モデルの台頭は機械学習の研究に変化をもたらした。
マルチモーダル・ファンデーション・モデル(MMFM)は、ユニモーダル・フレームワークを超えて、ユニークな解釈可能性の課題を提起する。
本研究は,(1)多モーダルモデルへのLLM解釈可能性法の適応,(2)単モーダル言語モデルとクロスモーダルシステムとの機械的差異の理解の2つの重要な側面について考察する。
論文 参考訳(メタデータ) (2025-02-22T20:55:26Z) - Exploring the Frontier of Vision-Language Models: A Survey of Current Methodologies and Future Directions [31.71954519657729]
VLM(Vision-Language Models)は、画像キャプションや視覚的質問応答といった複雑なタスクに対処できる高度なモデルである。
我々の分類では、VLMを視覚言語理解専用のモデル、マルチモーダル入力を処理するモデル、マルチモーダル入力とアウトプットの両方を受け付け、生成するモデルという3つのカテゴリに分類する。
我々は各モデルを慎重に識別し、基礎となるアーキテクチャ、データソースのトレーニング、および可能な限りの強度と限界を広範囲に分析する。
論文 参考訳(メタデータ) (2024-02-20T18:57:34Z) - Can Large Language Models Understand Context? [17.196362853457412]
本稿では,生成モデルの評価に適合する既存のデータセットを適応させることにより,文脈理解ベンチマークを提案する。
実験結果から, 事前学習された高密度モデルでは, 最先端の微調整モデルと比較して, よりニュアンスな文脈特徴の理解に苦慮していることが明らかとなった。
LLM圧縮は研究と実世界のアプリケーションの両方において重要度が高くなっているため、文脈学習環境下での量子化モデルの文脈理解を評価する。
論文 参考訳(メタデータ) (2024-02-01T18:55:29Z) - From Understanding to Utilization: A Survey on Explainability for Large
Language Models [27.295767173801426]
この調査は、Large Language Models (LLMs) における説明可能性の向上を示唆している。
主に、トレーニング済みの Transformer ベースの LLM に重点を置いています。
説明可能性の活用を考える際に、モデル編集、制御生成、モデル拡張に集中するいくつかの魅力的な方法を検討する。
論文 参考訳(メタデータ) (2024-01-23T16:09:53Z) - Sparsity-Guided Holistic Explanation for LLMs with Interpretable
Inference-Time Intervention [53.896974148579346]
大規模言語モデル(LLM)は、様々な自然言語処理領域において前例のないブレークスルーを達成した。
LLMの謎的なブラックボックスの性質は、透過的で説明可能なアプリケーションを妨げる、解釈可能性にとって重要な課題である。
本稿では,LLMの全体的解釈を提供することを目的として,スポーシティ誘導技術に係わる新しい方法論を提案する。
論文 参考訳(メタデータ) (2023-12-22T19:55:58Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Fine-tuning Multimodal LLMs to Follow Zero-shot Demonstrative Instructions [126.3136109870403]
汎用的で軽量なVisual Prompt Generator Complete Module (VPG-C)を導入する。
VPG-Cは、実証的な指示を解釈するために欠落した詳細を推測し、完成する。
私たちは、実証的な命令理解のための包括的なベンチマークであるDEMONを構築します。
論文 参考訳(メタデータ) (2023-08-08T09:32:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。