論文の概要: Modeling Professionalism in Expert Questioning through Linguistic Differentiation
- arxiv url: http://arxiv.org/abs/2507.20249v1
- Date: Sun, 27 Jul 2025 12:30:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 16:23:57.358839
- Title: Modeling Professionalism in Expert Questioning through Linguistic Differentiation
- Title(参考訳): 言語分化による専門的質問のモデル化
- Authors: Giulia D'Agostino, Chung-Chi Chen,
- Abstract要約: 本稿では,専門家の質問において,言語的特徴がプロフェッショナル主義のモデル化と評価にどのように活用できるかを検討する。
金融アナリストの質問において、構造的および実用的要素を定量化する新しいアノテーションフレームワークを導入する。
この結果から,プロフェッショナリズムは言語的に基礎づけたモデリングによって獲得可能な,学習可能なドメイン・ジェネラル・コンストラクトであることが示唆された。
- 参考スコア(独自算出の注目度): 4.453606208120688
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Professionalism is a crucial yet underexplored dimension of expert communication, particularly in high-stakes domains like finance. This paper investigates how linguistic features can be leveraged to model and evaluate professionalism in expert questioning. We introduce a novel annotation framework to quantify structural and pragmatic elements in financial analyst questions, such as discourse regulators, prefaces, and request types. Using both human-authored and large language model (LLM)-generated questions, we construct two datasets: one annotated for perceived professionalism and one labeled by question origin. We show that the same linguistic features correlate strongly with both human judgments and authorship origin, suggesting a shared stylistic foundation. Furthermore, a classifier trained solely on these interpretable features outperforms gemini-2.0 and SVM baselines in distinguishing expert-authored questions. Our findings demonstrate that professionalism is a learnable, domain-general construct that can be captured through linguistically grounded modeling.
- Abstract(参考訳): プロフェッショナリズムは、特に金融のような高度な分野において、専門家のコミュニケーションの極めて重要で過小評価されていない次元である。
本稿では,専門家の質問において,言語的特徴がプロフェッショナル主義のモデル化と評価にどのように活用できるかを検討する。
本稿では,金融アナリストの質問に対して,談話規制,序文,要求タイプなどの構造的・実用的要素を定量化する新たなアノテーションフレームワークを提案する。
人為的な言語モデル(LLM)と大規模言語モデル(LLM)の両方を用いて、2つのデータセットを構築した。
また,同じ言語的特徴が人的判断と著者の出自と強く相関していることが示され,文体的基盤の共有が示唆された。
さらに、これらの解釈可能な機能にのみ訓練された分類器は、専門家による質問の区別においてgemini-2.0とSVMのベースラインを上回っている。
この結果から,プロフェッショナリズムは言語的に基礎づけたモデリングによって獲得可能な,学習可能なドメイン・ジェネラル・コンストラクトであることが示唆された。
関連論文リスト
- Data Therapist: Eliciting Domain Knowledge from Subject Matter Experts Using Large Language Models [17.006423792670414]
我々は、ドメインの専門家が混在開始プロセスを通じて暗黙の知識を外部化するのに役立つWebベースのツールであるData Therapistを紹介します。
得られた構造化知識ベースは、人間と自動化された可視化設計の両方に通知することができる。
論文 参考訳(メタデータ) (2025-05-01T11:10:17Z) - Linguistic Interpretability of Transformer-based Language Models: a systematic review [1.3194391758295114]
Transformerアーキテクチャに基づく言語モデルは、多くの言語関連タスクにおいて優れた結果をもたらす。
しかし、それらの内部計算がどのように結果を達成するかは分かっていない。
しかし、「解釈可能性」という一連の研究は、これらのモデル内でどのように情報がエンコードされているかを学ぶことを目的としている。
論文 参考訳(メタデータ) (2025-04-09T08:00:12Z) - The dynamics of meaning through time: Assessment of Large Language Models [2.5864824580604515]
本研究では,様々な大規模言語モデル(LLM)が意味の時間的ダイナミクスを捉える能力を評価することを目的とする。
比較分析にはChatGPT、GPT-4、Claude、Bard、Gemini、Llamaといった著名なモデルが含まれています。
発見は、各モデルの歴史的文脈と意味的シフトの扱いにおいて顕著な違いを示し、時間的意味的理解における強みと制限の両方を強調した。
論文 参考訳(メタデータ) (2025-01-09T19:56:44Z) - Large Language Models as Neurolinguistic Subjects: Discrepancy between Performance and Competence [49.60849499134362]
本研究では,大言語モデル(LLM)の記号化(形式)および記号化(意味)に関する言語的理解について検討する。
ミニマルペアと診断プローブを組み合わせてモデル層間のアクティベーションパターンを解析する新しい手法を用いて,ニューロ言語学的アプローチを提案する。
その結果,(1)心理言語学的・神経言語学的手法では,言語能力と能力が異なっていること,(2)直接確率測定では言語能力が正確に評価されないこと,(3)指導のチューニングでは能力が大きく変化しないが,性能は向上しないことがわかった。
論文 参考訳(メタデータ) (2024-11-12T04:16:44Z) - Trustworthy Alignment of Retrieval-Augmented Large Language Models via Reinforcement Learning [84.94709351266557]
検索強化に関して,言語モデルの信頼性に焦点をあてる。
検索強化言語モデルには,文脈的知識とパラメトリック的知識の両方に応じて応答を供給できる本質的な能力があると考えられる。
言語モデルと人間の嗜好の整合性に着想を得て,検索強化言語モデルを外部証拠にのみ依存する状況に整合させるための第一歩を踏み出した。
論文 参考訳(メタデータ) (2024-10-22T09:25:21Z) - Holmes: A Benchmark to Assess the Linguistic Competence of Language Models [59.627729608055006]
言語モデル(LM)の言語能力を評価するための新しいベンチマークであるHolmesを紹介する。
我々は、計算に基づく探索を用いて、異なる言語現象に関するLMの内部表現を調べる。
その結果,近年,他の認知能力からLMの言語能力を引き離す声が上がっている。
論文 参考訳(メタデータ) (2024-04-29T17:58:36Z) - Do Language Models Learn about Legal Entity Types during Pretraining? [4.604003661048267]
Llama2は特定のエンティティでよく機能し、最適化されたプロンプトテンプレートで大幅に改善する可能性を示す。
Llama2は、BERTベースのアーキテクチャでは欠点の少ない構文的ヒントをしばしば見落としているように見える。
論文 参考訳(メタデータ) (2023-10-19T18:47:21Z) - ExpertQA: Expert-Curated Questions and Attributed Answers [51.68314045809179]
我々は,様々な属性と事実の軸に沿って,いくつかの代表システムからの応答を人為的に評価する。
我々は32分野にわたる484人の被験者から専門家による質問を収集し、同じ専門家に自身の質問に対する反応を評価する。
分析の結果は,32分野にまたがる2177の質問と,回答の検証とクレームの属性を備えた高品質な長文QAデータセットであるExpertQAである。
論文 参考訳(メタデータ) (2023-09-14T16:54:34Z) - Causal Discovery with Language Models as Imperfect Experts [119.22928856942292]
専門知識を用いて因果グラフの同定を改善する方法について検討する。
整合性に基づく専門家の知識を改良するための戦略を提案する。
本稿では,不完全な専門家として大規模言語モデルを用いる実データを用いたケーススタディについて報告する。
論文 参考訳(メタデータ) (2023-07-05T16:01:38Z) - Dissociating language and thought in large language models [52.39241645471213]
大規模言語モデル(LLM)は、人間の言語を習得する上で、今までに最も近いモデルである。
我々は、この区別を人間の神経科学に根ざし、形式的、機能的な能力は異なる神経機構に依存していることを示した。
LLMは形式的能力は驚くほど優れているが、機能的能力のタスクにおける性能はいまだに不明瞭である。
論文 参考訳(メタデータ) (2023-01-16T22:41:19Z) - Modelling Compositionality and Structure Dependence in Natural Language [0.12183405753834563]
言語学と集合論に基づいて、これらの概念の形式化がこの論文の前半で述べられている。
言語処理を行う認知システムは,特定の機能的制約を持つ必要がある。
単語埋め込み技術の進歩を利用して、関係学習のモデルがシミュレートされる。
論文 参考訳(メタデータ) (2020-11-22T17:28:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。