論文の概要: LLM-D12: A Dual-Dimensional Scale of Instrumental and Relational Dependencies on Large Language Models
- arxiv url: http://arxiv.org/abs/2506.06874v1
- Date: Sat, 07 Jun 2025 17:42:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.540723
- Title: LLM-D12: A Dual-Dimensional Scale of Instrumental and Relational Dependencies on Large Language Models
- Title(参考訳): LLM-D12:大規模言語モデルにおけるインストゥルメンタルとリレーショナルの2次元尺度
- Authors: Ala Yankouskaya, Areej B. Babiker, Syeda W. F. Rizvi, Sameha Alshakhsi, Magnus Liebherr, Raian Ali,
- Abstract要約: 人々が大規模言語モデル(LLM)とどのように相互作用するかを理解することへの関心が高まっている。
LLM-D12(LLM-D12)とよばれるLCM依存度を測定する新しい12項目アンケートを開発し,その妥当性を検証した。
このスケールは、著者の以前の理論的研究に基づいており、それに応じてアイテムが開発され、イギリスで526人の参加者から回答が集められた。
- 参考スコア(独自算出の注目度): 0.32985979395737786
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There is growing interest in understanding how people interact with large language models (LLMs) and whether such models elicit dependency or even addictive behaviour. Validated tools to assess the extent to which individuals may become dependent on LLMs are scarce and primarily build on classic behavioral addiction symptoms, adapted to the context of LLM use. We view this as a conceptual limitation, as the LLM-human relationship is more nuanced and warrants a fresh and distinct perspective. To address this gap, we developed and validated a new 12-item questionnaire to measure LLM dependency, referred to as LLM-D12. The scale was based on the authors' prior theoretical work, with items developed accordingly and responses collected from 526 participants in the UK. Exploratory and confirmatory factor analyses, performed on separate halves of the total sample using a split-sample approach, supported a two-factor structure: Instrumental Dependency (six items) and Relationship Dependency (six items). Instrumental Dependency reflects the extent to which individuals rely on LLMs to support or collaborate in decision-making and cognitive tasks. Relationship Dependency captures the tendency to perceive LLMs as socially meaningful, sentient, or companion-like entities. The two-factor structure demonstrated excellent internal consistency and clear discriminant validity. External validation confirmed both the conceptual foundation and the distinction between the two subscales. The psychometric properties and structure of our LLM-D12 scale were interpreted in light of the emerging view that dependency on LLMs does not necessarily indicate dysfunction but may still reflect reliance levels that could become problematic in certain contexts.
- Abstract(参考訳): 人々が大規模言語モデル(LLM)とどのように相互作用するか、そしてそのようなモデルが依存を惹起するか、あるいは中毒的行動をも引き起こすのかを理解することへの関心が高まっている。
個人がLSMに依存する程度を評価するための検証されたツールは乏しく、主にLSMの使用状況に適応した古典的な行動依存症症状に基づいている。
LLM-人間関係はよりニュアンスが高く、新しくて明確な視点を保証しているため、私たちはこれを概念的な制限と見なしています。
このギャップに対処するために, LLM-D12 と呼ばれる LLM 依存度を測定する新しい 12 項目のアンケートを開発し, 検証した。
このスケールは、著者の以前の理論的研究に基づいており、それに応じてアイテムが開発され、イギリスで526人の参加者から回答が集められた。
計器依存(6項目)と関係依存(6項目)という2要素構造を支持した。
機器依存は、個人が意思決定や認知タスクを支援したり協力したりするためにLLMに依存する範囲を反映している。
関係依存は、LLMを社会的に有意義、知覚的、または同伴的な存在として知覚する傾向を捉えている。
2因子構造は, 優れた内部整合性と明瞭な識別妥当性を示した。
外的検証は概念的基礎と2つの下位尺度の区別の両方を確認した。
LLM-D12スケールの心理測定特性と構造は、LLMへの依存は必ずしも機能不全を示すものではないが、特定の文脈で問題となる可能性のある信頼レベルを反映している、という新たな見方を反映して解釈された。
関連論文リスト
- Latent Factor Models Meets Instructions: Goal-conditioned Latent Factor Discovery without Task Supervision [50.45597801390757]
Instruct-LFはゴール指向の潜在因子発見システムである。
命令フォロー機能と統計モデルを統合して、ノイズの多いデータセットを処理する。
論文 参考訳(メタデータ) (2025-02-21T02:03:08Z) - Cognitive phantoms in LLMs through the lens of latent variables [0.3441021278275805]
大規模言語モデル(LLM)はますます現実のアプリケーションに到達し、それらの振る舞いをよりよく理解する必要がある。
近年のLCMに対する心理測定調査では、LLMの人間らしい特徴が報告されており、潜在的に影響する可能性がある。
このアプローチは有効性の問題に悩まされており、これらの特性がLLMに存在し、人間用に設計されたツールで測定可能であることを前提としている。
本研究では,人間と3人のLDMの潜在的性格構造を2つの評価されたパーソナリティアンケートを用いて比較することにより,この問題を考察する。
論文 参考訳(メタデータ) (2024-09-06T12:42:35Z) - Potential and Limitations of LLMs in Capturing Structured Semantics: A Case Study on SRL [78.80673954827773]
大きな言語モデル(LLM)は、言語理解を高め、解釈可能性を改善し、バイアスを減らすために構造化セマンティクスをキャプチャする上で重要な役割を果たす。
セマンティック・ロール・ラベルリング(SRL)を,構造化意味論を抽出するLLMの能力を探るための基本課題として用いることを提案する。
LLMは実際にセマンティック構造をキャプチャすることができ、スケールアップは常にポテンシャルを反映するわけではない。
エラーのかなりの重複は、LLMと訓練されていない人間の両方によって行われ、全てのエラーの約30%を占めることに私たちは驚いています。
論文 参考訳(メタデータ) (2024-05-10T11:44:05Z) - Explaining Large Language Models Decisions Using Shapley Values [1.223779595809275]
大規模言語モデル(LLM)は、人間の行動や認知過程をシミュレートするエキサイティングな可能性を開いた。
しかし, LLMを人体用スタンドインとして活用する妥当性は, いまだに不明である。
本稿では,モデルの出力に対する各プロンプト成分の相対的寄与を定量化するために,シェープリー値に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-03-29T22:49:43Z) - Do LLM Agents Exhibit Social Behavior? [5.094340963261968]
State-Understanding-Value-Action (SUVA) は、社会的文脈における応答を体系的に分析するフレームワークである。
最終決定とそれにつながる反応生成プロセスの両方を通じて社会的行動を評価する。
発話に基づく推論がLLMの最終動作を確実に予測できることを実証する。
論文 参考訳(メタデータ) (2023-12-23T08:46:53Z) - Do LLMs exhibit human-like response biases? A case study in survey
design [66.1850490474361]
大規模言語モデル(LLM)が人間の反応バイアスをどの程度反映しているかについて検討する。
アンケート調査では, LLMが人間のような応答バイアスを示すかどうかを評価するためのデータセットとフレームワークを設計した。
9つのモデルに対する総合的な評価は、一般のオープンかつ商用のLCMは、一般的に人間のような振る舞いを反映しないことを示している。
論文 参考訳(メタデータ) (2023-11-07T15:40:43Z) - Revisiting the Reliability of Psychological Scales on Large Language Models [62.57981196992073]
本研究の目的は,大規模言語モデルにパーソナリティアセスメントを適用することの信頼性を明らかにすることである。
GPT-3.5、GPT-4、Gemini-Pro、LLaMA-3.1などのモデル毎の2,500設定の分析により、様々なLCMがビッグファイブインベントリに応答して一貫性を示すことが明らかになった。
論文 参考訳(メタデータ) (2023-05-31T15:03:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。