論文の概要: Developing and Validating the Arabic Version of the Attitudes Toward Large Language Models Scale
- arxiv url: http://arxiv.org/abs/2510.13009v1
- Date: Tue, 14 Oct 2025 21:56:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.432461
- Title: Developing and Validating the Arabic Version of the Attitudes Toward Large Language Models Scale
- Title(参考訳): 大規模言語モデルへの態度のアラビア版の開発と検証
- Authors: Basad Barajeeh, Ala Yankouskaya, Sameha AlShakhsi, Chun Sing Maxwell Ho, Guandong Xu, Raian Ali,
- Abstract要約: 2つの尺度であるAT-GLLMとAT-PLLMを翻訳し、249人のアラビア語話者のサンプルを用いて検証した。
結果は、アラビア語に翻訳されたこの尺度が、アラブ人や言語に使える信頼性が高く有効なツールであることを示している。
- 参考スコア(独自算出の注目度): 5.371954946374285
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: As the use of large language models (LLMs) becomes increasingly global, understanding public attitudes toward these systems requires tools that are adapted to local contexts and languages. In the Arab world, LLM adoption has grown rapidly with both globally dominant platforms and regional ones like Fanar and Jais offering Arabic-specific solutions. This highlights the need for culturally and linguistically relevant scales to accurately measure attitudes toward LLMs in the region. Tools assessing attitudes toward artificial intelligence (AI) can provide a base for measuring attitudes specific to LLMs. The 5-item Attitudes Toward Artificial Intelligence (ATAI) scale, which measures two dimensions, the AI Fear and the AI Acceptance, has been recently adopted and adapted to develop new instruments in English using a sample from the UK: the Attitudes Toward General LLMs (AT-GLLM) and Attitudes Toward Primary LLM (AT-PLLM) scales. In this paper, we translate the two scales, AT-GLLM and AT-PLLM, and validate them using a sample of 249 Arabic-speaking adults. The results show that the scale, translated into Arabic, is a reliable and valid tool that can be used for the Arab population and language. Psychometric analyses confirmed a two-factor structure, strong measurement invariance across genders, and good internal reliability. The scales also demonstrated strong convergent and discriminant validity. Our scales will support research in a non-Western context, a much-needed effort to help draw a global picture of LLM perceptions, and will also facilitate localized research and policy-making in the Arab region.
- Abstract(参考訳): 大規模言語モデル(LLM)の利用がグローバル化するにつれて、これらのシステムに対する大衆の態度を理解するには、ローカルな文脈や言語に適応するツールが必要である。
アラブ世界では、LLMの採用が急速に増加し、世界的に支配的なプラットフォームと、ファナールやジャイアのような地域がアラビア語固有のソリューションを提供している。
このことは、地域のLSMに対する態度を正確に測定するために、文化的、言語学的に関係のある尺度の必要性を強調している。
人工知能(AI)に対する態度を評価するツールは、LLM特有の姿勢を測定する基盤を提供することができる。
AI FearとAI Acceptanceの2つの次元を計測するATAI(Attitudes toward Artificial Intelligence)スケールは、最近採用され、英国からのサンプルであるAT-GLLM(Attitudes towards General LLM)スケールとAT-PLLM(Attitudes Toward Primary LLM)スケールを使用して、英語で新しい楽器を開発するように適応している。
本稿では2つの尺度であるAT-GLLMとAT-PLLMを翻訳し、249人のアラビア語話者のサンプルを用いて検証する。
結果は、アラビア語に翻訳されたこの尺度が、アラブ人や言語に使える信頼性が高く有効なツールであることを示している。
心理的分析により,2要素構造,性差の強い測定結果,内的信頼性が良好であることが確認された。
尺度はまた、強い収束性と差別的妥当性を示した。
当社のスケールは、LLMのグローバルな認識図作成を支援するため、非西洋の文脈での研究を支援するとともに、アラブ地域における局所的な研究と政策策定を促進する。
関連論文リスト
- BALSAM: A Platform for Benchmarking Arabic Large Language Models [34.50348949235453]
BALSAMは、アラビア語のLLM開発と評価を進めることを目的とした総合的なコミュニティ主導のベンチマークである。
14の幅広いカテゴリから78のNLPタスクが含まれており、52Kのサンプルは37Kテストと15K開発に分割されている。
論文 参考訳(メタデータ) (2025-07-30T12:16:39Z) - Jawaher: A Multidialectal Dataset of Arabic Proverbs for LLM Benchmarking [12.078532717928185]
大型言語モデル(LLM)は、西洋文化、アングロ・セントリック文化、アメリカ文化への偏見を示し続けている。
我々は、アラビア語の証明を理解し解釈するLLMの能力を評価するために設計されたベンチマークであるJawaherを紹介する。
LLMは慣用的に正確な翻訳を生成できるが、文化的にニュアンスで文脈的に関係のある説明を生み出すのに苦労している。
論文 参考訳(メタデータ) (2025-02-28T22:28:00Z) - Can Large Language Models Predict the Outcome of Judicial Decisions? [0.0]
大規模言語モデル(LLM)は自然言語処理(NLP)において例外的な機能を示す。
LLaMA-3.2-3B や LLaMA-3.1-8B を含む最先端のオープンソース LLM を様々な構成でベンチマークする。
本結果は,タスク固有のコンテキストにおいて,細調整された小型モデルが大規模モデルに匹敵する性能を実現することを示す。
論文 参考訳(メタデータ) (2025-01-15T11:32:35Z) - Second Language (Arabic) Acquisition of LLMs via Progressive Vocabulary Expansion [70.23624194206171]
本稿では,アラブ世界における大規模言語モデル(LLM)の民主化の必要性に対処する。
アラビア語のLLMの実用的な目的の1つは、復号を高速化するトークン化器にアラビア語固有の語彙を使用することである。
第二言語(アラビア語)による人への獲得の間に語彙学習に触発されたAraLLaMAは、進歩的な語彙拡張を採用している。
論文 参考訳(メタデータ) (2024-12-16T19:29:06Z) - Better to Ask in English: Cross-Lingual Evaluation of Large Language
Models for Healthcare Queries [31.82249599013959]
大規模言語モデル(LLM)は、一般大衆が情報にアクセスし消費する方法を変えつつある。
LLMは印象的な言語理解と生成能力を示しているが、その安全性に関する懸念は依然として最重要である。
これらのLLMが非英語の文脈でどのように機能するかは、まだ不明である。
論文 参考訳(メタデータ) (2023-10-19T20:02:40Z) - AceGPT, Localizing Large Language Models in Arabic [73.39989503874634]
本稿では,アラビア語のテキストによる事前学習,ネイティブなアラビア語命令を利用したSFT(Supervised Fine-Tuning),アラビア語のGPT-4応答を含む総合的なソリューションを提案する。
目標は、文化的に認知され、価値に整合したアラビア語のLLMを、多様で応用特有のアラビア語コミュニティのニーズに適応させることである。
論文 参考訳(メタデータ) (2023-09-21T13:20:13Z) - A Survey of Large Language Models [81.06947636926638]
言語モデリングは、過去20年間、言語理解と生成のために広く研究されてきた。
近年,大規模コーパス上でのトランスフォーマーモデルの事前学習により,事前学習言語モデル (PLM) が提案されている。
パラメータスケールの違いを識別するために、研究コミュニティは大規模言語モデル (LLM) という用語を提唱した。
論文 参考訳(メタデータ) (2023-03-31T17:28:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。