論文の概要: There Are No Silly Questions: Evaluation of Offline LLM Capabilities from a Turkish Perspective
- arxiv url: http://arxiv.org/abs/2603.09996v1
- Date: Sun, 15 Feb 2026 09:49:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-15 16:38:22.54301
- Title: There Are No Silly Questions: Evaluation of Offline LLM Capabilities from a Turkish Perspective
- Title(参考訳): 疑問の余地はない:トルコの視点からのオフラインLCM能力の評価
- Authors: Edibe Yilmaz, Kahraman Kostas,
- Abstract要約: 本研究の目的は、トルコの伝統言語教育の文脈において、ローカルに展開可能なオフラインLLMの堅牢性と教育的安全性を評価することである。
270Mから32Bパラメータの14種類のモデルで実施された実験により、異常抵抗はモデルスケールにのみ依存していないことが判明した。
その結果,8B-14Bパラメータ範囲の推論指向モデルは,言語学習者にとって,コストセーフティトレードオフの観点から最もバランスのとれたセグメントであることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The integration of large language models (LLMs) into educational processes introduces significant constraints regarding data privacy and reliability, particularly in pedagogically vulnerable contexts such as Turkish heritage language education. This study aims to systematically evaluate the robustness and pedagogical safety of locally deployable offline LLMs within the context of Turkish heritage language education. To this end, a Turkish Anomaly Suite (TAS) consisting of 10 original edge-case scenarios was developed to assess the models' capacities for epistemic resistance, logical consistency, and pedagogical safety. Experiments conducted on 14 different models ranging from 270M to 32B parameters reveal that anomaly resistance is not solely dependent on model scale and that sycophancy bias can pose pedagogical risks even in large-scale models. The findings indicate that reasoning-oriented models in the 8B--14B parameter range represent the most balanced segment in terms of cost-safety trade-off for language learners.
- Abstract(参考訳): 大規模言語モデル(LLM)の教育プロセスへの統合は、特にトルコの遺産言語教育のような教育上の脆弱な文脈において、データのプライバシと信頼性に関する重大な制約をもたらす。
本研究の目的は、トルコの遺産言語教育の文脈において、ローカルに展開可能なオフラインLCMの堅牢性と教育的安全性を体系的に評価することである。
この目的のために、トルコのAnomaly Suite (TAS) は10のエッジケースのシナリオで構成され、疫病抵抗性、論理的一貫性、教育的安全性に関するモデルの能力を評価するために開発された。
270Mから32Bパラメータの14種類のモデルで実施された実験では、異常な抵抗はモデルスケールにのみ依存せず、大規模なモデルにおいても薬効バイアスが教育的リスクをもたらすことが示された。
その結果,8B-14Bパラメータ範囲の推論指向モデルは,言語学習者にとって,コストセーフティトレードオフの観点から最もバランスのとれたセグメントであることがわかった。
関連論文リスト
- CASTLE: A Comprehensive Benchmark for Evaluating Student-Tailored Personalized Safety in Large Language Models [55.0103764229311]
本稿では,学生用個人安全の概念を提案し,教育理論に基づくCASTLEの構築を行う。
このベンチマークは、92,908のバイリンガルシナリオを含む15の教育安全リスクと14の学生属性をカバーしている。
論文 参考訳(メタデータ) (2026-02-05T13:13:19Z) - Simulating a Bias Mitigation Scenario in Large Language Models [0.0]
大規模言語モデル(LLM)は、自然言語処理の分野を根本的に変えてきた。
しかし、バイアスに対する彼らの脆弱性は、公平さと信頼の両方を脅かす顕著な障害を示します。
本総説では,LLMにおけるバイアスの背景を広範囲に解析し,そのルーツと表現を様々なNLPタスクにわたって追跡する。
論文 参考訳(メタデータ) (2025-09-17T21:22:33Z) - Circumventing Safety Alignment in Large Language Models Through Embedding Space Toxicity Attenuation [13.971909819796762]
大規模言語モデル(LLM)は、医療、教育、サイバーセキュリティといった分野で大きな成功を収めている。
埋め込み空間中毒は、敵が入力データの内部意味表現を操作して安全アライメント機構をバイパスする微妙な攻撃ベクトルである。
本稿では,線形変換による埋め込み空間における毒性感受性次元の同定と減衰を行う新しいフレームワークETTAを提案する。
論文 参考訳(メタデータ) (2025-07-08T03:01:00Z) - Bridging the Bosphorus: Advancing Turkish Large Language Models through Strategies for Low-Resource Language Adaptation and Benchmarking [1.3716808114696444]
大規模言語モデル(LLM)は様々な分野において重要になってきており、表現不足の言語における高品質なモデルの緊急性を強調している。
本研究では、データ不足、モデル選択、評価、計算制限など、低リソース言語が直面する固有の課題について検討する。
論文 参考訳(メタデータ) (2024-05-07T21:58:45Z) - Unveiling the Misuse Potential of Base Large Language Models via In-Context Learning [61.2224355547598]
大規模言語モデル(LLM)のオープンソース化は、アプリケーション開発、イノベーション、科学的進歩を加速させる。
我々の調査は、この信念に対する重大な監視を露呈している。
我々の研究は、慎重に設計されたデモを配置することにより、ベースLSMが悪意のある命令を効果的に解釈し実行できることを実証する。
論文 参考訳(メタデータ) (2024-04-16T13:22:54Z) - Emulated Disalignment: Safety Alignment for Large Language Models May Backfire! [65.06450319194454]
大きな言語モデル(LLM)は、人間との安全な会話を確保するために安全アライメントを行う。
本稿では,安全アライメントの反転が可能なトレーニングフリーアタック手法を提案する。
本手法をエミュレートした脱アライメント (ED) と呼ぶのは, このコントラスト分布からのサンプリングは, 安全報酬を最小限に抑えるため, 微調整の結果を確実にエミュレートするからである。
論文 参考訳(メタデータ) (2024-02-19T18:16:51Z) - Uncertainty Quantification for In-Context Learning of Large Language Models [52.891205009620364]
大規模言語モデル(LLM)の画期的な能力として、文脈内学習が登場している。
両タイプの不確かさを定量化するための新しい定式化法とそれに対応する推定法を提案する。
提案手法は、プラグイン・アンド・プレイ方式でコンテキスト内学習の予測を理解するための教師なしの方法を提供する。
論文 参考訳(メタデータ) (2024-02-15T18:46:24Z) - From Mimicking to Integrating: Knowledge Integration for Pre-Trained
Language Models [55.137869702763375]
本稿では,新しいPLM再利用パラダイムであるKnowledge Integration(KI)について検討する。
KIは,異なる分類問題に特化している教師-PLMの知識を,多種多様な学生モデルにマージすることを目的としている。
次に,モデル不確かさを意識した知識統合(MUKI)フレームワークを設計し,学生の黄金の監督を回復する。
論文 参考訳(メタデータ) (2022-10-11T07:59:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。