論文の概要: Tutoring Large Language Models to be Domain-adaptive, Precise, and Safe
- arxiv url: http://arxiv.org/abs/2602.13860v1
- Date: Sat, 14 Feb 2026 19:45:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 14:17:28.520199
- Title: Tutoring Large Language Models to be Domain-adaptive, Precise, and Safe
- Title(参考訳): 大規模言語モデルをドメイン適応、正確、安全にチューニングする
- Authors: Somnath Banerjee,
- Abstract要約: 「責任インテリジェンス」は、大規模言語モデルの膨大な生成力を現実の展開の厳密な要求と整合させるために設計されたフレームワークである。
本研究は, 技術的精度を確保するための領域適応, 敵の脆弱性を軽減するための倫理的厳格性, グローバルな傾きを促進するための文化的・マルチリンガルなアライメントの3つの相互接続スレッドをナビゲートする。
- 参考スコア(独自算出の注目度): 1.455557560509524
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The overarching research direction of this work is the development of a ''Responsible Intelligence'' framework designed to reconcile the immense generative power of Large Language Models (LLMs) with the stringent requirements of real-world deployment. As these models become a transformative force in artificial intelligence, there is an urgent need to move beyond general-purpose architectures toward systems that are contextually aware, inherently safer, and deeply respectful of global cultural nuances. This research navigates three interconnected threads: domain adaptation to ensure technical precision, ethical rigor to mitigate adversarial vulnerabilities, and cultural/multilingual alignment to promote global inclusivity. The methodological trajectory moves from classical supervised adaptation for task-specific demands to decoding-time alignment for safety, finally leveraging human feedback and preference modeling to achieve sociolinguistic acuity.
- Abstract(参考訳): この研究の包括的な研究方向性は、大規模言語モデル(LLM)の膨大な生成力を現実の展開の厳密な要求と整合させるために設計された'責任知性'フレームワークの開発である。
これらのモデルが人工知能の変革の力になるにつれて、文脈的に認識され、本質的に安全であり、グローバルな文化的ニュアンスを深く尊重するシステムへと、汎用アーキテクチャを超えて移行する必要がある。
本研究は, 技術的精度を確保するための領域適応, 敵の脆弱性を軽減するための倫理的厳格性, グローバルな傾きを促進するための文化的・マルチリンガルなアライメントの3つの相互接続スレッドをナビゲートする。
この手法は,古典的教師付き適応から安全のための復号時間アライメントへと移行し,最終的に人間のフィードバックと嗜好モデルを活用し,社会言語学的な目的を達成する。
関連論文リスト
- From Word to World: Can Large Language Models be Implicit Text-based World Models? [82.47317196099907]
エージェント強化学習は、経験駆動のスケーリングにますます依存している。
世界モデルは、シミュレートされた経験を通して学習効率を改善する潜在的方法を提供する。
大規模言語モデルがこの役割を確実に果たせるか,どのような条件でエージェントに有意義な利益をもたらすかを検討する。
論文 参考訳(メタデータ) (2025-12-21T17:28:42Z) - A Survey on Post-training of Large Language Models [185.51013463503946]
大規模言語モデル(LLM)は、自然言語処理を根本的に変革し、会話システムから科学的探索まで、さまざまな領域で欠かせないものにしている。
これらの課題は、制限された推論能力、倫理的不確実性、最適なドメイン固有のパフォーマンスといった欠点に対処するために、先進的な訓練後言語モデル(PoLM)を必要とする。
本稿では,タスク固有の精度を向上するファインチューニング,倫理的コヒーレンスと人間の嗜好との整合性を保証するアライメント,報酬設計の課題によらず多段階の推論を進める推論,統合と適応の5つのパラダイムを体系的に追跡したPoLMの総合的な調査について述べる。
論文 参考訳(メタデータ) (2025-03-08T05:41:42Z) - Robotic World Model: A Neural Network Simulator for Robust Policy Optimization in Robotics [50.191655141020505]
この研究は、長期水平予測、エラー蓄積、およびsim-to-real転送の課題に対処することで、モデルに基づく強化学習を前進させる。
スケーラブルでロバストなフレームワークを提供することで、現実のアプリケーションにおいて適応的で効率的なロボットシステムを実現することができる。
論文 参考訳(メタデータ) (2025-01-17T10:39:09Z) - Improving Large Language Model (LLM) fidelity through context-aware grounding: A systematic approach to reliability and veracity [0.0]
大規模言語モデル(LLM)は、自然言語処理(NLP)アプリケーションにおいて、ますます高度でユビキタスなものになりつつある。
本稿では,テクストモデルにおける文脈的接地のための新しい枠組みについて述べる。
本研究は, 医療, 法制度, 社会サービスなどのセンシティブな分野におけるLCMの展開に重要な意味を持つ。
論文 参考訳(メタデータ) (2024-08-07T18:12:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。