論文の概要: Tutoring Large Language Models to be Domain-adaptive, Precise, and Safe
- arxiv url: http://arxiv.org/abs/2602.13860v1
- Date: Sat, 14 Feb 2026 19:45:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 14:17:28.520199
- Title: Tutoring Large Language Models to be Domain-adaptive, Precise, and Safe
- Title(参考訳): 大規模言語モデルをドメイン適応、正確、安全にチューニングする
- Authors: Somnath Banerjee,
- Abstract要約: 「責任インテリジェンス」は、大規模言語モデルの膨大な生成力を現実の展開の厳密な要求と整合させるために設計されたフレームワークである。
本研究は, 技術的精度を確保するための領域適応, 敵の脆弱性を軽減するための倫理的厳格性, グローバルな傾きを促進するための文化的・マルチリンガルなアライメントの3つの相互接続スレッドをナビゲートする。
- 参考スコア(独自算出の注目度): 1.455557560509524
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The overarching research direction of this work is the development of a ''Responsible Intelligence'' framework designed to reconcile the immense generative power of Large Language Models (LLMs) with the stringent requirements of real-world deployment. As these models become a transformative force in artificial intelligence, there is an urgent need to move beyond general-purpose architectures toward systems that are contextually aware, inherently safer, and deeply respectful of global cultural nuances. This research navigates three interconnected threads: domain adaptation to ensure technical precision, ethical rigor to mitigate adversarial vulnerabilities, and cultural/multilingual alignment to promote global inclusivity. The methodological trajectory moves from classical supervised adaptation for task-specific demands to decoding-time alignment for safety, finally leveraging human feedback and preference modeling to achieve sociolinguistic acuity.
- Abstract(参考訳): この研究の包括的な研究方向性は、大規模言語モデル(LLM)の膨大な生成力を現実の展開の厳密な要求と整合させるために設計された'責任知性'フレームワークの開発である。
これらのモデルが人工知能の変革の力になるにつれて、文脈的に認識され、本質的に安全であり、グローバルな文化的ニュアンスを深く尊重するシステムへと、汎用アーキテクチャを超えて移行する必要がある。
本研究は, 技術的精度を確保するための領域適応, 敵の脆弱性を軽減するための倫理的厳格性, グローバルな傾きを促進するための文化的・マルチリンガルなアライメントの3つの相互接続スレッドをナビゲートする。
この手法は,古典的教師付き適応から安全のための復号時間アライメントへと移行し,最終的に人間のフィードバックと嗜好モデルを活用し,社会言語学的な目的を達成する。
関連論文リスト
- Research on World Models Is Not Merely Injecting World Knowledge into Specific Tasks [43.59401259468559]
我々は、ロバストな世界モデルは、能力の緩やかな集まりではなく、相互作用、知覚、象徴的推論、空間的表現を一体的に組み込んだ規範的な枠組みであるべきだと主張する。
この研究は、未来の研究を世界のより一般的で堅牢で原則化されたモデルへと導くことを目的としている。
論文 参考訳(メタデータ) (2026-02-02T04:42:44Z) - From Word to World: Can Large Language Models be Implicit Text-based World Models? [82.47317196099907]
エージェント強化学習は、経験駆動のスケーリングにますます依存している。
世界モデルは、シミュレートされた経験を通して学習効率を改善する潜在的方法を提供する。
大規模言語モデルがこの役割を確実に果たせるか,どのような条件でエージェントに有意義な利益をもたらすかを検討する。
論文 参考訳(メタデータ) (2025-12-21T17:28:42Z) - Executable Analytic Concepts as the Missing Link Between VLM Insight and Precise Manipulation [70.8381970762877]
VLM(Vision-Language Models)は、セマンティック推論とタスク計画において顕著な能力を示す。
本稿では,VLMに基づく推論を実行可能な解析概念を通じて基礎づける新しいフレームワークであるGRACEを紹介する。
G GRACEは高レベル命令理解と低レベルロボット制御の統一的で解釈可能なインターフェースを提供する。
論文 参考訳(メタデータ) (2025-10-09T09:08:33Z) - A Survey of Self-Evolving Agents: On Path to Artificial Super Intelligence [87.08051686357206]
大きな言語モデル(LLM)は強力な能力を示しているが、基本的に静的である。
LLMはますますオープンでインタラクティブな環境にデプロイされているため、この静的な性質は重要なボトルネックとなっている。
この調査は、自己進化エージェントの体系的で包括的なレビューを初めて提供する。
論文 参考訳(メタデータ) (2025-07-28T17:59:05Z) - Assessing Adaptive World Models in Machines with Novel Games [77.94506923046423]
我々は、迅速な適応は、環境の内部表現の効率的な構築と洗練と結びついていると論じる。
人工知能における世界モデルの現在の理解と評価は依然として狭いままである。
そこで本研究では,真で深みがあり,常にリフレッシュするノベルティを持つ,慎重に設計されたゲームスイートをベースとした,新たなベンチマークパラダイムを提案する。
論文 参考訳(メタデータ) (2025-07-17T06:28:14Z) - A Survey on Post-training of Large Language Models [185.51013463503946]
大規模言語モデル(LLM)は、自然言語処理を根本的に変革し、会話システムから科学的探索まで、さまざまな領域で欠かせないものにしている。
これらの課題は、制限された推論能力、倫理的不確実性、最適なドメイン固有のパフォーマンスといった欠点に対処するために、先進的な訓練後言語モデル(PoLM)を必要とする。
本稿では,タスク固有の精度を向上するファインチューニング,倫理的コヒーレンスと人間の嗜好との整合性を保証するアライメント,報酬設計の課題によらず多段階の推論を進める推論,統合と適応の5つのパラダイムを体系的に追跡したPoLMの総合的な調査について述べる。
論文 参考訳(メタデータ) (2025-03-08T05:41:42Z) - Robotic World Model: A Neural Network Simulator for Robust Policy Optimization in Robotics [50.191655141020505]
この研究は、長期水平予測、エラー蓄積、およびsim-to-real転送の課題に対処することで、モデルに基づく強化学習を前進させる。
スケーラブルでロバストなフレームワークを提供することで、現実のアプリケーションにおいて適応的で効率的なロボットシステムを実現することができる。
論文 参考訳(メタデータ) (2025-01-17T10:39:09Z) - Improving Large Language Model (LLM) fidelity through context-aware grounding: A systematic approach to reliability and veracity [0.0]
大規模言語モデル(LLM)は、自然言語処理(NLP)アプリケーションにおいて、ますます高度でユビキタスなものになりつつある。
本稿では,テクストモデルにおける文脈的接地のための新しい枠組みについて述べる。
本研究は, 医療, 法制度, 社会サービスなどのセンシティブな分野におけるLCMの展開に重要な意味を持つ。
論文 参考訳(メタデータ) (2024-08-07T18:12:02Z) - Towards Natural Language-Driven Assembly Using Foundation Models [11.710022685486914]
大規模言語モデル(LLM)と強力な視覚モデルにより、ビジョン・ランゲージ・アクションモデル(英語版)の分野での迅速な研究と開発が可能となった。
本稿では,LLMをベースとしたグローバルコントロールポリシを提案する。
このフレームワークへのLLMの統合は、言語入力の解釈と処理だけでなく、多種多様な複雑なロボット操作のための制御機構の強化においても、その重要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-06-23T12:14:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。