論文の概要: Robustness in Large Language Models: A Survey of Mitigation Strategies and Evaluation Metrics
- arxiv url: http://arxiv.org/abs/2505.18658v1
- Date: Sat, 24 May 2025 11:50:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:42.573956
- Title: Robustness in Large Language Models: A Survey of Mitigation Strategies and Evaluation Metrics
- Title(参考訳): 大規模言語モデルにおけるロバスト性:緩和戦略と評価指標の調査
- Authors: Pankaj Kumar, Subhankar Mishra,
- Abstract要約: 大規模言語モデル(LLM)は自然言語処理(NLP)と人工知能(AI)の発展のための有望な基盤として登場した。
この調査は、この領域における現在の研究の包括的概要を提供する。
- 参考スコア(独自算出の注目度): 0.7481505949203433
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have emerged as a promising cornerstone for the development of natural language processing (NLP) and artificial intelligence (AI). However, ensuring the robustness of LLMs remains a critical challenge. To address these challenges and advance the field, this survey provides a comprehensive overview of current studies in this area. First, we systematically examine the nature of robustness in LLMs, including its conceptual foundations, the importance of consistent performance across diverse inputs, and the implications of failure modes in real-world applications. Next, we analyze the sources of non-robustness, categorizing intrinsic model limitations, data-driven vulnerabilities, and external adversarial factors that compromise reliability. Following this, we review state-of-the-art mitigation strategies, and then we discuss widely adopted benchmarks, emerging metrics, and persistent gaps in assessing real-world reliability. Finally, we synthesize findings from existing surveys and interdisciplinary studies to highlight trends, unresolved issues, and pathways for future research.
- Abstract(参考訳): 大規模言語モデル(LLM)は、自然言語処理(NLP)と人工知能(AI)の発展のための有望な基盤として登場した。
しかし、LSMの堅牢性を保証することは依然として重要な課題である。
これらの課題に対処し、分野を前進させるため、本調査は、この領域における現在の研究を包括的に概観する。
まず, LLMにおけるロバスト性の性質を体系的に検討し, その概念的基盤, 多様な入力における一貫した性能の重要性, 実世界のアプリケーションにおける障害モードの影響について考察する。
次に、信頼性を損なう固有のモデル制限、データ駆動脆弱性、および外部の敵要因を分類し、非破壊の原因を分析します。
続いて、最先端の緩和戦略を概観し、実世界の信頼性を評価する上で、広く採用されているベンチマーク、新しいメトリクス、永続的なギャップについて論じる。
最後に,既存の調査と学際的な研究の成果を総合的に分析し,今後の研究動向,未解決問題,今後の研究の道筋を明らかにする。
関連論文リスト
- Large Language Models Post-training: Surveying Techniques from Alignment to Reasoning [185.51013463503946]
大規模言語モデル(LLM)は、自然言語処理を根本的に変革し、会話システムから科学的探索まで、さまざまな領域で欠かせないものにしている。
これらの課題は、制限された推論能力、倫理的不確実性、最適なドメイン固有のパフォーマンスといった欠点に対処するために、先進的な訓練後言語モデル(PoLM)を必要とする。
本稿では,タスク固有の精度を向上するファインチューニング,倫理的コヒーレンスと人間の嗜好との整合性を保証するアライメント,報酬設計の課題によらず多段階の推論を進める推論,統合と適応の5つのパラダイムを体系的に追跡したPoLMの総合的な調査について述べる。
論文 参考訳(メタデータ) (2025-03-08T05:41:42Z) - An LLM-based Delphi Study to Predict GenAI Evolution [0.6138671548064356]
本研究では,大規模言語モデルを用いた定性的予測手法を提案する。
この手法は、ジェネレーティブ・人工知能の将来的な進化を探求するために応用された。
論文 参考訳(メタデータ) (2025-02-28T14:31:25Z) - An Overview of Large Language Models for Statisticians [109.38601458831545]
大規模言語モデル(LLM)は人工知能(AI)の変換ツールとして登場した。
本稿では, 統計学者がLLMの開発に重要な貢献できる可能性について考察する。
我々は不確実性定量化、解釈可能性、公正性、プライバシー、透かし、モデル適応といった問題に焦点を当てる。
論文 参考訳(メタデータ) (2025-02-25T03:40:36Z) - Adversarial Alignment for LLMs Requires Simpler, Reproducible, and More Measurable Objectives [52.863024096759816]
相反する研究目的は、過去10年間に敵対的堅牢性研究の進展を妨げてきた。
我々は、対立するアライメントの有意義な進展には、リアライメントの目的が必要であると論じる。
論文 参考訳(メタデータ) (2025-02-17T15:28:40Z) - Large Language Models for Forecasting and Anomaly Detection: A
Systematic Literature Review [10.325003320290547]
本稿では,Large Language Models (LLMs) の予測・異常検出への応用について概説する。
LLMは、パターンを特定し、将来の事象を予測し、様々な領域にまたがる異常な振る舞いを検出するために、広範囲なデータセットを解析し分析する大きな可能性を示してきた。
このレビューでは、膨大な歴史的データセットへの依存、さまざまな文脈における一般化可能性の問題、モデル幻覚の現象など、より広範な採用と有効性を阻害するいくつかの重要な課題を取り上げている。
論文 参考訳(メタデータ) (2024-02-15T22:43:02Z) - Inadequacies of Large Language Model Benchmarks in the Era of Generative Artificial Intelligence [5.147767778946168]
我々は、23の最先端のLarge Language Models (LLMs)ベンチマークを批判的に評価する。
私たちの研究は、バイアス、真の推論、適応性、実装の不整合、エンジニアリングの複雑さ、多様性、文化的およびイデオロギー規範の見落としなど、重大な制限を明らかにしました。
論文 参考訳(メタデータ) (2024-02-15T11:08:10Z) - Offline Reinforcement Learning with Instrumental Variables in Confounded
Markov Decision Processes [93.61202366677526]
未測定の共同設立者を対象にオフライン強化学習(RL)について検討した。
そこで本稿では, 最適クラスポリシーを見つけるための, 有限サンプルの準最適性を保証した多種多様なポリシー学習手法を提案する。
論文 参考訳(メタデータ) (2022-09-18T22:03:55Z) - Methods for Estimating and Improving Robustness of Language Models [0.0]
大規模言語モデル(LLM)は、完全な意味論の複雑さよりも単純で表面的なテキスト関係を好むことで悪名高い欠陥を被っている。
本提案では, 学習領域外の一般化能力の弱い問題において, この問題の共通分母について検討する。
これらの指標のいくつかをトレーニング目的に組み込むことで、ニューラルネットワークの分散ロバスト性の向上が期待できる。
論文 参考訳(メタデータ) (2022-06-16T21:02:53Z) - Measure and Improve Robustness in NLP Models: A Survey [23.515869499536237]
堅牢性は視覚やNLPなどのアプリケーションで別々に研究されており、様々な定義、評価、緩和戦略が研究の複数のラインで行われている。
まず、ロバスト性の定義を複数結合し、その後、ロバスト性障害を特定し、モデルのロバスト性を評価する様々な作業ラインを統一します。
我々は、NLPモデルの堅牢性を効果的に改善する方法をより体系的な視点で、データ駆動型、モデル駆動型、インダクティブプライオリベースである緩和戦略を提案する。
論文 参考訳(メタデータ) (2021-12-15T18:02:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。