論文の概要: Safe Language Generation in the Limit
- arxiv url: http://arxiv.org/abs/2601.08648v1
- Date: Tue, 13 Jan 2026 15:25:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:19.25867
- Title: Safe Language Generation in the Limit
- Title(参考訳): 限界における安全な言語生成
- Authors: Antonios Anastasopoulos, Giuseppe Ateniese, Evgenios M. Kornaropoulos,
- Abstract要約: 安全な言語識別と生成のタスクを形式化する。
我々は、安全な言語識別は不可能であり、安全な言語生成は少なくとも(Vanilla)言語識別と同じくらい難しいことを証明している。
- 参考スコア(独自算出の注目度): 31.198980760468434
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent results in learning a language in the limit have shown that, although language identification is impossible, language generation is tractable. As this foundational area expands, we need to consider the implications of language generation in real-world settings. This work offers the first theoretical treatment of safe language generation. Building on the computational paradigm of learning in the limit, we formalize the tasks of safe language identification and generation. We prove that under this model, safe language identification is impossible, and that safe language generation is at least as hard as (vanilla) language identification, which is also impossible. Last, we discuss several intractable and tractable cases.
- Abstract(参考訳): 近年の言語学習の結果から,言語識別は不可能だが,言語生成は難易度が高いことが示唆された。
この基礎領域が拡大するにつれて、実世界の環境における言語生成の影響を考える必要がある。
この研究は、安全な言語生成に関する最初の理論的治療を提供する。
この制限下での学習の計算パラダイムに基づいて、安全な言語識別と生成のタスクを定式化する。
このモデルでは、安全な言語識別は不可能であり、安全な言語生成は少なくとも(バニラ)言語識別と同じくらい難しいことが証明されている。
最後に,難易度と難易度を論じる。
関連論文リスト
- Large language models are not about language [0.0]
人間の言語は、階層的な思考構造を生成する心内計算システムによって支えられている。
言語システムは、最小限の外部入力で成長し、実際の言語と不可能な言語を簡単に区別することができる。
論文 参考訳(メタデータ) (2025-12-15T15:36:42Z) - Language Generation: Complexity Barriers and Implications for Learning [51.449718747429756]
単純でよく研究された言語ファミリであっても、成功した生成に必要なサンプルの数は極端に多いことが示される。
これらの結果は、理論的可能性と効率的な学習可能性の間に大きなギャップがあることを明らかにする。
論文 参考訳(メタデータ) (2025-11-07T23:06:48Z) - MrGuard: A Multilingual Reasoning Guardrail for Universal LLM Safety [56.77103365251923]
大規模言語モデル(LLM)は、ジェイルブレイクのような敵の攻撃を受けやすい。
この脆弱性は、多言語セーフティアライメントされたデータが制限される多言語設定で悪化する。
素早い分類のための多言語ガードレールを提案する。
論文 参考訳(メタデータ) (2025-04-21T17:15:06Z) - Density Measures for Language Generation [2.2872032473279065]
言語生成アルゴリズムの妥当性と広さのトレードオフについて検討する。
限界における言語生成のための既存のアルゴリズムは、真の言語でゼロ密度を持つ出力セットを生成する。
しかしながら、出力が厳密に正の密度を持つ極限における言語生成のアルゴリズムが$K$であることを示す。
論文 参考訳(メタデータ) (2025-04-19T18:08:18Z) - Exploring Facets of Language Generation in the Limit [10.18252143035175]
任意の可算言語コレクションは、その極限において非一様生成の強い特性を持つ生成子を持つことを示す。
我々は,[KM24]の生成アルゴリズムにおける妥当性と幅の緊張関係を,徹底的な生成の定義を導入して定式化する。
また,包括的生成が可能な言語コレクションの正確な特徴付けも提供する。
論文 参考訳(メタデータ) (2024-11-22T22:13:40Z) - Language Generation in the Limit [0.7787343335258782]
候補言語の可算リストに限って生成できるエージェントが存在することを示す。
これは、言語学習のよく研究されたモデルにおいて、ゴールドとアングルインによる否定的な結果と劇的に対照的である。
論文 参考訳(メタデータ) (2024-04-10T05:53:25Z) - Unlocking Anticipatory Text Generation: A Constrained Approach for Large Language Models Decoding [75.06872859716049]
大規模言語モデル(LLM)は、テキスト生成の強力な能力を示している。
毒性や幻覚などの望ましくない行動が現れることがある。
将来制約付き生成問題としてテキスト生成の形式化を提案する。
論文 参考訳(メタデータ) (2023-12-11T06:35:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。