論文の概要: Control Barrier Function for Aligning Large Language Models
- arxiv url: http://arxiv.org/abs/2511.03121v1
- Date: Wed, 05 Nov 2025 02:12:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-06 18:19:32.296442
- Title: Control Barrier Function for Aligning Large Language Models
- Title(参考訳): 大規模言語モデルに対応する制御バリア関数
- Authors: Yuya Miyaoka, Masaki Inoue,
- Abstract要約: 本稿では,制御障壁関数(CBF)を利用した大規模言語モデル(LLM)の整合化フレームワークを提案する。
提案フレームワークは、ベースラインLLMから生成された予測トークンに対してCBFセーフティフィルタを適用して、生成されたテキストに介入する。
全体のテキスト生成システムは、肯定的なテキストを生成することを目的として、オープンソースの言語モデルで実装されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper proposes a control-based framework for aligning large language models (LLMs) by leveraging a control barrier function (CBF) to ensure user-desirable text generation. The presented framework applies the CBF safety filter to the predicted token generated from the baseline LLM, to intervene in the generated text. The safety filter includes two significant advantages: this safety filter is an add-on type, allowing it to be used for alignment purposes without fine-tuning the baseline LLM, and if there is an evaluation model regarding the desired alignment, it can be directly applied to the filter design. The overall text-generation system is implemented with open-source language models, aiming to generate positive text.
- Abstract(参考訳): 本稿では,制御バリア関数(CBF)を活用してユーザ希望のテキスト生成を実現することで,大規模言語モデル(LLM)の整合性を確保するための制御ベースフレームワークを提案する。
提案フレームワークは、ベースラインLLMから生成された予測トークンに対してCBFセーフティフィルタを適用して、生成されたテキストに介入する。
安全フィルタには2つの大きな利点がある: この安全フィルタはアドオン型であり、ベースラインLLMを微調整することなくアライメント目的に使用することができ、望ましいアライメントに関する評価モデルがある場合、フィルタ設計に直接適用することができる。
全体のテキスト生成システムは、肯定的なテキストを生成することを目的として、オープンソースの言語モデルで実装されている。
関連論文リスト
- SGM: A Framework for Building Specification-Guided Moderation Filters [13.627536649679577]
大規模言語モデル(LLM)は、脱獄のような不適応や敵対的な入力に影響を受けやすい。
SGM(Specification-Guided Moderation)は,ユーザ定義仕様に基づいてモデレーションフィルタをトレーニングするためのフレキシブルなフレームワークである。
SGMでトレーニングされたフィルタは、キュレートされたデータセット上に構築された最先端の安全フィルタと同等に動作し、きめ細かい調整とユーザ定義のアライメント制御をサポートする。
論文 参考訳(メタデータ) (2025-05-26T09:49:43Z) - Training Large Recommendation Models via Graph-Language Token Alignment [53.3142545812349]
本稿では,グラフ言語トークンアライメントによる大規模推薦モデルのトレーニングを行う新しいフレームワークを提案する。
インタラクショングラフからアイテムとユーザノードを事前訓練されたLLMトークンにアライメントすることで、GLTAはLLMの推論能力を効果的に活用する。
さらに、エンドツーエンドのアイテム予測のためのトークンアライメントを最適化するために、GLLM(Graph-Language Logits Matching)を導入する。
論文 参考訳(メタデータ) (2025-02-26T02:19:10Z) - CBF-LLM: Safe Control for LLM Alignment [0.0]
本稿では,制御障壁関数(CBF)を利用した大規模言語モデル(LLM)の整合化のための制御ベースフレームワークを提案する。
提案フレームワークは、CBFに基づいて設計された安全フィルタを、生成されたテキストに介入することを目的としたベースラインLLMの出力生成に適用する。
この実験は、ユーザ特定アライメントタスクに必要な介入回数を減らすための制御能力と有効性を示す。
論文 参考訳(メタデータ) (2024-08-28T08:25:22Z) - Open-domain Implicit Format Control for Large Language Model Generation [52.83173553689678]
大規模言語モデル(LLM)における制御生成のための新しいフレームワークを提案する。
本研究では、LLMがオープンドメイン、ワンショット制約に従う能力と、サンプル回答の形式を再現する能力について検討する。
また、出力品質を劣化させることなく、LLMのオープンドメインフォーマット制御を強化する教師付き微調整のためのデータセット収集手法を開発した。
論文 参考訳(メタデータ) (2024-08-08T11:51:45Z) - CELA: Cost-Efficient Language Model Alignment for CTR Prediction [70.65910069412944]
CTR(Click-Through Rate)予測は、レコメンダシステムにおいて最重要位置を占める。
最近の取り組みは、プレトレーニング言語モデル(PLM)を統合することでこれらの課題を緩和しようとしている。
CTR予測のためのtextbfCost-textbfEfficient textbfLanguage Model textbfAlignment (textbfCELA)を提案する。
論文 参考訳(メタデータ) (2024-05-17T07:43:25Z) - A Comparative Study of Artificial Potential Fields and Reciprocal Control Barrier Function-based Safety Filters [10.525846641815788]
人工電位場(APF)によって設計されたコントローラは、相互制御バリア関数2次プログラム(RCBF-QP)の安全性フィルタから導出可能であることを示す。
さらに、補助関数の選択を制限することなく、APFベースのコントローラをより一般的なシナリオに一般化する。
論文 参考訳(メタデータ) (2024-03-23T07:14:27Z) - Fine-grained Controllable Video Generation via Object Appearance and
Context [74.23066823064575]
細粒度制御可能なビデオ生成法(FACTOR)を提案する。
FACTORは、オブジェクトの位置とカテゴリを含む、オブジェクトの外観とコンテキストを制御することを目的としている。
本手法は,オブジェクトの外観を微調整せずに制御し,オブジェクトごとの最適化作業を省く。
論文 参考訳(メタデータ) (2023-12-05T17:47:33Z) - Pointwise Feasibility of Gaussian Process-based Safety-Critical Control
under Model Uncertainty [77.18483084440182]
制御バリア関数(CBF)と制御リアプノフ関数(CLF)は、制御システムの安全性と安定性をそれぞれ強化するための一般的なツールである。
本稿では, CBF と CLF を用いた安全クリティカルコントローラにおいて, モデル不確実性に対処するためのガウスプロセス(GP)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-13T23:08:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。