論文の概要: Alignment Studio: Aligning Large Language Models to Particular Contextual Regulations
- arxiv url: http://arxiv.org/abs/2403.09704v1
- Date: Fri, 8 Mar 2024 21:26:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-25 07:56:27.292215
- Title: Alignment Studio: Aligning Large Language Models to Particular Contextual Regulations
- Title(参考訳): Alignment Studio: 大規模言語モデルを特にコンテキストレギュレーションに調整する
- Authors: Swapnaja Achintalwar, Ioana Baldini, Djallel Bouneffouf, Joan Byamugisha, Maria Chang, Pierre Dognin, Eitan Farchi, Ndivhuwo Makondo, Aleksandra Mojsilovic, Manish Nagireddy, Karthikeyan Natesan Ramamurthy, Inkit Padhi, Orna Raz, Jesus Rios, Prasanna Sattigeri, Moninder Singh, Siphiwe Thwala, Rosario A. Uceda-Sosa, Kush R. Varshney,
- Abstract要約: アプリケーション開発者が、特定の価値、社会的規範、法律、その他の規則にモデルをチューニングできるようにするアプローチを提案する。
私たちは、アライメントスタジオアーキテクチャの主要な3つのコンポーネント、フレーム、インストラクタ、そしてオーディタをレイアウトしました。
- 参考スコア(独自算出の注目度): 61.141986747544024
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The alignment of large language models is usually done by model providers to add or control behaviors that are common or universally understood across use cases and contexts. In contrast, in this article, we present an approach and architecture that empowers application developers to tune a model to their particular values, social norms, laws and other regulations, and orchestrate between potentially conflicting requirements in context. We lay out three main components of such an Alignment Studio architecture: Framers, Instructors, and Auditors that work in concert to control the behavior of a language model. We illustrate this approach with a running example of aligning a company's internal-facing enterprise chatbot to its business conduct guidelines.
- Abstract(参考訳): 大きな言語モデルのアライメントは、通常、モデルプロバイダによって、ユースケースやコンテキスト間で一般的または普遍的に理解される振る舞いを追加または制御するために行われます。
対照的に、この記事では、アプリケーション開発者が特定の価値、社会的規範、法律、その他の規則にモデルをチューニングし、コンテキストにおける潜在的に矛盾する要件をオーケストレーションすることを可能にするアプローチとアーキテクチャを提示します。
私たちは、アライメントスタジオアーキテクチャの主要な3つのコンポーネントをレイアウトしました:フレーム、インストラクタ、そして、言語モデルの振る舞いを制御するために協調して働くオーディタです。
このアプローチを、社内のエンタープライズチャットボットをビジネス行動ガイドラインに整合させる、実行中の例で説明します。
関連論文リスト
- Collapsed Language Models Promote Fairness [88.48232731113306]
偏りのある言語モデルはトークン表現と単語埋め込みの間に崩壊したアライメントを示す。
我々は,幅広い脱バイアス法において,公平性を効果的に向上する原理的な微調整法を設計する。
論文 参考訳(メタデータ) (2024-10-06T13:09:48Z) - The Problem of Alignment [1.2277343096128712]
大規模言語モデルは、大きなコーパスから統計的パターンとして学習されたシーケンスを生成する。
最初のトレーニングモデルが人間の価値観と一致しなくてはならない場合、他のモデルよりも一定の継続が望ましい。
ユーザとモデル間の双方向インタラクションとして,この構造化の実践について検討する。
論文 参考訳(メタデータ) (2023-12-30T11:44:59Z) - Unifying Corroborative and Contributive Attributions in Large Language
Models [11.376900121298517]
我々は、大きな言語モデル属性の統一されたフレームワークを論じ、提示する。
異なるタイプの属性の既存のメソッドが、統一されたフレームワークに該当することを示す。
この統合されたフレームワークは、両方の属性を活用できるシステムのユースケース駆動開発と、それらの評価の標準化を導くものと信じている。
論文 参考訳(メタデータ) (2023-11-20T23:17:20Z) - Foundational Models Defining a New Era in Vision: A Survey and Outlook [151.49434496615427]
視覚シーンの構成的性質を観察し、推論する視覚システムは、我々の世界を理解するのに不可欠である。
モデルは、このようなモダリティと大規模なトレーニングデータとのギャップを埋めることを学び、コンテキスト推論、一般化、テスト時の迅速な機能を容易にした。
このようなモデルの出力は、例えば、バウンディングボックスを設けて特定のオブジェクトをセグメント化したり、画像や映像シーンについて質問したり、言語命令でロボットの動作を操作することで対話的な対話を行うなど、リトレーニングすることなく、人為的なプロンプトによって変更することができる。
論文 参考訳(メタデータ) (2023-07-25T17:59:18Z) - Controllable Text Generation with Language Constraints [39.741059642044874]
本稿では,自然言語に制約のある言語モデルにおけるテキスト生成の課題について考察する。
私たちのベンチマークには、WordnetやWikidataといったデータベースから得られる知識集約的な制約が含まれています。
本稿では,言語モデルの内部知識を活用して生成をガイドする手法を提案する。
論文 参考訳(メタデータ) (2022-12-20T17:39:21Z) - Large Language Models with Controllable Working Memory [64.71038763708161]
大規模言語モデル(LLM)は、自然言語処理(NLP)の一連のブレークスルーをもたらした。
これらのモデルをさらに切り離すのは、事前訓練中に内在する膨大な量の世界的知識だ。
モデルの世界知識が、文脈で提示された事実情報とどのように相互作用するかは、まだ解明されていない。
論文 参考訳(メタデータ) (2022-11-09T18:58:29Z) - The Whole Truth and Nothing But the Truth: Faithful and Controllable
Dialogue Response Generation with Dataflow Transduction and Constrained
Decoding [65.34601470417967]
本稿では,ニューラルネットワークモデリングとルールベース生成の強みを組み合わせた対話応答生成のためのハイブリッドアーキテクチャについて述べる。
本実験により, 本システムは, 流布性, 妥当性, 真理性の評価において, ルールベースおよび学習的アプローチの両方に優れることがわかった。
論文 参考訳(メタデータ) (2022-09-16T09:00:49Z) - Language Models are General-Purpose Interfaces [109.45478241369655]
本稿では,様々な基礎モデルに対する汎用インタフェースとして言語モデルを提案する。
事前訓練されたエンコーダのコレクションは、様々なモダリティ(ビジョンや言語など)を知覚する
インタフェースとモジュールエンコーダを協調的に事前学習するための半因果言語モデリング手法を提案する。
論文 参考訳(メタデータ) (2022-06-13T17:34:22Z) - Customizing Contextualized Language Models forLegal Document Reviews [0.22940141855172028]
一般ドメインコーパスに歪んだ異なる言語モデルがどのように、法的文書レビュータスクに最適にカスタマイズできるかを示す。
本研究は,タスクのパフォーマンスと実践的考察の効率を比較検討する。
論文 参考訳(メタデータ) (2021-02-10T22:14:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。