論文の概要: SPICA: Retrieving Scenarios for Pluralistic In-Context Alignment
- arxiv url: http://arxiv.org/abs/2411.10912v1
- Date: Sat, 16 Nov 2024 23:29:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-19 14:34:00.031125
- Title: SPICA: Retrieving Scenarios for Pluralistic In-Context Alignment
- Title(参考訳): SPICA:多元的インコンテキストアライメントのためのシナリオの検索
- Authors: Quan Ze Chen, K. J. Kevin Feng, Chan Young Park, Amy X. Zhang,
- Abstract要約: 本研究では,文脈内サンプル検索におけるグループレベルの差を考慮した多元的アライメントのためのフレームワークSPICAを提案する。
SPICAはシナリオバンク、グループインフォームドメトリクス、コンテキスト内アライメントプロンプトの3つの設計を導入している。
- 参考スコア(独自算出の注目度): 23.56394881275276
- License:
- Abstract: Alignment of large language models (LLMs) to societal values should account for pluralistic values from diverse groups. One technique uses in-context learning for inference-time alignment, but only considers similarity when drawing few-shot examples, not accounting for cross-group differences in value prioritization. We propose SPICA, a framework for pluralistic alignment that accounts for group-level differences during in-context example retrieval. SPICA introduces three designs to facilitate pluralistic alignment: scenario banks, group-informed metrics, and in-context alignment prompts. From an evaluation of SPICA on an alignment task collecting inputs from four demographic groups ($n = 544$), our metrics retrieve in-context examples that more closely match observed preferences, with the best prompt configuration using multiple contrastive responses to demonstrate examples. In an end-to-end evaluation ($n = 80$), we observe that SPICA-aligned models are higher rated than a baseline similarity-only retrieval approach, with groups seeing up to a +0.16 point improvement on a 5 point scale. Additionally, gains from SPICA were more uniform, with all groups benefiting from alignment rather than only some. Finally, we find that while a group-agnostic approach can effectively align to aggregated values, it is not most suited for aligning to divergent groups.
- Abstract(参考訳): 大規模言語モデル(LLM)を社会的価値にアライメントするには,多様なグループからの多元的価値を考慮する必要がある。
1つのテクニックは、推論時アライメントのためにコンテキスト内学習を使用するが、数ショットの例を描く際にのみ類似性を考慮し、値の優先順位付けにおけるグループ間差を考慮しない。
本研究では,文脈内サンプル検索におけるグループレベルの差を考慮した多元的アライメントのためのフレームワークSPICAを提案する。
SPICAはシナリオバンク、グループインフォームドメトリクス、コンテキスト内アライメントプロンプトの3つの設計を導入している。
4つの階層群(n = 544$)から入力を収集するアライメントタスクにおけるSPICAの評価から,観測された嗜好とより密に一致したコンテキスト内サンプルを抽出し,複数のコントラスト応答を用いた最適なプロンプト構成で実例を示す。
エンドツーエンド評価 (n = 80$) では,SPICA 対応モデルがベースライン類似性のみの検索手法よりも高い評価を受けており,最大で5点スケールで0.16ポイント改善するグループが存在する。
さらにSPICAの利得はより均一であり、すべてのグループは一部のグループよりもアライメントの恩恵を受けている。
最後に、群に依存しないアプローチは、集約された値に効果的に整合できるが、発散群に整合するのに最も適していないことが分かる。
関連論文リスト
- Towards Global Optimal Visual In-Context Learning Prompt Selection [50.174301123013045]
そこで本研究では,グローバルな最適プロンプトを特定するための,コンテキスト内サンプル選択フレームワークを提案する。
Partial2Globalと呼ばれるこの手法では、より包括的な比較を行うために、トランスフォーマーベースのリストワイズローダを採用している。
partial2Globalの有効性は、前景のセグメンテーション、単一物体の検出、画像の着色に関する実験を通じて検証される。
論文 参考訳(メタデータ) (2024-05-24T07:07:24Z) - $Se^2$: Sequential Example Selection for In-Context Learning [83.17038582333716]
インコンテキスト学習(ICL)のための大規模言語モデル(LLM)は、実演例によって起動する必要がある。
以前の研究は、主に"select then organize"パラダイムに従って、ICLの例の選択を幅広く検討してきた。
本稿では,この問題を$Se$quential $Se$lection問題として定式化し,シーケンシャル・アウェア法である$Se2$を導入する。
論文 参考訳(メタデータ) (2024-02-21T15:35:04Z) - Learning Label Hierarchy with Supervised Contrastive Learning [8.488965459026678]
教師付きコントラスト学習(SCL)フレームワークは、各クラスを独立したものとして扱うため、すべてのクラスが等しく重要であるとみなす。
本稿では,クラス間の類似性を利用して階層情報をSCLに組み込んだラベル認識型SCL手法(LASCL)のファミリーを紹介する。
3つのデータセットに対する実験により、提案したLASCLは、複数ラベルの1つのラベルを区別するテキスト分類にうまく機能することが示された。
論文 参考訳(メタデータ) (2024-01-31T23:21:40Z) - A structured regression approach for evaluating model performance across intersectional subgroups [53.91682617836498]
分散評価(disaggregated evaluation)は、AIフェアネスアセスメントにおける中心的なタスクであり、AIシステムのさまざまなサブグループ間でのパフォーマンスを測定することを目的としている。
非常に小さなサブグループであっても,信頼性の高いシステム性能推定値が得られることを示す。
論文 参考訳(メタデータ) (2024-01-26T14:21:45Z) - Group Preference Optimization: Few-Shot Alignment of Large Language Models [28.464834028110538]
グループ優先最適化(Group Preference Optimization)は、言語モデルを数ショットで個々のグループを選好する。
大規模言語モデルを用いた厳密な評価により, GPOの有効性を実証的に検証した。
以上の結果から,GPOはモデルをより正確に整合させるだけでなく,グループ固有の嗜好を少なくし,トレーニングや推論のリソースを少なくする。
論文 参考訳(メタデータ) (2023-10-17T18:41:57Z) - Towards Learning Causal Representations from Multi-Instance Bags [38.68813959335736]
MIL(Multi-Instance Learning)は、インスタンスのグループとして表されるオブジェクトを扱う弱い教師付き学習の一種である。
本稿では,関心対象に対する因果関係として解釈可能な意味的意味表現を学習するTargetedMILアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-02-25T09:13:00Z) - Focus on the Common Good: Group Distributional Robustness Follows [47.62596240492509]
本稿では,多様なグループ間で共有される特徴の学習を明示的に促進する,新しい,シンプルなアルゴリズムを提案する。
グループDROは、最低の正規化損失を持つグループに焦点を当て、代わりに、他のグループでもより良いパフォーマンスを実現するグループに焦点を当てるが、共有/共通機能を学ぶことにつながる可能性がある。
論文 参考訳(メタデータ) (2021-10-06T09:47:41Z) - Contextualizing Meta-Learning via Learning to Decompose [125.76658595408607]
本稿では,メタ学習型サポート・ツー・ターゲット戦略の文脈化を図るために,ネットワーク(LeadNet)を分解する学習を提案する。
LeadNetは、コンテキスト間の比較をポリセムの埋め込みに組み込むことで、右に関連付けられた戦略を自動的に選択することを学ぶ。
論文 参考訳(メタデータ) (2021-06-15T13:10:56Z) - You Never Cluster Alone [150.94921340034688]
我々は、主流のコントラスト学習パラダイムをクラスタレベルのスキームに拡張し、同じクラスタに属するすべてのデータが統一された表現に寄与する。
分類変数の集合をクラスタ化代入信頼度として定義し、インスタンスレベルの学習トラックとクラスタレベルの学習トラックを関連付ける。
代入変数を再パラメータ化することで、TCCはエンドツーエンドでトレーニングされる。
論文 参考訳(メタデータ) (2021-06-03T14:59:59Z) - Learning Multi-Attention Context Graph for Group-Based Re-Identification [214.84551361855443]
オーバーラップしていないカメラシステムを介して人々のグループを再識別または取得することを学ぶことは、ビデオ監視において重要なアプリケーションです。
本研究では,グループre-idというグループを識別するためのコンテキスト情報の利用を検討する。
本研究では,グループベースリドタスクを同時に処理するグラフニューラルネットワークに基づく新しい統合フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-29T09:57:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。