論文の概要: Evidence-based Distributional Alignment for Large Language Models
- arxiv url: http://arxiv.org/abs/2603.13305v1
- Date: Tue, 03 Mar 2026 03:34:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:42.287363
- Title: Evidence-based Distributional Alignment for Large Language Models
- Title(参考訳): 大規模言語モデルのためのエビデンスに基づく分布アライメント
- Authors: Viet-Thanh Pham, Lizhen Qu, Zhuang Li, Gholamreza Haffari,
- Abstract要約: LLM分布推定の忠実度とロバスト性を改善する証拠に基づくアライメント手法であるEvi-DAを提案する。
対象国が与えられた場合、Evi-DAは関連するWorld Values Survey項目とその回答分布を検索し、オプション毎に粗いヴェルツェル値シグネチャを予測し、国条件の回答分布を構造化形式で推測する。
- 参考スコア(独自算出の注目度): 58.65469623911573
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Distributional alignment enables large language models (LLMs) to predict how a target population distributes its responses across answer options, rather than collapsing disagreement into a single consensus answer. However, existing LLM-based distribution prediction is often unstable and degrades under cultural and domain shift. Token score-based estimates can change with minor option wording or formatting, response sampling-based estimates are expensive and sensitive to prompts and decoding settings, and directly generated distributions are frequently miscalibrated. We propose Evi-DA, an evidence-based alignment technique that improves the fidelity and robustness of LLM-based distribution estimation under domain and cultural shift. Given a target country and a multiple-choice question, Evi-DA retrieves related World Values Survey items and their answer distributions, predicts a coarse Welzel value signature for each option, and infers the country-conditioned answer distribution in a structured format. We train the LLMs using a two-stage pipeline, where reinforcement learning optimizes survey-derived rewards that encourage accurate intermediate value predictions, faithful final distributions, well-formed structured outputs, and reduced cultural bias. Across in-domain and out-of-domain benchmarks and multiple open-source backbones, Evi-DA reduces Jensen-Shannon divergence between predicted and gold distributions relative to strong baselines, with average relative improvements of up to 44%.
- Abstract(参考訳): 分散アライメントにより、大きな言語モデル(LLM)は、単一のコンセンサス回答に不一致を分解するのではなく、ターゲットの集団が回答オプションにまたがる応答をどのように分散するかを予測することができる。
しかし、既存のLLMベースの分布予測は、しばしば不安定であり、文化やドメインのシフトによって劣化する。
トークンスコアベースの推定は、マイナーオプションのワードやフォーマッティングによって変化し、レスポンスサンプリングベースの推定は、プロンプトやデコード設定に対して高価で敏感であり、直接生成された分布は、しばしば誤解される。
Evi-DAは,LLMによる分布推定の忠実度とロバスト性を,ドメインや文化の変化下で向上するエビデンスベースのアライメント手法である。
対象国と複数選択質問が与えられたEvi-DAは、関連するWorld Values Survey項目とその回答分布を検索し、オプション毎に粗いヴェルツェル値シグネチャを予測し、国条件の回答分布を構造化形式で推測する。
我々は2段階のパイプラインを用いてLLMを訓練し、強化学習は調査から得られる報酬を最適化し、正確な中間値予測、忠実な最終分布、十分に構成された出力、文化的バイアスを低減します。
ドメイン内ベンチマークやドメイン外ベンチマーク、複数のオープンソースバックボーンを通じて、Evi-DAはJensen-Shannonの強いベースラインに対する予測と金分布のばらつきを減らし、平均的な相対的な改善は44%に達する。
関連論文リスト
- SCOPE: Stochastic and Counterbiased Option Placement for Evaluating Large Language Models [0.27309692684728604]
大規模言語モデル(LLM)は、選択肢の位置やラベルに固有のバイアスを生かして、複数の選択タスクの膨らませたスコアを達成できる。
本研究では,データセットに依存しない方法で選択バイアスを計測・緩和するSCOPEを提案する。
論文 参考訳(メタデータ) (2025-07-24T08:28:17Z) - PromptAL: Sample-Aware Dynamic Soft Prompts for Few-Shot Active Learning [17.336121253746335]
アクティブラーニング(AL)は、モデルトレーニングを最適化し、ラベル付けに最も有用なサンプルを選択することでアノテーションコストを削減することを目的としている。
我々は、textbfPromptAL(Few-Shot textbfActive textbfL用のSample-Aware Dynamic Soft textbfPrompts)と呼ばれるハイブリッドALフレームワークを提案する。
このフレームワークは、現在の経験的分布とターゲット分布との整合性において、ラベルのない各データポイントの寄与を考慮に入れている。
論文 参考訳(メタデータ) (2025-07-22T10:17:42Z) - Leveraging Robust Optimization for LLM Alignment under Distribution Shifts [51.74394601039711]
人間の値に整合した出力を生成するために、大規模言語モデルを操る上で、優先順位アライメント手法はますます重要になっている。
このようなシフトに拘わらず、好みのアライメントを改善する新しい分布対応最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-08T09:14:38Z) - Conformal Prediction under Levy-Prokhorov Distribution Shifts: Robustness to Local and Global Perturbations [41.94295877935867]
分布シフトをモデル化するために、Levy-Prokhorov (LP) の曖昧性集合を用いる。
共形予測とLP曖昧性集合とのリンクは自然なものであることを示す。
我々は、分布シフトの下で有効であるような頑健な共形予測区間を構築する。
論文 参考訳(メタデータ) (2025-02-19T21:18:11Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z) - Global Distance-distributions Separation for Unsupervised Person
Re-identification [93.39253443415392]
既存の教師なしのReIDアプローチは、距離ベースのマッチング/ランク付けを通じて正のサンプルと負のサンプルを正しく識別するのに失敗することが多い。
本研究では,2つの分布に対する大域的距離分布分離の制約を導入し,大域的視点から正と負のサンプルを明確に分離することを奨励する。
本研究では,本手法がベースラインを大幅に改善し,最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2020-06-01T07:05:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。