論文の概要: Do Schwartz Higher-Order Values Help Sentence-Level Human Value Detection? When Hard Gating Hurts
- arxiv url: http://arxiv.org/abs/2602.00913v1
- Date: Sat, 31 Jan 2026 21:50:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.463065
- Title: Do Schwartz Higher-Order Values Help Sentence-Level Human Value Detection? When Hard Gating Hurts
- Title(参考訳): シュワルツ高次値は、人間レベルの値検出に役立つか?
- Authors: Víctor Yeste, Paolo Rosso,
- Abstract要約: 我々は、シュワルツ高次(HO)カテゴリが計算フルーガル予算(8GBGPU)下で有用な構造を提供するかどうかを検討する。
直接教師付きトランスフォーマー, (ii) ハードマスクで階層を強制するHO$rightarrow$valuesパイプライン, (iii) Presence$rightarrow$HO$rightarrow$values カスケード, 低コストアドオン (lexica, short context, topic) を比較した。
全体的にはHO構造は記述的に有用であるが、ハードゲートで強制することで文レベルの値検出が難しくなり、校正と軽量アンサンブルによる堅牢な改善がもたらされる。
- 参考スコア(独自算出の注目度): 3.0339361014383397
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sentence-level human value detection is typically framed as multi-label classification over Schwartz values, but it remains unclear whether Schwartz higher-order (HO) categories provide usable structure. We study this under a strict compute-frugal budget (single 8 GB GPU) on ValueEval'24 / ValuesML (74K English sentences). We compare (i) direct supervised transformers, (ii) HO$\rightarrow$values pipelines that enforce the hierarchy with hard masks, and (iii) Presence$\rightarrow$HO$\rightarrow$values cascades, alongside low-cost add-ons (lexica, short context, topics), label-wise threshold tuning, small instruction-tuned LLM baselines ($\le$10B), QLoRA, and simple ensembles. HO categories are learnable from single sentences (e.g., the easiest bipolar pair reaches Macro-$F_1\approx0.58$), but hard hierarchical gating is not a reliable win: it often reduces end-task Macro-$F_1$ via error compounding and recall suppression. In contrast, label-wise threshold tuning is a high-leverage knob (up to $+0.05$ Macro-$F_1$), and small transformer ensembles provide the most consistent additional gains (up to $+0.02$ Macro-$F_1$). Small LLMs lag behind supervised encoders as stand-alone systems, yet can contribute complementary errors in cross-family ensembles. Overall, HO structure is useful descriptively, but enforcing it with hard gates hurts sentence-level value detection; robust improvements come from calibration and lightweight ensembling.
- Abstract(参考訳): 文レベルの人的価値検出は通常、シュワルツの値に対するマルチラベル分類として扱われるが、シュヴァルツの高次(HO)カテゴリーが有用な構造を提供するかどうかは不明である。
本研究では,ValueEval'24 / ValuesML (74Kの英文) を用いて,厳格な計算フルーガル予算 (8GBGPU) の下で研究を行う。
比較
(i)直接監督型変圧器
(ii)硬いマスクで階層を強制するHO$\rightarrow$valuesパイプライン、
(iii)Presence$\rightarrow$HO$\rightarrow$values cascades、低コストのアドオン(レキシカ、短いコンテキスト、トピック)、ラベル単位のしきい値チューニング、小さな命令チューニング LLMベースライン(\le$10B)、QLoRA、単純なアンサンブル。
HOカテゴリは単一文(例えば、最も簡単な双極対がMacro-$F_1\approx0.58$に達する)から学習できるが、ハード階層的ゲーティングは信頼できる勝利ではない。
対照的に、ラベル単位のしきい値調整は高平均ノブ(最大$+0.05$Macro-$F_1$)であり、小さな変圧器アンサンブルは最も一貫した追加利得(最大$+0.02$Macro-$F_1$)を提供する。
小さなLSMは、教師付きエンコーダをスタンドアローンシステムとして遅れているが、クロスファミリーアンサンブルにおける補完的なエラーに寄与する。
全体的にはHO構造は記述的に有用であるが、ハードゲートで強制することで文レベルの値検出が難しくなり、校正と軽量アンサンブルによる堅牢な改善がもたらされる。
関連論文リスト
- Human Values in a Single Sentence: Moral Presence, Hierarchies, and Transformer Ensembles on the Schwartz Continuum [3.0339361014383397]
約74kの英語文において,精巧なシュワルツ連続体における19の人文値の文レベル検出について検討した。
各文には価値の存在が注釈付けされ、二項の道徳的存在ラベルが付与される。
道徳的存在は単文から学習可能であることを示す。
論文 参考訳(メタデータ) (2026-01-20T17:25:33Z) - Route Experts by Sequence, not by Token [58.92918003265283]
Mixture-of-Experts (MoE)アーキテクチャは、トークンごとに専門家のサブセットだけを活性化することによって、大きな言語モデル(LLM)をスケールする。
標準的なTopKルーティングは、すべてのトークンに同じ固定数の専門家を割り当てる。
トークンレベルからシークエンスレベルにシフトする最小限の修正であるシークエンスレベルTopK(SeqTopK)を提案する。
論文 参考訳(メタデータ) (2025-11-09T18:36:07Z) - Scale-Invariant Regret Matching and Online Learning with Optimal Convergence: Bridging Theory and Practice in Zero-Sum Games [60.871651115241406]
ゼロサムゲームにおける理論と実践の間、何十年にもわたってかなりのシャズムが一階法によって浸食されてきた。
我々は、IREG-PRM$+$と呼ぶPRM$+$の新しいスケール不変かつパラメータフリーな変種を提案する。
ベンチマークゲームでは, PRM$+$と同等でありながら, 最適収束保証を$T-1/2$, $T-1$とする。
論文 参考訳(メタデータ) (2025-10-06T00:33:20Z) - FedSVD: Adaptive Orthogonalization for Private Federated Learning with LoRA [68.44043212834204]
Low-Rank Adaptation (LoRA) は、学習における言語モデルの効率的な微調整に広く用いられている。
Low-Rank Adaptation (LoRA) は、学習における言語モデルの効率的な微調整に広く用いられている。
論文 参考訳(メタデータ) (2025-05-19T07:32:56Z) - Contextual Combinatorial Bandits with Probabilistically Triggered Arms [55.9237004478033]
確率的に誘発される腕(C$2$MAB-T)を様々な滑らかさ条件下で検討した。
トリガー変調 (TPM) 条件の下では、C$2$-UC-Tアルゴリズムを考案し、後悔すべき$tildeO(dsqrtT)$を導出する。
論文 参考訳(メタデータ) (2023-03-30T02:51:00Z) - Overcoming the Long Horizon Barrier for Sample-Efficient Reinforcement
Learning with Latent Low-Rank Structure [9.759209713196718]
我々は、対応する最適$Q*$関数が低ランクであるMDPのクラスを考える。
より強い低階構造仮定の下では、生成モデル(LR-MCPI)と低階経験値イテレーション(LR-EVI)が、ランクに対して$tildeOleft((|S|+|A|)mathrmpoly(d,H)/epsilon2right)$の所望のサンプル複雑性を実現することが示されている。
論文 参考訳(メタデータ) (2022-06-07T20:39:51Z) - Imbalance Learning for Variable Star Classification [0.0]
我々は,不均衡な学習問題を克服する階層型機械学習分類手法を開発した。
私たちは'データレベル'アプローチを使用して、トレーニングデータを直接拡張し、表現不足のクラスをよりよく記述します。
階層モデルで$texttGpFit$を使用すると,より高い分類率が得られることがわかった。
論文 参考訳(メタデータ) (2020-02-27T19:01:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。