論文の概要: Human Values in a Single Sentence: Moral Presence, Hierarchies, and Transformer Ensembles on the Schwartz Continuum
- arxiv url: http://arxiv.org/abs/2601.14172v2
- Date: Wed, 28 Jan 2026 11:00:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-29 13:43:09.055823
- Title: Human Values in a Single Sentence: Moral Presence, Hierarchies, and Transformer Ensembles on the Schwartz Continuum
- Title(参考訳): 単文における人的価値:シュワルツ連続体における道徳的存在、階層、トランスフォーマーのアンサンブル
- Authors: Víctor Yeste, Paolo Rosso,
- Abstract要約: 約74kの英語文において,精巧なシュワルツ連続体における19の人文値の文レベル検出について検討した。
各文には価値の存在が注釈付けされ、二項の道徳的存在ラベルが付与される。
道徳的存在は単文から学習可能であることを示す。
- 参考スコア(独自算出の注目度): 3.0339361014383397
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study sentence-level detection of the 19 human values in the refined Schwartz continuum in about 74k English sentences from news and political manifestos (ValueEval'24 corpus). Each sentence is annotated with value presence, yielding a binary moral-presence label and a 19-way multi-label task under severe class imbalance. First, we show that moral presence is learnable from single sentences: a DeBERTa-base classifier attains positive-class F1 = 0.74 with calibrated thresholds. Second, we compare direct multi-label value detectors with presence-gated hierarchies under a single 8 GB GPU budget. Under matched compute, presence gating does not improve over direct prediction, indicating that gate recall becomes a bottleneck. Third, we investigate lightweight auxiliary signals - short-range context, LIWC-22 and moral lexica, and topic features - and small ensembles. Our best supervised configuration, a soft-voting ensemble of DeBERTa-based models enriched with such signals, reaches macro-F1 = 0.332 on the 19 values, improving over the best previous English-only baseline on this corpus (macro-F1 $\approx$ 0.28). We additionally benchmark 7-9B instruction-tuned LLMs (Gemma 2 9B, Llama 3.1 8B, Mistral 8B, Qwen 2.5 7B) in zero-/few-shot and QLoRA setups, and find that they lag behind the supervised ensemble under the same hardware constraint. Overall, our results provide empirical guidance for building compute-efficient, value-aware NLP models under realistic GPU budgets.
- Abstract(参考訳): シュワルツ連続体における19の人的価値の文レベル検出を,ニュースおよび政治宣言(ValueEval'24 corpus)から約74kの英語文で検討した。
各文には価値の存在が注釈付けされ、二進的道徳的存在ラベルと19方向の多ラベルタスクが重大な階級不均衡の下で得られる。
まず、単文から道徳的存在が学習可能であることを示す: DeBERTa-base 分類器は正のクラス F1 = 0.74 を校正しきい値で達成する。
第2に、8GBのGPU予算の下で、直接マルチラベル値検出器とプレゼンスゲート階層を比較した。
一致した計算では、プレゼンスゲーティングは直接予測よりも改善せず、ゲートリコールがボトルネックとなることを示している。
第3に、短距離文脈、LIWC-22、モラルレキシカ、トピックの特徴、および小さなアンサンブルといった軽量補助信号について検討する。
このコーパスにおける英語のみのベースライン(macro-F1 $\approx$ 0.28)よりも改善され、19の値でマクロF1 = 0.332に達する。
また、7-9B命令調整LDM(Gemma 2 9B, Llama 3.1 8B, Mistral 8B, Qwen 2.5 7B)を0/fwショットとQLoRAセットアップでベンチマークし、同じハードウェア制約の下で教師ありアンサンブルの遅れが判明した。
全体として,現実的なGPU予算の下で計算効率が高く,価値を意識したNLPモデルを構築するための実証的なガイダンスを提供する。
関連論文リスト
- Do Schwartz Higher-Order Values Help Sentence-Level Human Value Detection? When Hard Gating Hurts [3.0339361014383397]
我々は、シュワルツ高次(HO)カテゴリが計算フルーガル予算(8GBGPU)下で有用な構造を提供するかどうかを検討する。
直接教師付きトランスフォーマー, (ii) ハードマスクで階層を強制するHO$rightarrow$valuesパイプライン, (iii) Presence$rightarrow$HO$rightarrow$values カスケード, 低コストアドオン (lexica, short context, topic) を比較した。
全体的にはHO構造は記述的に有用であるが、ハードゲートで強制することで文レベルの値検出が難しくなり、校正と軽量アンサンブルによる堅牢な改善がもたらされる。
論文 参考訳(メタデータ) (2026-01-31T21:50:35Z) - A Preliminary Agentic Framework for Matrix Deflation [2.6140509675507384]
本稿では,解法がランク1を更新し,いつ停止するかを決定する,行列デフレに対するエージェント的アプローチを提案する。
Digits (8times 8$), CIFAR-10 (32times32$ grayscale), 合成 (16times16$) の行列をガウス雑音と無雑音で評価した。
全ての設定において、エージェントは競合する結果を達成し、古典的な数値アルゴリズムの代替として、完全にエージェント的、しきい値のないデフレが実現可能であることを示唆している。
論文 参考訳(メタデータ) (2026-01-06T23:59:18Z) - Every Question Has Its Own Value: Reinforcement Learning with Explicit Human Values [53.72318444646282]
RLEV(Reinforcement Learning with Explicit Human Values)を提案する。
RLEVは、Large Language Model (LLM) 最適化を直接、定量化された人間の値信号と整合させる。
RLEVは、複数のRLアルゴリズムとモデルスケールで、精度のみのベースラインを一貫して上回ることを示す。
論文 参考訳(メタデータ) (2025-10-23T04:15:22Z) - Token-Level Inference-Time Alignment for Vision-Language Models [58.41370989069588]
VLM(Vision-Language Models)は、現代のマルチモーダルインテリジェンスの重要なバックボーンとなっている。
本稿では,基本VLMを凍結し,その分布を近似する報酬モデルをトレーニングする軽量フレームワークTITAを提案する。
推測中、暗黙の選好信号は報酬モデルと目標VLMの対数確率比として抽出され、密集した自己回帰フィードバックが得られる。
論文 参考訳(メタデータ) (2025-10-20T09:58:03Z) - From Flows to Words: Can Zero-/Few-Shot LLMs Detect Network Intrusions? A Grammar-Constrained, Calibrated Evaluation on UNSW-NB15 [0.41998444721319217]
大規模言語モデル(LLM)は自然言語入力を推論できるが、微調整なしでの侵入検出におけるそれらの役割は未だ不明である。
本研究では、各ネットワークフローをコンパクトなテキストレコードに変換し、軽量でドメインにインスパイアされたフラグで拡張することで、プロンプトオンリーなアプローチを評価する。
ゼロショット,命令誘導,スプリットショットを比較して,同一のスプリット下での強い神経ベースライン,精度,精度,リコール,F1,マクロスコアを比較した。
論文 参考訳(メタデータ) (2025-10-18T02:11:50Z) - vAttention: Verified Sparse Attention [100.98210818821688]
vAttentionは、ユーザが指定した$(epsilon, delta)$の近似精度保証(thus, confirmed)を備えた実用的なスパースアテンションメカニズムである。
vAttentionはデータセット間のスパースアテンションの質を大幅に改善することを示す。
モデルの品質を損なうことなく高速なデコードを実現するために、推論シナリオにデプロイすることができる。
論文 参考訳(メタデータ) (2025-10-07T08:46:08Z) - LGAI-EMBEDDING-Preview Technical Report [41.68404082385825]
本稿では、情報検索(IR)と非IRタスクの両方に最適化された一般化テキスト埋め込みを学習するための統一的な命令ベースフレームワークを提案する。
提案手法は,コンテキスト認識の埋め込みを生成するために,コンテキスト内学習,ソフトインスペクション,適応型ハードネガティブマイニングを組み合わせる。
その結果,本手法はボルダスコアによる最高性能モデルのうち,強い一般化とランクを達成できることが示唆された。
論文 参考訳(メタデータ) (2025-06-09T05:30:35Z) - OverLoCK: An Overview-first-Look-Closely-next ConvNet with Context-Mixing Dynamic Kernels [50.42092879252807]
We present OverLoCK, the first pure ConvNet backbone architecture which include a top-down attention mechanism。
トップダウンアテンションのパワーを完全に解き放つために,コンテクスト混合動的畳み込み(ContMix)を提案する。
論文 参考訳(メタデータ) (2025-02-27T13:45:15Z) - Language Model Preference Evaluation with Multiple Weak Evaluators [89.90733463933431]
PGEDは,複数のモデルに基づく評価器を用いて嗜好グラフを構築し,非循環的非競合性評価結果に対してこれらのグラフをアンサンブルし,デノテーズする手法である。
1)評価のためのモデルランキング、2)テスト時間スケーリングのための応答選択、3)モデル微調整のためのデータ選択である。
論文 参考訳(メタデータ) (2024-10-14T01:57:25Z) - GLIMMER: Incorporating Graph and Lexical Features in Unsupervised Multi-Document Summarization [13.61818620609812]
我々はGLIMMERと呼ばれる軽量で効果的な非教師付きアプローチを提案し、グラフとLexIcalの特徴をベースとした教師なしマルチ文書要約手法を提案する。
まず、ソース文書から文グラフを構築し、それからテキストから低レベルの特徴をマイニングすることで意味クラスタを自動的に識別する。
また,Multi-News,Multi-XScience,DUC-2004で行った実験により,既存の教師なしアプローチよりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-08-19T16:01:48Z) - Self-Play Preference Optimization for Language Model Alignment [75.83359213697854]
近年の進歩は、嗜好の確率で直接作業することで、人間の嗜好をより正確に反映できることを示している。
本稿では,言語モデルアライメントのためのセルフプレイ方式を提案する。
我々の手法はSPPO(Self-Play Preference Optimization)と呼ばれ、繰り返しポリシー更新を利用してナッシュ均衡を確実に近似する。
論文 参考訳(メタデータ) (2024-05-01T17:59:20Z) - Bag of Tricks for Effective Language Model Pretraining and Downstream
Adaptation: A Case Study on GLUE [93.98660272309974]
このレポートでは、ジェネラル言語理解評価のリーダーボードに関するVega v1を簡潔に紹介します。
GLUEは、質問応答、言語受容性、感情分析、テキスト類似性、パラフレーズ検出、自然言語推論を含む9つの自然言語理解タスクのコレクションである。
最適化された事前学習と微調整の戦略により、13億のモデルは4/9タスクに新しい最先端のタスクを設定し、91.3の平均スコアを達成しました。
論文 参考訳(メタデータ) (2023-02-18T09:26:35Z) - WR-ONE2SET: Towards Well-Calibrated Keyphrase Generation [57.11538133231843]
キーワード生成は、入力文書を要約する短いフレーズを自動的に生成することを目的としている。
最近登場したONE2SETパラダイムは、キーフレーズをセットとして生成し、競争性能を達成した。
本稿では, ONE2SET を拡張した WR-ONE2SET を提案する。
論文 参考訳(メタデータ) (2022-11-13T09:56:24Z) - Enabling Classifiers to Make Judgements Explicitly Aligned with Human
Values [73.82043713141142]
性差別/人種差別の検出や毒性検出などの多くのNLP分類タスクは、人間の値に基づいている。
本稿では,コマンド内で明示的に記述された人間の値に基づいて予測を行う,値整合型分類のためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-14T09:10:49Z) - SimCSE: Simple Contrastive Learning of Sentence Embeddings [10.33373737281907]
本稿では,埋め込み学習フレームワークであるSimCSEについて述べる。
まず、教師なしのアプローチを記述し、入力文を取り、それ自身を対照目的に予測する。
次に,nliデータセットからの注釈付きペアを「補足」ペアを正として,「矛盾」ペアをハード負として対比学習に組み込む。
論文 参考訳(メタデータ) (2021-04-18T11:27:08Z) - Learning Near Optimal Policies with Low Inherent Bellman Error [115.16037976819331]
エピソード強化学習における近似線形作用値関数を用いた探索問題について検討する。
我々は,検討した設定に対して最適な統計率を達成するアルゴリズムを用いて,Emphbatch仮定のみを用いて探索を行うことが可能であることを示す。
論文 参考訳(メタデータ) (2020-02-29T02:02:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。