論文の概要: Human Values in a Single Sentence: Moral Presence, Hierarchies, and Transformer Ensembles on the Schwartz Continuum
- arxiv url: http://arxiv.org/abs/2601.14172v1
- Date: Tue, 20 Jan 2026 17:25:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.429148
- Title: Human Values in a Single Sentence: Moral Presence, Hierarchies, and Transformer Ensembles on the Schwartz Continuum
- Title(参考訳): 単文における人的価値:シュワルツ連続体における道徳的存在、階層、トランスフォーマーのアンサンブル
- Authors: Víctor Yeste, Paolo Rosso,
- Abstract要約: 本研究では, シュワルツ動機づけ連続体における19個の値の文レベル同定を, テキスト中の人的価値検出の具体的な定式化として検討した。
この設定は、まばらな道徳的な手がかりと厳しい階級不均衡を特徴としている。
まず、二項道徳的存在感タスク("does any value appear?")を運用し、単一の文から学習可能であることを示す。
- 参考スコア(独自算出の注目度): 3.0339361014383397
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study sentence-level identification of the 19 values in the Schwartz motivational continuum as a concrete formulation of human value detection in text. The setting - out-of-context sentences from news and political manifestos - features sparse moral cues and severe class imbalance. This combination makes fine-grained sentence-level value detection intrinsically difficult, even for strong modern neural models. We first operationalize a binary moral presence task ("does any value appear?") and show that it is learnable from single sentences (positive-class F1 $\approx$ 0.74 with calibrated thresholds). We then compare a presence-gated hierarchy to a direct multi-label classifier under matched compute, both based on DeBERTa-base and augmented with lightweight signals (prior-sentence context, LIWC-22/eMFD/MJD lexica, and topic features). The hierarchy does not outperform direct prediction, indicating that gate recall limits downstream gains. We also benchmark instruction-tuned LLMs - Gemma 2 9B, Llama 3.1 8B, Mistral 8B, and Qwen 2.5 7B - in zero-/few-shot and QLoRA setups and build simple ensembles; a soft-vote supervised ensemble reaches macro-F1 0.332, significantly surpassing the best single supervised model and exceeding prior English-only baselines. Overall, in this scenario, lightweight signals and small ensembles yield the most reliable improvements, while hierarchical gating offers limited benefit. We argue that, under an 8 GB single-GPU constraint and at the 7-9B scale, carefully tuned supervised encoders remain a strong and compute-efficient baseline for structured human value detection, and we outline how richer value structure and sentence-in-document context could further improve performance.
- Abstract(参考訳): 本研究では, シュワルツ動機づけ連続体における19個の値の文レベル同定を, テキスト中の人的価値検出の具体的な定式化として検討した。
内容は、ニュースや政治宣言からのアウト・オブ・コンテクストの文章で、道徳的な手口がまばらで、厳しい階級の不均衡が特徴である。
この組み合わせは、強力な現代ニューラルモデルであっても、本来は微粒な文レベルの値検出を困難にしている。
まず、二項道徳的プレゼンスタスク("does any value appear?")を運用し、単一の文から学習可能であることを示す(正のクラス F1 $\approx$ 0.74)。
次に,DeBERTaベースと軽量信号(事前文コンテキスト,LIWC-22/eMFD/MJDレキシカ,トピック特徴)を併用した直接マルチラベル分類器との比較を行った。
階層構造は直接予測を上回るものではなく、ゲートリコールが下流のゲインを制限することを示している。
また、命令調整されたLLM - Gemma 2 9B, Llama 3.1 8B, Mistral 8B, Qwen 2.5 7B - をゼロ/フェーショットとQLoRAセットアップでベンチマークし、単純なアンサンブルを構築する。
全体として、このシナリオでは、軽量信号と小さなアンサンブルが最も信頼性の高い改善が得られ、階層的ゲーティングは限られた利益をもたらす。
8GBのシングルGPU制約と7-9Bのスケールで、注意深く調整された教師付きエンコーダは、構造化された人間の値検出のための強力で計算効率のよいベースラインのままであり、よりリッチな値構造と文内文書コンテキストにより、パフォーマンスがさらに向上する、と我々は論じている。
関連論文リスト
- Every Question Has Its Own Value: Reinforcement Learning with Explicit Human Values [53.72318444646282]
RLEV(Reinforcement Learning with Explicit Human Values)を提案する。
RLEVは、Large Language Model (LLM) 最適化を直接、定量化された人間の値信号と整合させる。
RLEVは、複数のRLアルゴリズムとモデルスケールで、精度のみのベースラインを一貫して上回ることを示す。
論文 参考訳(メタデータ) (2025-10-23T04:15:22Z) - Token-Level Inference-Time Alignment for Vision-Language Models [58.41370989069588]
VLM(Vision-Language Models)は、現代のマルチモーダルインテリジェンスの重要なバックボーンとなっている。
本稿では,基本VLMを凍結し,その分布を近似する報酬モデルをトレーニングする軽量フレームワークTITAを提案する。
推測中、暗黙の選好信号は報酬モデルと目標VLMの対数確率比として抽出され、密集した自己回帰フィードバックが得られる。
論文 参考訳(メタデータ) (2025-10-20T09:58:03Z) - From Flows to Words: Can Zero-/Few-Shot LLMs Detect Network Intrusions? A Grammar-Constrained, Calibrated Evaluation on UNSW-NB15 [0.41998444721319217]
大規模言語モデル(LLM)は自然言語入力を推論できるが、微調整なしでの侵入検出におけるそれらの役割は未だ不明である。
本研究では、各ネットワークフローをコンパクトなテキストレコードに変換し、軽量でドメインにインスパイアされたフラグで拡張することで、プロンプトオンリーなアプローチを評価する。
ゼロショット,命令誘導,スプリットショットを比較して,同一のスプリット下での強い神経ベースライン,精度,精度,リコール,F1,マクロスコアを比較した。
論文 参考訳(メタデータ) (2025-10-18T02:11:50Z) - LGAI-EMBEDDING-Preview Technical Report [41.68404082385825]
本稿では、情報検索(IR)と非IRタスクの両方に最適化された一般化テキスト埋め込みを学習するための統一的な命令ベースフレームワークを提案する。
提案手法は,コンテキスト認識の埋め込みを生成するために,コンテキスト内学習,ソフトインスペクション,適応型ハードネガティブマイニングを組み合わせる。
その結果,本手法はボルダスコアによる最高性能モデルのうち,強い一般化とランクを達成できることが示唆された。
論文 参考訳(メタデータ) (2025-06-09T05:30:35Z) - OverLoCK: An Overview-first-Look-Closely-next ConvNet with Context-Mixing Dynamic Kernels [50.42092879252807]
We present OverLoCK, the first pure ConvNet backbone architecture which include a top-down attention mechanism。
トップダウンアテンションのパワーを完全に解き放つために,コンテクスト混合動的畳み込み(ContMix)を提案する。
論文 参考訳(メタデータ) (2025-02-27T13:45:15Z) - Language Model Preference Evaluation with Multiple Weak Evaluators [89.90733463933431]
PGEDは,複数のモデルに基づく評価器を用いて嗜好グラフを構築し,非循環的非競合性評価結果に対してこれらのグラフをアンサンブルし,デノテーズする手法である。
1)評価のためのモデルランキング、2)テスト時間スケーリングのための応答選択、3)モデル微調整のためのデータ選択である。
論文 参考訳(メタデータ) (2024-10-14T01:57:25Z) - GLIMMER: Incorporating Graph and Lexical Features in Unsupervised Multi-Document Summarization [13.61818620609812]
我々はGLIMMERと呼ばれる軽量で効果的な非教師付きアプローチを提案し、グラフとLexIcalの特徴をベースとした教師なしマルチ文書要約手法を提案する。
まず、ソース文書から文グラフを構築し、それからテキストから低レベルの特徴をマイニングすることで意味クラスタを自動的に識別する。
また,Multi-News,Multi-XScience,DUC-2004で行った実験により,既存の教師なしアプローチよりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-08-19T16:01:48Z) - WR-ONE2SET: Towards Well-Calibrated Keyphrase Generation [57.11538133231843]
キーワード生成は、入力文書を要約する短いフレーズを自動的に生成することを目的としている。
最近登場したONE2SETパラダイムは、キーフレーズをセットとして生成し、競争性能を達成した。
本稿では, ONE2SET を拡張した WR-ONE2SET を提案する。
論文 参考訳(メタデータ) (2022-11-13T09:56:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。