論文の概要: Taking a SEAT: Predicting Value Interpretations from Sentiment, Emotion, Argument, and Topic Annotations
- arxiv url: http://arxiv.org/abs/2510.01976v1
- Date: Thu, 02 Oct 2025 12:51:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:21.131294
- Title: Taking a SEAT: Predicting Value Interpretations from Sentiment, Emotion, Argument, and Topic Annotations
- Title(参考訳): SEATの導入: 感情、感情、議論、トピックアノテーションから価値解釈を予測する
- Authors: Adina Nicola Dobrinoiu, Ana Cristiana Marcu, Amir Homayounirad, Luciano Cavalcante Siebert, Enrico Liscio,
- Abstract要約: 我々は,多次元主観的アノテーションを解釈レンズのプロキシとして活用することにより,言語モデルが個々の値の解釈を予測できるかどうかを検討する。
すなわち,個人が感情,感情,話題,話題(SEAT次元)をアノテートする方法の例を提供することが,価値の解釈を予測する上で言語モデルに役立つかどうかを評価する。
異なるゼロショットおよび少数ショット設定による実験により、すべてのSEAT次元を同時に提供することで、個々の次元や、個々の情報を提供しないベースラインよりも優れた性能が得られることが示された。
- 参考スコア(独自算出の注目度): 2.5617827156681625
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Our interpretation of value concepts is shaped by our sociocultural background and lived experiences, and is thus subjective. Recognizing individual value interpretations is important for developing AI systems that can align with diverse human perspectives and avoid bias toward majority viewpoints. To this end, we investigate whether a language model can predict individual value interpretations by leveraging multi-dimensional subjective annotations as a proxy for their interpretive lens. That is, we evaluate whether providing examples of how an individual annotates Sentiment, Emotion, Argument, and Topics (SEAT dimensions) helps a language model in predicting their value interpretations. Our experiment across different zero- and few-shot settings demonstrates that providing all SEAT dimensions simultaneously yields superior performance compared to individual dimensions and a baseline where no information about the individual is provided. Furthermore, individual variations across annotators highlight the importance of accounting for the incorporation of individual subjective annotators. To the best of our knowledge, this controlled setting, although small in size, is the first attempt to go beyond demographics and investigate the impact of annotation behavior on value prediction, providing a solid foundation for future large-scale validation.
- Abstract(参考訳): 価値概念の解釈は、社会文化的背景と生きた経験によって形成され、従って主観的である。
個人価値の解釈を認識することは、多様な人間の視点と整合し、多数意見に対する偏見を避けることができるAIシステムを開発する上で重要である。
この目的のために,多次元主観的アノテーションを解釈レンズのプロキシとして活用することにより,言語モデルが個々の値の解釈を予測できるかどうかを検討する。
すなわち,個人が感情,感情,話題,話題(SEAT次元)をアノテートする方法の例を提供することが,価値の解釈を予測する上で言語モデルに役立つかどうかを評価する。
異なるゼロショットおよび少数ショット設定による実験により、全てのSEAT次元を同時に提供することで、個々の次元や、個々の情報を提供しないベースラインよりも優れた性能が得られることが示された。
さらに、アノテータ間の個人差は、個別の主観的アノテータを取り入れることの重要性を強調している。
我々の知る限りでは、この制御された設定は、小さなものの、人口動態を超えて、アノテーションの振る舞いが価値予測に与える影響を調査する最初の試みであり、将来の大規模検証のための確かな基盤を提供する。
関連論文リスト
- Democratizing Reward Design for Personal and Representative Value-Alignment [10.1630183955549]
本稿では,対話型対話アライメント(Interactive-Reflective Dialogue Alignment)について紹介する。
本システムは,言語モデルに基づく嗜好誘導を通じて個々の価値定義を学習し,パーソナライズされた報酬モデルを構築する。
本研究は, 価値整合行動の多様な定義を示し, システムによって各人の独自の理解を正確に捉えることができることを示す。
論文 参考訳(メタデータ) (2024-10-29T16:37:01Z) - When Does Perceptual Alignment Benefit Vision Representations? [76.32336818860965]
視覚モデル表現と人間の知覚的判断との整合がユーザビリティに与える影響について検討する。
モデルと知覚的判断を一致させることで、多くの下流タスクで元のバックボーンを改善する表現が得られることがわかった。
その結果,人間の知覚的知識に関する帰納バイアスを視覚モデルに注入することは,より良い表現に寄与することが示唆された。
論文 参考訳(メタデータ) (2024-10-14T17:59:58Z) - Can Language Models Reason about Individualistic Human Values and Preferences? [44.249817353449146]
個人主義的価値推論の課題について言語モデル(LM)について検討する。
最前線のLMでは, 個性値の予測において, 55~65%の精度しか達成できない限界がみられた。
提案した値不等式指数(sigma Inequity)によって測定された大域的個人主義的価値の推論におけるLMの部分性も同定する。
論文 参考訳(メタデータ) (2024-10-04T19:03:41Z) - POV Learning: Individual Alignment of Multimodal Models using Human Perception [1.4796543791607086]
個人レベルでのアライメントは、システムと対話する個人ユーザの主観的な予測性能を高めることができると我々は主張する。
我々は、認識情報を機械学習システムに統合し、予測性能を測定することで、これを検証する。
本研究は, 個人認識信号を用いた主観的人間評価の機械学習が, 個人のアライメントに有用な手がかりとなることを示唆している。
論文 参考訳(メタデータ) (2024-05-07T16:07:29Z) - Understanding Before Recommendation: Semantic Aspect-Aware Review Exploitation via Large Language Models [53.337728969143086]
レコメンデーションシステムは、クリックやレビューのようなユーザとイテムのインタラクションを利用して表現を学習する。
従来の研究では、様々な側面や意図にまたがるユーザの嗜好をモデル化することで、推奨精度と解釈可能性を改善する。
そこで本研究では,意味的側面と認識的相互作用を明らかにするためのチェーンベースのプロンプト手法を提案する。
論文 参考訳(メタデータ) (2023-12-26T15:44:09Z) - Value Kaleidoscope: Engaging AI with Pluralistic Human Values, Rights, and Duties [68.66719970507273]
価値多元性とは、複数の正しい値が互いに緊張して保持されるという考え方である。
統計的学習者として、AIシステムはデフォルトで平均に適合する。
ValuePrismは、218kの値、権利、義務の大規模なデータセットで、31kの人間が記述した状況に関連付けられています。
論文 参考訳(メタデータ) (2023-09-02T01:24:59Z) - Natural Language Decompositions of Implicit Content Enable Better Text Representations [52.992875653864076]
本稿では,暗黙的に伝達されたコンテンツを明示的に考慮したテキスト分析手法を提案する。
我々は大きな言語モデルを用いて、観察されたテキストと推論的に関係する命題の集合を生成する。
本研究は,NLPにおいて,文字のみではなく,観察された言語の背景にある意味をモデル化することが重要であることを示唆する。
論文 参考訳(メタデータ) (2023-05-23T23:45:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。