論文の概要: The Computational Anatomy of Humility: Modeling Intellectual Humility in Online Public Discourse
- arxiv url: http://arxiv.org/abs/2410.15182v1
- Date: Sat, 19 Oct 2024 19:09:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-22 13:21:41.001456
- Title: The Computational Anatomy of Humility: Modeling Intellectual Humility in Online Public Discourse
- Title(参考訳): ヒューマイティの計算解剖:オンライン公開談話における知的ヒューマイティのモデル化
- Authors: Xiaobo Guo, Neil Potnis, Melody Yu, Nabeel Gillani, Soroush Vosoughi,
- Abstract要約: 本研究では,知的謙虚さ (IH) に着目した。
我々は、サブレディットから引き出された宗教に関する350のポストで、IHコードブックを手作業でキュレートし、検証する。
我々の結果は、オンラインでIHを検出することの難しさを浮き彫りにしている。
- 参考スコア(独自算出の注目度): 22.64969706179153
- License:
- Abstract: The ability for individuals to constructively engage with one another across lines of difference is a critical feature of a healthy pluralistic society. This is also true in online discussion spaces like social media platforms. To date, much social media research has focused on preventing ills -- like political polarization and the spread of misinformation. While this is important, enhancing the quality of online public discourse requires not just reducing ills but also promoting foundational human virtues. In this study, we focus on one particular virtue: ``intellectual humility'' (IH), or acknowledging the potential limitations in one's own beliefs. Specifically, we explore the development of computational methods for measuring IH at scale. We manually curate and validate an IH codebook on 350 posts about religion drawn from subreddits and use them to develop LLM-based models for automating this measurement. Our best model achieves a Macro-F1 score of 0.64 across labels (and 0.70 when predicting IH/IA/Neutral at the coarse level), higher than an expected naive baseline of 0.51 (0.32 for IH/IA/Neutral) but lower than a human annotator-informed upper bound of 0.85 (0.83 for IH/IA/Neutral). Our results both highlight the challenging nature of detecting IH online -- opening the door to new directions in NLP research -- and also lay a foundation for computational social science researchers interested in analyzing and fostering more IH in online public discourse.
- Abstract(参考訳): 個人が一列にまたがって建設的に互いに関わり合う能力は、健全な多元主義社会の重要な特徴である。
これは、ソーシャルメディアプラットフォームのようなオンラインの議論領域にも当てはまります。
これまで多くのソーシャルメディア研究は、政治的分極や誤報の拡散など、病気の予防に重点を置いてきた。
これは重要であるが、オンラインの公開談話の質を高めるには、病気を減らすだけでなく、基礎的な人間の美徳を促進する必要がある。
本研究では,「知的な謙虚」 (IH) という特定の徳に焦点をあてる。
具体的には,大規模IH測定のための計算手法の開発について検討する。
我々は、サブレディットから引き出された宗教に関する350の投稿に対して、IHコードブックを手動でキュレートし、検証し、それを用いて、この測定を自動化するLLMベースのモデルを開発した。
我々の最良のモデルでは、ラベル間のマクロF1スコアが0.64(および粗いレベルでIH/IA/Neutralを予測するとき0.70)であり、予想される平均ベースラインが0.51(IH/IA/Neutralでは0.32)、アノテーターインフォームド上限が0.85(IH/IA/Neutralでは0.83)より低い。
我々の結果は、オンラインのIHを検出するという難しい性質、すなわちNLP研究の新たな方向性への扉を開くこと、そしてオンラインの公開談話の中でより多くのIHを分析し、育成することに関心を持つ計算社会科学研究者のための基盤を築き上げている。
関連論文リスト
- It is Time to Develop an Auditing Framework to Promote Value Aware Chatbots [3.539967259383779]
我々は、この技術の進歩のスピードは、価値に基づく監査フレームワークを動員し、開発する必要があると論じる。
GPT 3.5 と GPT 4 からの応答は,既存の法則から導出される値と一致せず,一致しない。
この論文は、技術改善のための価値ベースの戦略を推奨して締めくくります。
論文 参考訳(メタデータ) (2024-09-03T02:15:34Z) - Rel-A.I.: An Interaction-Centered Approach To Measuring Human-LM Reliance [73.19687314438133]
インタラクションの文脈的特徴が依存に与える影響について検討する。
文脈特性が人間の信頼行動に大きく影響していることが判明した。
これらの結果から,キャリブレーションと言語品質だけでは人間とLMの相互作用のリスクを評価するには不十分であることが示唆された。
論文 参考訳(メタデータ) (2024-07-10T18:00:05Z) - Understanding the performance gap between online and offline alignment algorithms [63.137832242488926]
オフラインのアルゴリズムは、ペアの分類が得意になるようにポリシーを訓練し、オンラインのアルゴリズムは世代ごとに良いことを示しています。
このことは、識別能力と生成能力の間のユニークな相互作用を示唆しており、これはサンプリングプロセスに大きく影響している。
我々の研究は、AIアライメントにおけるオンラインサンプリングの重要な役割に光を当て、オフラインアライメントアルゴリズムのある種の根本的な課題を示唆している。
論文 参考訳(メタデータ) (2024-05-14T09:12:30Z) - MoralBERT: A Fine-Tuned Language Model for Capturing Moral Values in Social Discussions [4.747987317906765]
道徳的価値は、情報を評価し、意思決定し、重要な社会問題に関する判断を形成する上で、基本的な役割を担います。
自然言語処理(NLP)の最近の進歩は、人文コンテンツにおいて道徳的価値を測ることができることを示している。
本稿では、社会談話における道徳的感情を捉えるために微調整された言語表現モデルであるMoralBERTを紹介する。
論文 参考訳(メタデータ) (2024-03-12T14:12:59Z) - Large Language Models Can Infer Psychological Dispositions of Social Media Users [1.0923877073891446]
GPT-3.5とGPT-4は、ゼロショット学習シナリオにおいて、ユーザのFacebookステータス更新からビッグファイブの性格特性を導出できるかどうかを検証する。
その結果, LLM-inferred と self-reported trait score の間には r =.29 (range = [.22,.33]) の相関が認められた。
予測は、いくつかの特徴について、女性と若い個人にとってより正確であることが判明し、基礎となるトレーニングデータやオンライン自己表現の違いから生じる潜在的なバイアスが示唆された。
論文 参考訳(メタデータ) (2023-09-13T01:27:48Z) - Perspectives on the Social Impacts of Reinforcement Learning with Human
Feedback [0.0]
人間のフィードバックによる強化学習(RLHF)は、エージェントが人間のフィードバックから自然主義的に学ぶための強力な候補として浮上している。
OpenAIのChatGPT、DeepMindのSparrow、AnthropicのClaudeなど、複数の著名なAIアプリケーションによって、一般に公開されている。
我々の目的は、RLHFの社会的影響を体系的に研究すること、RLHFの重要な社会的・倫理的問題を特定すること、利害関係者に対する社会的影響を議論することである。
論文 参考訳(メタデータ) (2023-03-06T04:49:38Z) - Incorporating Emotions into Health Mention Classification Task on Social
Media [70.23889100356091]
情緒的特徴を取り入れた健康言及分類のための枠組みを提案する。
我々は,ソーシャルメディアプラットフォームによる5つのHMC関連データセットに対するアプローチを評価した。
以上の結果から,感情的な知識を取り入れたHMCモデルが有効な選択肢であることが示唆された。
論文 参考訳(メタデータ) (2022-12-09T18:38:41Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Delphi: Towards Machine Ethics and Norms [38.8316885346292]
機械倫理と規範に対する4つの根本的な課題を特定します。
私たちのプロトタイプモデルであるDelphiは、言語ベースのコモンセンス道徳的推論の強い可能性を実証しています。
我々は,機械用にカスタマイズされた道徳教科書であるCommonsense Norm Bankを提示する。
論文 参考訳(メタデータ) (2021-10-14T17:38:12Z) - Aligning AI With Shared Human Values [85.2824609130584]
私たちは、正義、幸福、義務、美徳、常識道徳の概念にまたがる新しいベンチマークであるETHICSデータセットを紹介します。
現在の言語モデルは、基本的な人間の倫理的判断を予測できる有望だが不完全な能力を持っている。
私たちの研究は、今日の機械倫理の進歩を示しており、人間の価値観に合わせたAIへの足掛かりを提供する。
論文 参考訳(メタデータ) (2020-08-05T17:59:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。