論文の概要: Improving and Assessing the Fidelity of Large Language Models Alignment to Online Communities
- arxiv url: http://arxiv.org/abs/2408.09366v1
- Date: Sun, 18 Aug 2024 05:41:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-20 20:59:59.090574
- Title: Improving and Assessing the Fidelity of Large Language Models Alignment to Online Communities
- Title(参考訳): オンラインコミュニティにおける大規模言語モデルの適合性向上と評価
- Authors: Minh Duc Chu, Zihao He, Rebecca Dorn, Kristina Lerman,
- Abstract要約: 大規模言語モデル(LLM)は個人やコミュニティの表現において有望であることを示している。
本稿では,LLMとオンラインコミュニティの連携を行うためのフレームワークを提案する。
ダイエットと体像を中心としたオンラインコミュニティに適用することで,我々のアプローチの有用性を実証する。
- 参考スコア(独自算出の注目度): 5.392300313326522
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) have shown promise in representing individuals and communities, offering new ways to study complex social dynamics. However, effectively aligning LLMs with specific human groups and systematically assessing the fidelity of the alignment remains a challenge. This paper presents a robust framework for aligning LLMs with online communities via instruction-tuning and comprehensively evaluating alignment across various aspects of language, including authenticity, emotional tone, toxicity, and harm. We demonstrate the utility of our approach by applying it to online communities centered on dieting and body image. We administer an eating disorder psychometric test to the aligned LLMs to reveal unhealthy beliefs and successfully differentiate communities with varying levels of eating disorder risk. Our results highlight the potential of LLMs in automated moderation and broader applications in public health and social science research.
- Abstract(参考訳): 大規模言語モデル(LLM)は個人やコミュニティを表現し、複雑な社会力学を研究する新しい方法を提供している。
しかしながら、LLMを特定のヒトグループと効果的に整列し、アライメントの忠実さを体系的に評価することは依然として課題である。
本稿では,LLMとオンラインコミュニティの整合性を評価するための堅牢な枠組みとして,信頼度,感情的トーン,毒性,有害度など,言語の各側面のアライメントを総合的に評価する。
ダイエットと体像を中心としたオンラインコミュニティに適用することで,我々のアプローチの有用性を実証する。
我々は,摂食障害の精神測定テストを実施し,不健康な信念を明らかにするとともに,摂食障害リスクのレベルが異なる地域社会の差別化に成功している。
本研究は, 自動モデレーションにおけるLCMsの可能性と, 公衆衛生・社会科学研究における幅広い応用を明らかにするものである。
関連論文リスト
- Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - Stars, Stripes, and Silicon: Unravelling the ChatGPT's All-American, Monochrome, Cis-centric Bias [0.0]
論文はこれらの課題に対処するための学際的な取り組みを求めている。
ガバナンスフレームワークを確立するために、研究者、実践者、ステークホルダー間のコラボレーションの必要性を強調します。
論文 参考訳(メタデータ) (2024-10-02T08:55:00Z) - A Multi-LLM Debiasing Framework [85.17156744155915]
大規模言語モデル(LLM)は、社会に多大な利益をもたらす可能性がある強力なツールであるが、社会的不平等を持続するバイアスを示す。
近年,マルチLLM手法への関心が高まっており,推論の質向上に有効であることが示されている。
LLMのバイアス低減を目的としたマルチLLMデバイアスフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-20T20:24:50Z) - COMMUNITY-CROSS-INSTRUCT: Unsupervised Instruction Generation for Aligning Large Language Models to Online Communities [5.0261645603931475]
コミュニティ・クロス・インストラクション(Community-Cross-Instruct)は,大規模言語モデルをオンラインコミュニティに整合させ,信念を導き出す,教師なしのフレームワークである。
Reddit上で政治・食生活のコミュニティを正確に表現する手法の有用性を実証する。
論文 参考訳(メタデータ) (2024-06-17T20:20:47Z) - Beyond Human Norms: Unveiling Unique Values of Large Language Models through Interdisciplinary Approaches [69.73783026870998]
本研究では,大言語モデルの固有値システムをスクラッチから再構築する新しいフレームワークであるValueLexを提案する。
語彙仮説に基づいて、ValueLexは30以上のLLMから様々な値を引き出すための生成的アプローチを導入している。
我々は,3つのコア値次元,能力,キャラクタ,積分をそれぞれ特定の部分次元で同定し,LLMが非人間的だが構造化された価値体系を持っていることを明らかにした。
論文 参考訳(メタデータ) (2024-04-19T09:44:51Z) - Network Formation and Dynamics Among Multi-LLMs [5.8418144988203915]
大規模言語モデル (LLM) は, ネットワーク形成における好みを問うと, 重要なソーシャルネットワークの原則を示す。
また、実世界のネットワークに基づくLCMの意思決定について検討し、三進的閉鎖とホモフィリーが優先的なアタッチメントよりも強い影響があることを明らかにした。
論文 参考訳(メタデータ) (2024-02-16T13:10:14Z) - Rethinking Machine Unlearning for Large Language Models [85.92660644100582]
大規模言語モデル(LLM)の領域における機械学習の研究
このイニシアチブは、望ましくないデータの影響(機密情報や違法情報など)と関連するモデル機能を排除することを目的としている。
論文 参考訳(メタデータ) (2024-02-13T20:51:58Z) - Large Language Models Help Reveal Unhealthy Diet and Body Concerns in Online Eating Disorders Communities [5.392300313326522]
摂食障害(ED)は世界中の何百万人もの若者、特に青年に影響を及ぼす。
EDを宣伝し、標準化するオンラインコミュニティの急増は、この公衆衛生危機に結びついている。
本研究では,大規模言語モデルをコミュニティの言語に適応させることにより,オンラインコミュニティの暗黙の態度を明らかにする新しい枠組みを提案する。
論文 参考訳(メタデータ) (2024-01-17T23:32:56Z) - Redefining Digital Health Interfaces with Large Language Models [69.02059202720073]
大規模言語モデル(LLM)は、複雑な情報を処理できる汎用モデルとして登場した。
LLMが臨床医とデジタル技術との新たなインターフェースを提供する方法を示す。
自動機械学習を用いた新しい予後ツールを開発した。
論文 参考訳(メタデータ) (2023-10-05T14:18:40Z) - Training Socially Aligned Language Models on Simulated Social
Interactions [99.39979111807388]
AIシステムにおける社会的アライメントは、確立された社会的価値に応じてこれらのモデルが振舞うことを保証することを目的としている。
現在の言語モデル(LM)は、トレーニングコーパスを独立して厳格に複製するように訓練されている。
本研究は,シミュレートされた社会的相互作用からLMを学習することのできる,新しい学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-26T14:17:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。