論文の概要: SurveyLM: A platform to explore emerging value perspectives in augmented
language models' behaviors
- arxiv url: http://arxiv.org/abs/2308.00521v1
- Date: Tue, 1 Aug 2023 12:59:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-02 14:13:25.047165
- Title: SurveyLM: A platform to explore emerging value perspectives in augmented
language models' behaviors
- Title(参考訳): surveylm: 拡張言語モデルの振る舞いにおける新たな価値観を探求するプラットフォーム
- Authors: Steve J. Bickley, Ho Fai Chan, Bang Dao, Benno Torgler, Son Tran
- Abstract要約: 本稿では,拡張言語モデル(ALM)の創発的アライメント行動を分析するプラットフォームであるSurveyLMについて述べる。
従来社会行動研究に用いられてきた調査・実験手法を応用し,ALMを体系的に評価する。
我々は,ALMの創発的行動に影響を与える要因に光を当てること,人間の意図や期待との整合性を促進すること,高度社会AIシステムの開発と展開に寄与することを目的としている。
- 参考スコア(独自算出の注目度): 0.4724825031148411
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This white paper presents our work on SurveyLM, a platform for analyzing
augmented language models' (ALMs) emergent alignment behaviors through their
dynamically evolving attitude and value perspectives in complex social
contexts. Social Artificial Intelligence (AI) systems, like ALMs, often
function within nuanced social scenarios where there is no singular correct
response, or where an answer is heavily dependent on contextual factors, thus
necessitating an in-depth understanding of their alignment dynamics. To address
this, we apply survey and experimental methodologies, traditionally used in
studying social behaviors, to evaluate ALMs systematically, thus providing
unprecedented insights into their alignment and emergent behaviors. Moreover,
the SurveyLM platform leverages the ALMs' own feedback to enhance survey and
experiment designs, exploiting an underutilized aspect of ALMs, which
accelerates the development and testing of high-quality survey frameworks while
conserving resources. Through SurveyLM, we aim to shed light on factors
influencing ALMs' emergent behaviors, facilitate their alignment with human
intentions and expectations, and thereby contributed to the responsible
development and deployment of advanced social AI systems. This white paper
underscores the platform's potential to deliver robust results, highlighting
its significance to alignment research and its implications for future social
AI systems.
- Abstract(参考訳): 白書では,複雑な社会的文脈における動的に変化する態度と価値の視点を通して,拡張言語モデル(ALM)の創発的アライメント行動を分析するプラットフォームであるSurveyLMについて述べる。
社会人工知能(AI)システム(ALM)は、特定の正しい応答がない場合や、応答が文脈的要因に大きく依存している場合など、微妙な社会的シナリオの中で機能するため、アライメントのダイナミクスを深く理解する必要がある。
そこで本稿では,従来社会行動研究に用いられてきた調査・実験手法を適用し,ALMを体系的に評価し,アライメントや創発的行動に対する前例のない洞察を与える。
さらに、SurveyLMプラットフォームはALM自身のフィードバックを活用して、調査と実験の設計を強化し、ALMの未使用の側面を活用し、リソースを維持しながら高品質なサーベイフレームワークの開発とテストを促進する。
SurveyLMを通じて、ALMの創発的行動に影響を与える要因を明らかにし、人間の意図や期待との整合を促進し、高度社会AIシステムの開発と展開に寄与することを目指している。
このホワイトペーパーは、プラットフォームが堅牢な結果を提供する可能性を強調し、研究のアライメントと将来のソーシャルAIシステムに対するその意味を強調します。
関連論文リスト
- Engagement-Driven Content Generation with Large Language Models [8.049552839071918]
大規模言語モデル(LLM)は1対1の相互作用において重要な説得能力を示す。
本研究では,相互接続型ユーザにおけるLCMの社会的影響と複雑な意見力学について検討する。
論文 参考訳(メタデータ) (2024-11-20T10:40:08Z) - Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - Evaluating Cultural and Social Awareness of LLM Web Agents [113.49968423990616]
CASAは,大規模言語モデルの文化的・社会的規範に対する感受性を評価するためのベンチマークである。
提案手法は,標準に違反するユーザクエリや観察を検知し,適切に応答するLLMエージェントの能力を評価する。
実験により、現在のLLMは非エージェント環境で大幅に性能が向上していることが示された。
論文 参考訳(メタデータ) (2024-10-30T17:35:44Z) - Decoding Large-Language Models: A Systematic Overview of Socio-Technical Impacts, Constraints, and Emerging Questions [1.1970409518725493]
この記事では、倫理的考察とともに、社会に肯定的な影響を与える可能性のある適用領域を強調します。
これには、開発に関する責任ある考慮、アルゴリズムの改善、倫理的課題、社会的影響が含まれる。
論文 参考訳(メタデータ) (2024-09-25T14:36:30Z) - Explaining Large Language Models Decisions Using Shapley Values [1.223779595809275]
大規模言語モデル(LLM)は、人間の行動や認知過程をシミュレートするエキサイティングな可能性を開いた。
しかし, LLMを人体用スタンドインとして活用する妥当性は, いまだに不明である。
本稿では,モデルの出力に対する各プロンプト成分の相対的寄与を定量化するために,シェープリー値に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-03-29T22:49:43Z) - Do LLM Agents Exhibit Social Behavior? [5.094340963261968]
State-Understanding-Value-Action (SUVA) は、社会的文脈における応答を体系的に分析するフレームワークである。
最終決定とそれにつながる反応生成プロセスの両方を通じて社会的行動を評価する。
発話に基づく推論がLLMの最終動作を確実に予測できることを実証する。
論文 参考訳(メタデータ) (2023-12-23T08:46:53Z) - Exploring Collaboration Mechanisms for LLM Agents: A Social Psychology View [60.80731090755224]
本稿では,理論的洞察を用いた実用実験により,現代NLPシステム間の協調機構を解明する。
我々は, LLMエージェントからなる4つの独特な社会をつくり, それぞれのエージェントは, 特定の特性(容易性, 過信性)によって特徴づけられ, 異なる思考パターン(議論, ふりかえり)と協調する。
以上の結果から, LLMエージェントは, 社会心理学理論を反映した, 適合性やコンセンサスリーディングといった人間的な社会的行動を示すことが明らかとなった。
論文 参考訳(メタデータ) (2023-10-03T15:05:52Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Training Socially Aligned Language Models on Simulated Social
Interactions [99.39979111807388]
AIシステムにおける社会的アライメントは、確立された社会的価値に応じてこれらのモデルが振舞うことを保証することを目的としている。
現在の言語モデル(LM)は、トレーニングコーパスを独立して厳格に複製するように訓練されている。
本研究は,シミュレートされた社会的相互作用からLMを学習することのできる,新しい学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-26T14:17:36Z) - Interactive Natural Language Processing [67.87925315773924]
対話型自然言語処理(iNLP)は,NLP分野における新しいパラダイムとして登場した。
本稿では,iNLPの概念の統一的定義と枠組みを提案することから,iNLPに関する包括的調査を行う。
論文 参考訳(メタデータ) (2023-05-22T17:18:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。