論文の概要: What makes for a 'good' social actor? Using respect as a lens to
evaluate interactions with language agents
- arxiv url: http://arxiv.org/abs/2401.09082v1
- Date: Wed, 17 Jan 2024 09:44:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 16:11:06.271711
- Title: What makes for a 'good' social actor? Using respect as a lens to
evaluate interactions with language agents
- Title(参考訳): 良い」社交俳優に何をもたらすか。
レンズとしての敬意を用いた言語エージェントとのインタラクション評価
- Authors: Lize Alberts, Geoff Keeling and Amanda McCroskery
- Abstract要約: 本稿では,社会的アクターとしてのシステムの意味を探究し,関係性や状況的要因を重視した倫理的アプローチを提案する。
我々の研究は、位置する相互作用のレベルにおいて、ほとんど探索されていないリスクのセットを予想し、LLM技術が「良い」社会的アクターとして振る舞うのを手助けし、人々を敬意をもって扱うための実践的な提案を提供する。
- 参考スコア(独自算出の注目度): 0.13154809715742516
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the growing popularity of dialogue agents based on large language models
(LLMs), urgent attention has been drawn to finding ways to ensure their
behaviour is ethical and appropriate. These are largely interpreted in terms of
the 'HHH' criteria: making outputs more helpful and honest, and avoiding
harmful (biased, toxic, or inaccurate) statements. Whilst this semantic focus
is useful from the perspective of viewing LLM agents as mere mediums for
information, it fails to account for pragmatic factors that can make the same
utterance seem more or less offensive or tactless in different social
situations. We propose an approach to ethics that is more centred on relational
and situational factors, exploring what it means for a system, as a social
actor, to treat an individual respectfully in a (series of) interaction(s). Our
work anticipates a set of largely unexplored risks at the level of situated
interaction, and offers practical suggestions to help LLM technologies behave
as 'good' social actors and treat people respectfully.
- Abstract(参考訳): 大規模言語モデル(LLM)に基づく対話エージェントの普及に伴い、彼らの行動が倫理的かつ適切であることを確実にする方法を見つけるために緊急の注意が向けられている。
これらは主に、アウトプットをより有益で正直にし、有害な(バイアス、毒性、不正確な)ステートメントを避けるという「hhh」の基準で解釈される。
この意味論的な焦点は、llmエージェントを単なる情報メディアとして見るという観点からは有用であるが、異なる社会的状況において、同じ発話を多かれ少なかれ攻撃的あるいは無力に感じさせるような実用的要因を考慮できない。
本研究では,関係性や状況的要因を中心にした倫理的アプローチを提案し,社会的アクターとしてのシステムの意味を探求し,個人を(一連の)インタラクションにおいて尊重する。
我々の研究は、位置する相互作用のレベルで、ほとんど探索されていないリスクのセットを予想し、LLM技術が「良い」社会的アクターとして振る舞うことを助けるための実践的な提案を提供し、人々を敬意をもって扱う。
関連論文リスト
- How do Large Language Models Navigate Conflicts between Honesty and
Helpfulness? [14.706111954807021]
人間の振る舞いを特徴付けるための心理モデルと実験を用いて、大きな言語モデルを分析する。
人間のフィードバックからの強化学習は、誠実さと有用性の両方を改善している。
GPT-4 Turboは、会話のフレーミングやリスナーの判断コンテキストに対する感度を含む人間的な応答パターンを実証する。
論文 参考訳(メタデータ) (2024-02-11T19:13:26Z) - LLM Agents in Interaction: Measuring Personality Consistency and
Linguistic Alignment in Interacting Populations of Large Language Models [4.706971067968811]
簡単な変数誘導サンプリングアルゴリズムを用いて,大規模言語モデル (LLM) エージェントの2群集団を作成する。
人格検査を行ない、共同作業にエージェントを提出し、異なるプロファイルが会話相手に対して異なるレベルの人格整合性および言語的整合性を示すことを確認する。
論文 参考訳(メタデータ) (2024-02-05T11:05:20Z) - Zero-Shot Goal-Directed Dialogue via RL on Imagined Conversations [70.7884839812069]
大規模言語モデル(LLM)は、多くの自然言語タスクに対する強力で一般的な解決策として登場した。
しかしながら、言語生成の最も重要なアプリケーションの多くは対話的であり、エージェントは望ましい結果に達するために相手と話し合わなければならない。
本研究では,そのような目標指向対話に対して,RLでLLMを適応させる新しい手法について検討する。
論文 参考訳(メタデータ) (2023-11-09T18:45:16Z) - LLM-Based Agent Society Investigation: Collaboration and Confrontation
in Avalon Gameplay [57.202649879872624]
Avalonのゲームプレイにシームレスに適応する新しいフレームワークを提案する。
提案するフレームワークの中核は,エージェント間の効率的な通信と対話を可能にするマルチエージェントシステムである。
本研究は,適応的かつインテリジェントなエージェントを生成する上で,我々のフレームワークの有効性を示すものである。
論文 参考訳(メタデータ) (2023-10-23T14:35:26Z) - SOTOPIA: Interactive Evaluation for Social Intelligence in Language
Agents [110.61079677969957]
人工エージェントと人間との複雑な社会的相互作用をシミュレートするオープンエンド環境であるSOTOPIAを提案する。
エージェントは、複雑な社会的目標を達成するために協調し、協力し、交換し、互いに競い合う。
GPT-4は,人間よりも目標達成率が著しく低く,社会的常識的推論や戦略的コミュニケーション能力の発揮に苦慮していることがわかった。
論文 参考訳(メタデータ) (2023-10-18T02:27:01Z) - Investigating Emergent Goal-Like Behaviour in Large Language Models
Using Experimental Economics [0.0]
社会ジレンマにおける協調的,競争的,利他的,利己的行動の自然言語記述を運用する大規模言語モデル(LLM)の能力について検討する。
我々の焦点は、非ゼロサム相互作用の古典的な例である反復された囚人のジレンマである。
論文 参考訳(メタデータ) (2023-05-13T17:23:16Z) - Understanding How People Rate Their Conversations [73.17730062864314]
我々は、人々が会話エージェントとのインタラクションをどのように評価するかをよりよく理解するために研究を行う。
我々は、評価の変動を説明する変数として、同意性と外向性に焦点を当てる。
論文 参考訳(メタデータ) (2022-06-01T00:45:32Z) - Aligning to Social Norms and Values in Interactive Narratives [89.82264844526333]
我々は、インタラクティブな物語やテキストベースのゲームにおいて、社会的に有益な規範や価値観に沿って行動するエージェントを作成することに注力する。
我々は、特別な訓練を受けた言語モデルに存在する社会的コモンセンス知識を用いて、社会的に有益な値に整合した行動にのみ、その行動空間を文脈的に制限するGAALADエージェントを紹介した。
論文 参考訳(メタデータ) (2022-05-04T09:54:33Z) - Can You be More Social? Injecting Politeness and Positivity into
Task-Oriented Conversational Agents [60.27066549589362]
人間エージェントが使用する社会言語は、ユーザーの応答性の向上とタスク完了に関連しています。
このモデルは、ソーシャル言語理解要素で拡張されたシーケンスからシーケンスまでのディープラーニングアーキテクチャを使用する。
人的判断と自動言語尺度の両方を用いたコンテンツ保存と社会言語レベルの評価は,エージェントがより社会的に適切な方法でユーザの問題に対処できる応答を生成できることを示している。
論文 参考訳(メタデータ) (2020-12-29T08:22:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。