論文の概要: In conversation with Artificial Intelligence: aligning language models
with human values
- arxiv url: http://arxiv.org/abs/2209.00731v1
- Date: Thu, 1 Sep 2022 21:16:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-05 12:39:53.343560
- Title: In conversation with Artificial Intelligence: aligning language models
with human values
- Title(参考訳): 人工知能との会話:言語モデルと人間の価値の整合性
- Authors: Atoosa Kasirzadeh, Iason Gabriel
- Abstract要約: 大規模言語技術は、さまざまな文脈における人間とのコミュニケーションの様々な形態で使われるようになっている。
これらの技術のユースケースのひとつに会話エージェントがあり、プロンプトやクエリに応答して自然言語のテキストを出力する。
このタイプの関与は、多くの社会的および倫理的な疑問を提起する。
これらの疑問に答えるためのステップをいくつか提案する。
- 参考スコア(独自算出の注目度): 4.56877715768796
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large-scale language technologies are increasingly used in various forms of
communication with humans across different contexts. One particular use case
for these technologies is conversational agents, which output natural language
text in response to prompts and queries. This mode of engagement raises a
number of social and ethical questions. For example, what does it mean to align
conversational agents with human norms or values? Which norms or values should
they be aligned with? And how can this be accomplished? In this paper, we
propose a number of steps that help answer these questions. We start by
developing a philosophical analysis of the building blocks of linguistic
communication between conversational agents and human interlocutors. We then
use this analysis to identify and formulate ideal norms of conversation that
can govern successful linguistic communication between humans and
conversational agents. Furthermore, we explore how these norms can be used to
align conversational agents with human values across a range of different
discursive domains. We conclude by discussing the practical implications of our
proposal for the design of conversational agents that are aligned with these
norms and values.
- Abstract(参考訳): 大規模言語技術は、様々な文脈で人間と様々な形のコミュニケーションにますます使われている。
これらの技術のユースケースのひとつに会話エージェントがあり、プロンプトやクエリに応答して自然言語を出力する。
この行動様式は多くの社会的・倫理的疑問を提起する。
例えば、会話エージェントを人間の規範や価値観に合わせることが何を意味するのか?
どの規範や値に合わせるべきか?
どのように達成できるのでしょうか?
本稿では,これらの疑問に答えるためのステップをいくつか提案する。
まず,会話エージェントと対話者間の言語コミュニケーションの構成要素に関する哲学的分析を行うことから始める。
次に、この分析を用いて、人間と会話エージェント間の言語コミュニケーションを成功させることのできる会話の理想的な規範を特定し、定式化する。
さらに,これらの規範を用いて,会話エージェントと人間の価値観を,さまざまな分散ドメインで一致させる方法について検討する。
本稿では,これらの規範や価値観に適合した対話エージェントの設計に関する提案の実践的意味を論じる。
関連論文リスト
- "Hiding in Plain Sight": Designing Synthetic Dialog Generation for Uncovering Socially Situated Norms [19.91823526731224]
本稿では,対話の制御のためのフレームワークを提案する。
我々はこのフレームワークを使用して、リッチな設定に整合した対話の集合であるNormHintを生成し、競合につながる規範違反を解析する。
そこで本研究では,会話の自然さについて,会話の話題を多岐にわたって捉え,人間から高い評価を得た。
論文 参考訳(メタデータ) (2024-10-01T18:38:23Z) - Self-Directed Turing Test for Large Language Models [56.64615470513102]
チューリングテストは、自然言語の会話においてAIが人間のような振る舞いを示すことができるかどうかを調べる。
従来のチューリングテストでは、各参加者が1回に1つのメッセージだけを送信する厳格な対話形式を採用している。
本稿では,バーストダイアログ形式を用いた自己指示チューリングテストを提案する。
論文 参考訳(メタデータ) (2024-08-19T09:57:28Z) - From Human-to-Human to Human-to-Bot Conversations in Software Engineering [3.1747517745997014]
AIとチャットボットの統合後,現代のソフトウェア開発において発生する会話のダイナミクスを理解することを目的としている。
既存の会話属性を人間やNLUベースのチャットボットとコンパイルし、ソフトウェア開発のコンテキストに適応する。
我々は人間同士の会話と人間同士の会話の類似点と相違点を示す。
LLM-chatbotsによる最近の会話スタイルは、人間との会話に取って代わるものではないと結論付けている。
論文 参考訳(メタデータ) (2024-05-21T12:04:55Z) - Computational Argumentation-based Chatbots: a Survey [0.4024850952459757]
本調査は,このような議論に基づくボットに関する論文をレビューするために,文献を精査する。
このアプローチの欠点とメリットについて結論を導きます。
また、Transformerベースのアーキテクチャや最先端の大規模言語モデルとの将来の開発や統合も検討している。
論文 参考訳(メタデータ) (2024-01-07T11:20:42Z) - PLACES: Prompting Language Models for Social Conversation Synthesis [103.94325597273316]
我々は、プロンプトを用いてソーシャルな会話データセットを合成するために、専門家による会話の小さなセットをコンテキスト内例として使用します。
人工会話の徹底的な評価を,人間による会話と比較して行った。
論文 参考訳(メタデータ) (2023-02-07T05:48:16Z) - Training Conversational Agents with Generative Conversational Networks [74.9941330874663]
我々は、生成会話ネットワークを使用して、自動的にデータを生成し、社会的会話エージェントを訓練する。
自動メトリクスと人的評価器を用いてTopicalChatのアプローチを評価し、10%のシードデータで100%のデータを使用するベースラインに近いパフォーマンスを示す。
論文 参考訳(メタデータ) (2021-10-15T21:46:39Z) - Human-like informative conversations: Better acknowledgements using
conditional mutual information [0.0]
この研究は、人間と同じくらい自然に会話に新しい事実コンテンツを織り込むことができる対話エージェントを構築することを目指しています。
対話分析の言語的原則から洞察を得て,switchboard dialog actコーパスから人間と人間の会話を注釈づけする。
論文 参考訳(メタデータ) (2021-04-16T00:13:57Z) - Can You be More Social? Injecting Politeness and Positivity into
Task-Oriented Conversational Agents [60.27066549589362]
人間エージェントが使用する社会言語は、ユーザーの応答性の向上とタスク完了に関連しています。
このモデルは、ソーシャル言語理解要素で拡張されたシーケンスからシーケンスまでのディープラーニングアーキテクチャを使用する。
人的判断と自動言語尺度の両方を用いたコンテンツ保存と社会言語レベルの評価は,エージェントがより社会的に適切な方法でユーザの問題に対処できる応答を生成できることを示している。
論文 参考訳(メタデータ) (2020-12-29T08:22:48Z) - Aligning AI With Shared Human Values [85.2824609130584]
私たちは、正義、幸福、義務、美徳、常識道徳の概念にまたがる新しいベンチマークであるETHICSデータセットを紹介します。
現在の言語モデルは、基本的な人間の倫理的判断を予測できる有望だが不完全な能力を持っている。
私たちの研究は、今日の機械倫理の進歩を示しており、人間の価値観に合わせたAIへの足掛かりを提供する。
論文 参考訳(メタデータ) (2020-08-05T17:59:16Z) - I love your chain mail! Making knights smile in a fantasy game world:
Open-domain goal-oriented dialogue agents [69.68400056148336]
我々は、模倣学習したチトチャットモデルに対して強化学習を施した目標指向モデルを訓練する。
両モデルが逆モデルベースラインより優れており,目標を達成するために対話相手と自然に会話できることを示す。
論文 参考訳(メタデータ) (2020-02-07T16:22:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。