論文の概要: Ethics and Persuasion in Reinforcement Learning from Human Feedback: A Procedural Rhetorical Approach
- arxiv url: http://arxiv.org/abs/2505.09576v1
- Date: Wed, 14 May 2025 17:29:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-15 21:44:09.547884
- Title: Ethics and Persuasion in Reinforcement Learning from Human Feedback: A Procedural Rhetorical Approach
- Title(参考訳): 人のフィードバックからの強化学習における倫理と説得--手続き的レトリックによるアプローチ
- Authors: Shannon Lodoen, Alexi Orchard,
- Abstract要約: 2022年以降、ChatGPTやClaudeのような生成AIチャットボットのバージョンは、Reinforcement Learning from Human Feedbackと呼ばれる特殊なテクニックを使って訓練されている。
本稿では,RLHFの強化された生成AIによって現在再形成されている中心的な手順と過程の修辞的分析について述べる。
- 参考スコア(独自算出の注目度): 3.2228025627337864
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Since 2022, versions of generative AI chatbots such as ChatGPT and Claude have been trained using a specialized technique called Reinforcement Learning from Human Feedback (RLHF) to fine-tune language model output using feedback from human annotators. As a result, the integration of RLHF has greatly enhanced the outputs of these large language models (LLMs) and made the interactions and responses appear more "human-like" than those of previous versions using only supervised learning. The increasing convergence of human and machine-written text has potentially severe ethical, sociotechnical, and pedagogical implications relating to transparency, trust, bias, and interpersonal relations. To highlight these implications, this paper presents a rhetorical analysis of some of the central procedures and processes currently being reshaped by RLHF-enhanced generative AI chatbots: upholding language conventions, information seeking practices, and expectations for social relationships. Rhetorical investigations of generative AI and LLMs have, to this point, focused largely on the persuasiveness of the content generated. Using Ian Bogost's concept of procedural rhetoric, this paper shifts the site of rhetorical investigation from content analysis to the underlying mechanisms of persuasion built into RLHF-enhanced LLMs. In doing so, this theoretical investigation opens a new direction for further inquiry in AI ethics that considers how procedures rerouted through AI-driven technologies might reinforce hegemonic language use, perpetuate biases, decontextualize learning, and encroach upon human relationships. It will therefore be of interest to educators, researchers, scholars, and the growing number of users of generative AI chatbots.
- Abstract(参考訳): 2022年以降、ChatGPTやClaudeといった生成AIチャットボットのバージョンは、人間のフィードバックからの強化学習(Reinforcement Learning from Human Feedback, RLHF)と呼ばれる特殊なテクニックを使ってトレーニングされ、人間のアノテーションからのフィードバックを使って言語モデル出力を微調整する。
その結果、RLHFの統合により、これらの大きな言語モデル(LLM)の出力が大幅に向上し、教師付き学習のみを用いることで、対話や応答が以前のバージョンよりも「人間的」に見えるようになった。
人間と機械による文章の収束は、透明性、信頼、偏見、対人関係に関連する深刻な倫理的、社会技術的、教育的な意味を持つ可能性がある。
本稿は,RLHFの強化した生成型AIチャットボットによって現在形成されているいくつかの中心的な手順とプロセスの修辞的分析,すなわち,言語慣行の維持,情報探索の実践,社会関係への期待について述べる。
生成AIとLLMの修辞的な研究は、これまで主に、生成されたコンテンツの説得性に焦点を当ててきた。
本稿では、Ian Bogost氏の手続き的レトリックの概念を用いて、レトリック研究の現場を、コンテンツ分析からRLHF強化LLMに組み込まれた説得の基盤メカニズムへとシフトさせる。
この理論的な調査は、AI駆動技術による手続きが、ヘゲモニック言語の使用を強化し、バイアスを持続させ、学習を非テクスチャ化し、人間関係を侵食する可能性を考察する、AI倫理におけるさらなる調査の新たな方向を開く。
そのため、教育者、研究者、学者、そして生成型AIチャットボットの利用者の増加に関心を持つだろう。
関連論文リスト
- Confirmation Bias in Generative AI Chatbots: Mechanisms, Risks, Mitigation Strategies, and Future Research Directions [0.0]
本稿では,AIチャットボットの確認バイアスが現れるメカニズムを解析する。
このようなバイアスに関連する倫理的・実践的なリスクを評価し、様々な緩和戦略を提案する。
この記事では、生成的AIシステムにおける確認バイアスをよりよく理解し、対処するために、学際的なコラボレーションと経験的評価の必要性を強調して、結論付けている。
論文 参考訳(メタデータ) (2025-04-12T21:08:36Z) - Applying IRT to Distinguish Between Human and Generative AI Responses to Multiple-Choice Assessments [0.0]
評価に複数の選択質問が広く使用されているにもかかわらず、AI不正の検出はほとんど調査されていない。
本稿では,このギャップに対処するための項目応答理論の適用法を提案する。
我々のアプローチは、人工知能と人間の知性が異なる応答パターンを示すという仮定に基づいている。
論文 参考訳(メタデータ) (2024-11-28T09:43:06Z) - Combatting Human Trafficking in the Cyberspace: A Natural Language
Processing-Based Methodology to Analyze the Language in Online Advertisements [55.2480439325792]
このプロジェクトは、高度自然言語処理(NLP)技術により、オンラインC2Cマーケットプレースにおける人身売買の急激な問題に取り組む。
我々は、最小限の監督で擬似ラベル付きデータセットを生成する新しい手法を導入し、最先端のNLPモデルをトレーニングするための豊富なリソースとして機能する。
重要な貢献は、Integrated Gradientsを使った解釈可能性フレームワークの実装であり、法執行にとって重要な説明可能な洞察を提供する。
論文 参考訳(メタデータ) (2023-11-22T02:45:01Z) - Analysis of the User Perception of Chatbots in Education Using A Partial
Least Squares Structural Equation Modeling Approach [0.0]
オプティミズム、イノベーティブネス、不快感、不安、透明性、倫理、相互作用、エンゲージメント、正確さといった主要な行動関連側面について研究した。
その結果、最適性と革新性は、知覚的使用覚(PEOU)と知覚的有用性(PU)に正の相関があることが判明した。
論文 参考訳(メタデータ) (2023-11-07T00:44:56Z) - Exploration with Principles for Diverse AI Supervision [88.61687950039662]
次世代の予測を用いた大規模トランスフォーマーのトレーニングは、AIの画期的な進歩を生み出した。
この生成AIアプローチは印象的な結果をもたらしたが、人間の監督に大きく依存している。
この人間の監視への強い依存は、AIイノベーションの進歩に重大なハードルをもたらす。
本稿では,高品質なトレーニングデータを自律的に生成することを目的とした,探索型AI(EAI)という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-13T07:03:39Z) - Human-AI Coevolution [48.74579595505374]
Coevolution AIは、人間とAIアルゴリズムが相互に連続的に影響を及ぼすプロセスである。
本稿では,AIと複雑性科学の交点における新たな研究分野の基盤として,Coevolution AIを紹介した。
論文 参考訳(メタデータ) (2023-06-23T18:10:54Z) - Generative AI: Implications and Applications for Education [0.0]
2022年11月のChatGPTの打ち上げは、一部の教育者の間でパニックを巻き起こし、他者からの資格ある熱意を喚起した。
Generative AIという抽象用語の下では、ChatGPTはコンピュータ生成テキスト、画像、その他のデジタルメディアを配信するための様々な技術の例である。
論文 参考訳(メタデータ) (2023-05-12T16:52:38Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - CHAI: A CHatbot AI for Task-Oriented Dialogue with Offline Reinforcement
Learning [85.3987745097806]
オフライン強化学習は、人間の話者から収集された静的データセットを使用して、対話エージェントをトレーニングするために使用することができる。
実験により,最近開発されたオフラインRL手法と言語モデルを組み合わせることで,現実的な対話エージェントが得られることが示された。
論文 参考訳(メタデータ) (2022-04-18T17:43:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。