論文の概要: Human Heuristics for AI-Generated Language Are Flawed
- arxiv url: http://arxiv.org/abs/2206.07271v1
- Date: Wed, 15 Jun 2022 03:18:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-16 12:46:32.694381
- Title: Human Heuristics for AI-Generated Language Are Flawed
- Title(参考訳): AI生成言語のためのヒューマンヒューリスティックス
- Authors: Maurice Jakesch, Jeffrey Hancock, Mor Naaman
- Abstract要約: 我々は、AIによって最も個人的で連続的な言語(自己表現)が生み出されたかどうかを人間がどのように認識するかを研究する。
プロフェッショナル、ホスピタリティ、ロマンチックな設定全体で、人間はAIが生成する自己表現を特定できない。
これらにより、生成された言語を予測可能かつ操作可能とし、AIシステムが人間よりも人間として認識される言語を生成できることが示される。
- 参考スコア(独自算出の注目度): 8.465228064780744
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human communication is increasingly intermixed with language generated by AI.
Across chat, email, and social media, AI systems produce smart replies,
autocompletes, and translations. AI-generated language is often not identified
as such but poses as human language, raising concerns about novel forms of
deception and manipulation. Here, we study how humans discern whether one of
the most personal and consequential forms of language - a self-presentation -
was generated by AI. Across six experiments, participants (N = 4,650) tried to
identify self-presentations generated by state-of-the-art language models.
Across professional, hospitality, and romantic settings, we find that humans
are unable to identify AI-generated self-presentations. Combining qualitative
analyses with language feature engineering, we find that human judgments of
AI-generated language are handicapped by intuitive but flawed heuristics such
as associating first-person pronouns, authentic words, or family topics with
humanity. We show that these heuristics make human judgment of generated
language predictable and manipulable, allowing AI systems to produce language
perceived as more human than human. We conclude by discussing solutions - such
as AI accents or fair use policies - to reduce the deceptive potential of
generated language, limiting the subversion of human intuition.
- Abstract(参考訳): 人間のコミュニケーションは、AIによって生成された言語とますます混ざり合っている。
チャット、メール、ソーシャルメディアを通じて、AIシステムはスマートリプライ、オートコンプリート、翻訳を生成する。
aiが生成する言語は、しばしばそのようなものとして識別されるのではなく、人間の言語として振る舞う。
本稿では,aiが生成する自己表現言語として,最も個人的かつ連続的な言語形態の1つを人間がどのように識別するかについて検討する。
6つの実験で、参加者(n = 4,650)は最先端言語モデルによって生成された自己表現を同定しようとした。
プロフェッショナル、ホスピタリティ、ロマンチックな設定全体で、人間はAIが生成する自己表現を特定できない。
定性的な分析と言語特徴工学を組み合わせることで、AI生成言語の人間の判断は直感的だが欠陥のあるヒューリスティック(人称代名詞の連想、真正語、家族の話題と人間性)によって障害を受ける。
これらのヒューリスティックは、生成した言語を予測可能かつ操作可能とし、AIシステムが人間よりも人間として認識される言語を生成できるようにする。
我々は、AIアクセントやフェアユースポリシーといったソリューションについて議論し、人間の直観の逆転を制限することによって、生成された言語の誤認の可能性を減らすことで結論付けます。
関連論文リスト
- Aligning Generalisation Between Humans and Machines [74.120848518198]
近年のAIの進歩は、科学的発見と意思決定支援において人間を支援できる技術をもたらしたが、民主主義と個人を妨害する可能性がある。
AIの責任ある使用は、ますます人間とAIのチームの必要性を示している。
これらの相互作用の重要かつしばしば見落とされがちな側面は、人間と機械が一般化する異なる方法である。
論文 参考訳(メタデータ) (2024-11-23T18:36:07Z) - Generative AI, Pragmatics, and Authenticity in Second Language Learning [0.0]
生成的AI(Artificial Intelligence)を言語学習と教育に統合する上で、明らかなメリットがある。
しかし、AIシステムが人間の言語に耐える方法のため、人間と同じ社会的認識を持つ言語を使えるような、生きた経験が欠けている。
言語や文化のバイアスは、そのトレーニングデータに基づいて構築されており、主に英語であり、主に西洋の情報源から来ている。
論文 参考訳(メタデータ) (2024-10-18T11:58:03Z) - Human Bias in the Face of AI: The Role of Human Judgement in AI Generated Text Evaluation [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - Empirical evidence of Large Language Model's influence on human spoken communication [25.09136621615789]
人工知能(AI)エージェントは、今や自然言語で何十億もの人間と対話する。
このことは、AIが人間の文化の基本的な側面を形成する可能性を秘めているかどうか、という疑問を提起する。
最近の分析によると、科学出版物はAI固有の言語の証拠をすでに示している。
論文 参考訳(メタデータ) (2024-09-03T10:01:51Z) - Distributed agency in second language learning and teaching through generative AI [0.0]
ChatGPTは、テキストまたは音声形式のチャットを通じて非公式な第二言語プラクティスを提供することができる。
インストラクタはAIを使って、さまざまなメディアで学習と評価材料を構築することができる。
論文 参考訳(メタデータ) (2024-03-29T14:55:40Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Can Machines Imitate Humans? Integrative Turing Tests for Vision and Language Demonstrate a Narrowing Gap [45.6806234490428]
3つの言語タスクと3つのビジョンタスクで人間を模倣する能力において、現在のAIをベンチマークします。
実験では、549人の人間エージェントと26人のAIエージェントがデータセットの作成に使われ、1,126人の人間審査員と10人のAI審査員が参加した。
結果として、現在のAIは、複雑な言語とビジョンの課題において人間を偽装できるものではないことが判明した。
論文 参考訳(メタデータ) (2022-11-23T16:16:52Z) - What Artificial Neural Networks Can Tell Us About Human Language
Acquisition [47.761188531404066]
自然言語処理のための機械学習の急速な進歩は、人間がどのように言語を学ぶかについての議論を変革する可能性がある。
計算モデルによる学習可能性の関連性を高めるためには,人間に対して大きな優位性を持たず,モデル学習者を訓練する必要がある。
論文 参考訳(メタデータ) (2022-08-17T00:12:37Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Human Evaluation of Interpretability: The Case of AI-Generated Music
Knowledge [19.508678969335882]
我々は、芸術と人文科学におけるAIが発見する知識/ルールを評価することに注力する。
本稿では,洗練された記号的/数値的対象として表現されたAI生成音楽理論/ルールの人間生成言語解釈を収集し,評価する実験手法を提案する。
論文 参考訳(メタデータ) (2020-04-15T06:03:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。