論文の概要: Human Heuristics for AI-Generated Language Are Flawed
- arxiv url: http://arxiv.org/abs/2206.07271v3
- Date: Mon, 7 Nov 2022 09:47:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 17:46:10.215908
- Title: Human Heuristics for AI-Generated Language Are Flawed
- Title(参考訳): AI生成言語のためのヒューマンヒューリスティックス
- Authors: Maurice Jakesch, Jeffrey Hancock, Mor Naaman
- Abstract要約: 我々は,最も個人的かつ連続的な言語である動詞の自己表現が,AIによって生成されたかを検討した。
我々は,これらの単語がAI生成言語の人間の判断を予測可能で操作可能であることを実験的に実証した。
我々は、AIアクセントのようなソリューションについて議論し、AIによって生成された言語の誤認の可能性を減らす。
- 参考スコア(独自算出の注目度): 8.465228064780744
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human communication is increasingly intermixed with language generated by AI.
Across chat, email, and social media, AI systems produce smart replies,
autocompletes, and translations. AI-generated language is often not identified
as such but presented as language written by humans, raising concerns about
novel forms of deception and manipulation. Here, we study how humans discern
whether verbal self-presentations, one of the most personal and consequential
forms of language, were generated by AI. In six experiments, participants (N =
4,600) were unable to detect self-presentations generated by state-of-the-art
AI language models in professional, hospitality, and dating contexts. A
computational analysis of language features shows that human judgments of
AI-generated language are handicapped by intuitive but flawed heuristics such
as associating first-person pronouns, spontaneous wording, or family topics
with human-written language. We experimentally demonstrate that these
heuristics make human judgment of AI-generated language predictable and
manipulable, allowing AI systems to produce language perceived as more human
than human. We discuss solutions, such as AI accents, to reduce the deceptive
potential of language generated by AI, limiting the subversion of human
intuition.
- Abstract(参考訳): 人間のコミュニケーションは、AIによって生成された言語とますます混ざり合っている。
チャット、メール、ソーシャルメディアを通じて、AIシステムはスマートリプライ、オートコンプリート、翻訳を生成する。
aiが生成する言語は、しばしばそのように識別されるのではなく、人間が書いた言語として提示される。
そこで本研究では,人間による言語表現が,最も個人的かつ連続的な言語である言語表現が,AIによって生み出されたかどうかを,人間がどのように判断するかを考察する。
6つの実験で、参加者(N = 4,600)は、プロフェッショナル、ホスピタリティ、デートコンテキストにおいて最先端のAI言語モデルによって生成された自己表現を検出できなかった。
言語特徴の計算分析により、ai生成言語の人間の判断は、直観的だが欠陥のあるヒューリスティックによってハンディキャップされていることが示された。
これらのヒューリスティックはAIが生成する言語を予測可能かつ操作可能とし、AIシステムが人間よりも人間として認識される言語を生成できるようにする。
我々は、AIアクセントのようなソリューションについて議論し、人間の直観の逆転を制限することで、AIによって生成された言語の誤認の可能性を減らす。
関連論文リスト
- Aligning Generalisation Between Humans and Machines [74.120848518198]
近年のAIの進歩は、科学的発見と意思決定支援において人間を支援できる技術をもたらしたが、民主主義と個人を妨害する可能性がある。
AIの責任ある使用は、ますます人間とAIのチームの必要性を示している。
これらの相互作用の重要かつしばしば見落とされがちな側面は、人間と機械が一般化する異なる方法である。
論文 参考訳(メタデータ) (2024-11-23T18:36:07Z) - Generative AI, Pragmatics, and Authenticity in Second Language Learning [0.0]
生成的AI(Artificial Intelligence)を言語学習と教育に統合する上で、明らかなメリットがある。
しかし、AIシステムが人間の言語に耐える方法のため、人間と同じ社会的認識を持つ言語を使えるような、生きた経験が欠けている。
言語や文化のバイアスは、そのトレーニングデータに基づいて構築されており、主に英語であり、主に西洋の情報源から来ている。
論文 参考訳(メタデータ) (2024-10-18T11:58:03Z) - Human Bias in the Face of AI: The Role of Human Judgement in AI Generated Text Evaluation [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - Empirical evidence of Large Language Model's influence on human spoken communication [25.09136621615789]
人工知能(AI)エージェントは、今や自然言語で何十億もの人間と対話する。
このことは、AIが人間の文化の基本的な側面を形成する可能性を秘めているかどうか、という疑問を提起する。
最近の分析によると、科学出版物はAI固有の言語の証拠をすでに示している。
論文 参考訳(メタデータ) (2024-09-03T10:01:51Z) - Distributed agency in second language learning and teaching through generative AI [0.0]
ChatGPTは、テキストまたは音声形式のチャットを通じて非公式な第二言語プラクティスを提供することができる。
インストラクタはAIを使って、さまざまなメディアで学習と評価材料を構築することができる。
論文 参考訳(メタデータ) (2024-03-29T14:55:40Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Can Machines Imitate Humans? Integrative Turing Tests for Vision and Language Demonstrate a Narrowing Gap [45.6806234490428]
3つの言語タスクと3つのビジョンタスクで人間を模倣する能力において、現在のAIをベンチマークします。
実験では、549人の人間エージェントと26人のAIエージェントがデータセットの作成に使われ、1,126人の人間審査員と10人のAI審査員が参加した。
結果として、現在のAIは、複雑な言語とビジョンの課題において人間を偽装できるものではないことが判明した。
論文 参考訳(メタデータ) (2022-11-23T16:16:52Z) - What Artificial Neural Networks Can Tell Us About Human Language
Acquisition [47.761188531404066]
自然言語処理のための機械学習の急速な進歩は、人間がどのように言語を学ぶかについての議論を変革する可能性がある。
計算モデルによる学習可能性の関連性を高めるためには,人間に対して大きな優位性を持たず,モデル学習者を訓練する必要がある。
論文 参考訳(メタデータ) (2022-08-17T00:12:37Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Human Evaluation of Interpretability: The Case of AI-Generated Music
Knowledge [19.508678969335882]
我々は、芸術と人文科学におけるAIが発見する知識/ルールを評価することに注力する。
本稿では,洗練された記号的/数値的対象として表現されたAI生成音楽理論/ルールの人間生成言語解釈を収集し,評価する実験手法を提案する。
論文 参考訳(メタデータ) (2020-04-15T06:03:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。