論文の概要: Human Heuristics for AI-Generated Language Are Flawed
- arxiv url: http://arxiv.org/abs/2206.07271v1
- Date: Wed, 15 Jun 2022 03:18:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-16 12:46:32.694381
- Title: Human Heuristics for AI-Generated Language Are Flawed
- Title(参考訳): AI生成言語のためのヒューマンヒューリスティックス
- Authors: Maurice Jakesch, Jeffrey Hancock, Mor Naaman
- Abstract要約: 我々は、AIによって最も個人的で連続的な言語(自己表現)が生み出されたかどうかを人間がどのように認識するかを研究する。
プロフェッショナル、ホスピタリティ、ロマンチックな設定全体で、人間はAIが生成する自己表現を特定できない。
これらにより、生成された言語を予測可能かつ操作可能とし、AIシステムが人間よりも人間として認識される言語を生成できることが示される。
- 参考スコア(独自算出の注目度): 8.465228064780744
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human communication is increasingly intermixed with language generated by AI.
Across chat, email, and social media, AI systems produce smart replies,
autocompletes, and translations. AI-generated language is often not identified
as such but poses as human language, raising concerns about novel forms of
deception and manipulation. Here, we study how humans discern whether one of
the most personal and consequential forms of language - a self-presentation -
was generated by AI. Across six experiments, participants (N = 4,650) tried to
identify self-presentations generated by state-of-the-art language models.
Across professional, hospitality, and romantic settings, we find that humans
are unable to identify AI-generated self-presentations. Combining qualitative
analyses with language feature engineering, we find that human judgments of
AI-generated language are handicapped by intuitive but flawed heuristics such
as associating first-person pronouns, authentic words, or family topics with
humanity. We show that these heuristics make human judgment of generated
language predictable and manipulable, allowing AI systems to produce language
perceived as more human than human. We conclude by discussing solutions - such
as AI accents or fair use policies - to reduce the deceptive potential of
generated language, limiting the subversion of human intuition.
- Abstract(参考訳): 人間のコミュニケーションは、AIによって生成された言語とますます混ざり合っている。
チャット、メール、ソーシャルメディアを通じて、AIシステムはスマートリプライ、オートコンプリート、翻訳を生成する。
aiが生成する言語は、しばしばそのようなものとして識別されるのではなく、人間の言語として振る舞う。
本稿では,aiが生成する自己表現言語として,最も個人的かつ連続的な言語形態の1つを人間がどのように識別するかについて検討する。
6つの実験で、参加者(n = 4,650)は最先端言語モデルによって生成された自己表現を同定しようとした。
プロフェッショナル、ホスピタリティ、ロマンチックな設定全体で、人間はAIが生成する自己表現を特定できない。
定性的な分析と言語特徴工学を組み合わせることで、AI生成言語の人間の判断は直感的だが欠陥のあるヒューリスティック(人称代名詞の連想、真正語、家族の話題と人間性)によって障害を受ける。
これらのヒューリスティックは、生成した言語を予測可能かつ操作可能とし、AIシステムが人間よりも人間として認識される言語を生成できるようにする。
我々は、AIアクセントやフェアユースポリシーといったソリューションについて議論し、人間の直観の逆転を制限することによって、生成された言語の誤認の可能性を減らすことで結論付けます。
関連論文リスト
- Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - The Generative AI Paradox: "What It Can Create, It May Not Understand" [81.89252713236746]
生成AIの最近の波は、潜在的に超人的な人工知能レベルに対する興奮と懸念を引き起こしている。
同時に、モデルは、専門家でない人でも期待できないような理解の基本的な誤りを示している。
一見超人的な能力と、ごく少数の人間が起こすエラーの持続性を、どうやって再現すればよいのか?
論文 参考訳(メタデータ) (2023-10-31T18:07:07Z) - Human or Machine? Turing Tests for Vision and Language [22.110556671410624]
我々は、現在のAIを人間を模倣する能力で体系的にベンチマークする。
実験では、769人の人的エージェント、24人の最先端AIエージェント、896人の人的裁判官、8人のAI裁判官がテストされた。
その結果、現在のAIは、性別、年齢、教育レベルによって人間の裁判官を偽装できるわけではないことが判明した。
論文 参考訳(メタデータ) (2022-11-23T16:16:52Z) - What Artificial Neural Networks Can Tell Us About Human Language
Acquisition [47.761188531404066]
自然言語処理のための機械学習の急速な進歩は、人間がどのように言語を学ぶかについての議論を変革する可能性がある。
計算モデルによる学習可能性の関連性を高めるためには,人間に対して大きな優位性を持たず,モデル学習者を訓練する必要がある。
論文 参考訳(メタデータ) (2022-08-17T00:12:37Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Building Human-like Communicative Intelligence: A Grounded Perspective [1.0152838128195465]
言語学習における驚くべき進歩の後、AIシステムは人間のコミュニケーション能力の重要な側面を反映しない天井に近づいたようだ。
本稿は、ナチビストと象徴的パラダイムに基づく認知にインスパイアされたAIの方向性には、現代AIの進歩を導くために必要なサブストラテジと具体性がないことを示唆する。
本稿では,「地下」言語知能構築のための具体的かつ実装可能なコンポーネントのリストを提案する。
論文 参考訳(メタデータ) (2022-01-02T01:43:24Z) - Words of Wisdom: Representational Harms in Learning From AI
Communication [9.998078491879143]
すべてのAIコミュニケーションを含むすべての言語は、言語の作成に貢献した人間や人間のアイデンティティに関する情報を符号化している、と私たちは主張する。
しかし、AI通信では、ユーザはソースにマッチしないID情報をインデックスすることができる。
これは、ある文化集団に関連する言語が「標準」または「中立」として提示される場合、表現上の害をもたらす可能性がある。
論文 参考訳(メタデータ) (2021-11-16T15:59:49Z) - Symbols as a Lingua Franca for Bridging Human-AI Chasm for Explainable
and Advisable AI Systems [21.314210696069495]
我々は、人間-AI相互作用における(人間-理解可能な)シンボルの必要性は、非常に説得力があるように思える。
特に、人間は明示的な(象徴的な)知識とアドバイスを提供することに興味があり、機械の説明を期待する。
これだけでも、AIシステムは少なくとも象徴的な言葉でI/Oを行う必要がある。
論文 参考訳(メタデータ) (2021-09-21T01:30:06Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z) - Human Evaluation of Interpretability: The Case of AI-Generated Music
Knowledge [19.508678969335882]
我々は、芸術と人文科学におけるAIが発見する知識/ルールを評価することに注力する。
本稿では,洗練された記号的/数値的対象として表現されたAI生成音楽理論/ルールの人間生成言語解釈を収集し,評価する実験手法を提案する。
論文 参考訳(メタデータ) (2020-04-15T06:03:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。