論文の概要: Penalizing Transparency? How AI Disclosure and Author Demographics Shape Human and AI Judgments About Writing
- arxiv url: http://arxiv.org/abs/2507.01418v1
- Date: Wed, 02 Jul 2025 07:18:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:23:00.079889
- Title: Penalizing Transparency? How AI Disclosure and Author Demographics Shape Human and AI Judgments About Writing
- Title(参考訳): 透明性を罰する? AIの開示と著者のデモグラフィックがいかに人間とAIの判断を形作るか
- Authors: Inyoung Cheong, Alicia Guo, Mina Lee, Zhehui Liao, Kowe Kadoma, Dongyoung Go, Joseph Chee Chang, Peter Henderson, Mor Naaman, Amy X. Zhang,
- Abstract要約: 本研究は,AI開示文が書字品質の知覚にどのように影響するかを考察する。
人間とLLMのラッカーは、明らかにAIの使用を一貫して罰する。
しかし、LLMのラテンダーだけが人口動態に影響を与えており、情報開示がない場合には、女性や黒人の作家による記事が好まれる。
- 参考スコア(独自算出の注目度): 16.237684467706924
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: As AI integrates in various types of human writing, calls for transparency around AI assistance are growing. However, if transparency operates on uneven ground and certain identity groups bear a heavier cost for being honest, then the burden of openness becomes asymmetrical. This study investigates how AI disclosure statement affects perceptions of writing quality, and whether these effects vary by the author's race and gender. Through a large-scale controlled experiment, both human raters (n = 1,970) and LLM raters (n = 2,520) evaluated a single human-written news article while disclosure statements and author demographics were systematically varied. This approach reflects how both human and algorithmic decisions now influence access to opportunities (e.g., hiring, promotion) and social recognition (e.g., content recommendation algorithms). We find that both human and LLM raters consistently penalize disclosed AI use. However, only LLM raters exhibit demographic interaction effects: they favor articles attributed to women or Black authors when no disclosure is present. But these advantages disappear when AI assistance is revealed. These findings illuminate the complex relationships between AI disclosure and author identity, highlighting disparities between machine and human evaluation patterns.
- Abstract(参考訳): AIがさまざまな種類の人間の書き方に統合されるにつれ、AI支援に関する透明性を求める声が高まりつつある。
しかし、透明性が不均一な場で作用し、特定のアイデンティティ群が正直であることに重いコストを負う場合、開放性の重荷は非対称となる。
本研究は,AI開示文が文章品質の知覚にどのように影響するか,著者の人種や性別によって影響が変化するかを検討する。
大規模に制御された実験を通じて、人間ラッカー (n = 1,970) とLLMラガー (n = 2,520) は、公開声明と著者の人口統計学を体系的に変化させながら、単一の人書きニュース記事を評価した。
このアプローチは、人的およびアルゴリズム的な決定が、機会(例えば、雇用、昇進)と社会的認識(例えば、コンテンツレコメンデーションアルゴリズム)へのアクセスにどのように影響するかを反映している。
人間とLLMのラッカーは、明らかにAIの使用を一貫して罰する。
しかし、LLMラガーだけが人口動態に影響を与えており、情報開示がない場合には、女性や黒人の著作家による記事が好まれる。
しかし、AIアシスタントが明らかにされると、これらの利点は消える。
これらの発見は、AI開示と著者のアイデンティティの複雑な関係を照らし、マシンと人間の評価パターンの相違を強調している。
関連論文リスト
- Labeling Messages as AI-Generated Does Not Reduce Their Persuasive Effects [33.16943695290958]
1つの顕著なポリシー提案は、透明性を高め、情報に対する批判的思考を促進するために、AI生成コンテンツを明示的にラベル付けすることである。
我々は多種多様なアメリカ人を対象に調査実験を行った。
その結果、メッセージは一般的に説得力があり、参加者の政策に対する見解に平均9.74ポイント影響を及ぼすことがわかった。
論文 参考訳(メタデータ) (2025-04-14T04:22:39Z) - Human aversion? Do AI Agents Judge Identity More Harshly Than Performance [0.06554326244334868]
我々は,大規模言語モデルに基づくAIエージェントがどのように人間の入力を評価し,統合するかを検討する。
AIシステムは人間のアドバイスを体系的に減らし、アルゴリズムの誤りよりも人間の誤りを厳しく罰する。
論文 参考訳(メタデータ) (2025-03-31T02:05:27Z) - Almost AI, Almost Human: The Challenge of Detecting AI-Polished Writing [55.2480439325792]
本研究では、AI-Polished-Text Evaluationデータセットを用いて、12の最先端AIテキスト検出器を体系的に評価する。
我々の発見によると、検出器は、最小限に洗練されたテキストをAI生成としてフラグ付けし、AIの関与度を区別し、古いモデルや小さなモデルに対するバイアスを示す。
論文 参考訳(メタデータ) (2025-02-21T18:45:37Z) - Human Bias in the Face of AI: The Role of Human Judgement in AI Generated Text Evaluation [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - FATE in AI: Towards Algorithmic Inclusivity and Accessibility [0.0]
AIにおけるアルゴリズム上の格差、公平性、説明責任、透明性、倫理(FATE)が実装されている。
本研究では、AIによって守られている世界南部地域のFATE関連デシダータ、特に透明性と倫理について検討する。
インクリシティを促進するために、コミュニティ主導の戦略が提案され、責任あるAI設計のための代表データを収集し、キュレートする。
論文 参考訳(メタデータ) (2023-01-03T15:08:10Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - AI Explainability 360: Impact and Design [120.95633114160688]
2019年、私たちはAI Explainability 360(Arya et al. 2020)を開発しました。
本稿では,いくつかのケーススタディ,統計,コミュニティフィードバックを用いて,ツールキットが与える影響について検討する。
また,ツールキットのフレキシブルな設計,使用例,利用者が利用可能な教育資料や資料についても述べる。
論文 参考訳(メタデータ) (2021-09-24T19:17:09Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。