論文の概要: Can professional translators identify machine-generated text?
- arxiv url: http://arxiv.org/abs/2601.15828v2
- Date: Tue, 27 Jan 2026 07:23:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:50.94248
- Title: Can professional translators identify machine-generated text?
- Title(参考訳): プロの翻訳者は機械生成テキストを特定できるのか?
- Authors: Michael Farrell,
- Abstract要約: 本研究は,人工知能(AI)がイタリア語で生成した短編を,事前の専門訓練なしに確実に識別できるかどうかを考察する。
6人の翻訳者が人体実験に参加し、3つの匿名化された短編を評価した。
低いバーストさと物語の矛盾が、合成著者の最も信頼できる指標として現れた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This study investigates whether professional translators can reliably identify short stories generated in Italian by artificial intelligence (AI) without prior specialized training. Sixty-nine translators took part in an in-person experiment, where they assessed three anonymized short stories - two written by ChatGPT-4o and one by a human author. For each story, participants rated the likelihood of AI authorship and provided justifications for their choices. While average results were inconclusive, a statistically significant subset (16.2%) successfully distinguished the synthetic texts from the human text, suggesting that their judgements were informed by analytical skill rather than chance. However, a nearly equal number misclassified the texts in the opposite direction, often relying on subjective impressions rather than objective markers, possibly reflecting a reader preference for AI-generated texts. Low burstiness and narrative contradiction emerged as the most reliable indicators of synthetic authorship, with unexpected calques, semantic loans and syntactic transfer from English also reported. In contrast, features such as grammatical accuracy and emotional tone frequently led to misclassification. These findings raise questions about the role and scope of synthetic-text editing in professional contexts.
- Abstract(参考訳): 本研究は,AI(人工知能)がイタリア語で生成した短編を,事前の専門訓練なしに確実に識別できるかどうかを考察する。
そこでは、ChatGPT-4oによって書かれた2つの匿名化された短編と、人間の著者によって書かれた1つの短編を評価した。
各ストーリーについて、参加者はAI著者の可能性を評価し、選択の正当化を提供した。
平均的な結果は決定的ではなかったが、統計学的に重要な部分(16.2%)は人間のテキストから合成テキストを区別することに成功し、その判断は偶然ではなく分析的な技術によって伝達されたことを示唆した。
しかし、ほぼ等しい数字はテキストを反対方向に誤分類し、しばしば客観的なマーカーよりも主観的な印象に依存し、おそらくAI生成されたテキストに対する読者の好みを反映している。
低いバーストネスと物語の矛盾は、予想外のカルク、セマンティック・ローン、および英語からの構文的移動といった、合成著者の最も信頼性の高い指標として現れた。
対照的に、文法的正確さや感情的なトーンといった特徴は、しばしば誤分類に繋がった。
これらの知見は、プロの文脈における合成テキスト編集の役割と範囲に関する疑問を提起する。
関連論文リスト
- Do readers prefer AI-generated Italian short stories? [0.0]
本研究は,イタリアの著名な作家が書いたものよりも,AIによる短編小説の方が好まれるかどうかを考察する。
盲目の設定では、20人の参加者が3つのストーリーを読み、評価し、2つはChatGPT-4oで作成され、1つはAlberto Moraviaによって作成された。
その結果、AIで書かれたテキストは平均評価がわずかに高く、より好まれていた。
論文 参考訳(メタデータ) (2026-01-24T08:15:13Z) - COIG-Writer: A High-Quality Dataset for Chinese Creative Writing with Thought Processes [83.84578306665976]
大規模な言語モデルは、創造的な文章、特に非英語の文脈において体系的な欠陥を示す。
提案するCOIG-Writerは,多種多様なアウトプットと,その基盤となる思考プロセスの両方をキャプチャする,中国のクリエイティブな文章データセットである。
論文 参考訳(メタデータ) (2025-10-16T15:01:19Z) - Liaozhai through the Looking-Glass: On Paratextual Explicitation of Culture-Bound Terms in Machine Translation [70.43884512651668]
我々は、文学・翻訳研究からジェネットのパラテキスト論(1987年)を定式化し、機械翻訳におけるパラテキスト明示の課題を紹介した。
古典中国語の短編集集Liaozhaiの4つの英訳から560の専門家対応パラテキストのデータセットを構築した。
本研究は,言語的等価性を超えた機械翻訳におけるパラテクスト的明示の可能性を示すものである。
論文 参考訳(メタデータ) (2025-09-27T16:27:36Z) - The Reader is the Metric: How Textual Features and Reader Profiles Explain Conflicting Evaluations of AI Creative Writing [1.3654846342364306]
我々は5つの公開データセット(1,471ストーリー、101アノテータ、批評家、学生、レイリーダー)を使って17の参照なしテキストの特徴を抽出します。
我々は、個々の読み手の好みをモデル化し、テキストの優先順位を反映した特徴重要ベクトルを導出する。
本研究は,文学的品質の測定が,文章の特徴と読み手の好みがどのように一致しているかを定量的に説明するものである。
論文 参考訳(メタデータ) (2025-06-03T18:50:22Z) - Humans can learn to detect AI-generated texts, or at least learn when they can't [0.0]
本研究では、即時フィードバックが得られた場合に、個人が人書きテキストとAI生成テキストの正確な識別を学べるかどうかを検討する。
我々はGPT-4oを用いて、様々なジャンルやテキストタイプに数百のテキストを生成しました。
チェコ語母語話者254人にランダム化されたテキストペアを提示した。
論文 参考訳(メタデータ) (2025-05-03T17:42:49Z) - Can postgraduate translation students identify machine-generated text? [0.0]
本研究では、言語訓練を受けた個人が、人文からの機械出力を識別する能力について検討する。
23人の大学院翻訳生がイタリア語の散文の抜粋を分析し、人書きかAI生成かを示すために可能性スコアを割り当てた。
論文 参考訳(メタデータ) (2025-04-12T09:58:09Z) - Do LLMs Understand Your Translations? Evaluating Paragraph-level MT with Question Answering [68.3400058037817]
本稿では,TREQA(Translation Evaluation via Question-Answering)について紹介する。
我々は,TREQAが最先端のニューラルネットワークとLLMベースのメトリクスより優れていることを示し,代用段落レベルの翻訳をランク付けする。
論文 参考訳(メタデータ) (2025-04-10T09:24:54Z) - ExaGPT: Example-Based Machine-Generated Text Detection for Human Interpretability [62.285407189502216]
LLM(Large Language Models)によって生成されたテキストの検出は、誤った判断によって致命的な誤りを引き起こす可能性がある。
本稿では,人間の意思決定プロセスに根ざした解釈可能な検出手法であるExaGPTを紹介する。
以上の結果から,ExaGPTは従来の強力な検出器よりも最大で40.9ポイントの精度を1%の偽陽性率で大きく上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2025-02-17T01:15:07Z) - People who frequently use ChatGPT for writing tasks are accurate and robust detectors of AI-generated text [37.36534911201806]
私たちは、300のノンフィクションの英語記事を読むために注釈を雇い、それを人書きまたはAI生成とラベル付けします。
実験の結果,AI生成テキストの検出において,LLMを頻繁に使用するアノテータが優れていることがわかった。
注釈付きデータセットとコードを公開し、AI生成テキストの人的および自動検出に関する将来の研究を刺激します。
論文 参考訳(メタデータ) (2025-01-26T19:31:34Z) - Textual Entailment Recognition with Semantic Features from Empirical
Text Representation [60.31047947815282]
テキストが仮説を包含するのは、仮説の真の価値がテキストに従う場合に限る。
本稿では,テキストと仮説のテキストの包含関係を同定する新しい手法を提案する。
本手法では,テキスト・ハイブリッド・ペア間の意味的含意関係を識別できる要素ワイド・マンハッタン距離ベクトルベースの特徴を用いる。
論文 参考訳(メタデータ) (2022-10-18T10:03:51Z) - Curious Case of Language Generation Evaluation Metrics: A Cautionary
Tale [52.663117551150954]
イメージキャプションや機械翻訳などのタスクを評価するデファクトメトリクスとして、いくつかの一般的な指標が残っている。
これは、使いやすさが原因でもあり、また、研究者がそれらを見て解釈する方法を知りたがっているためでもある。
本稿では,モデルの自動評価方法について,コミュニティにより慎重に検討するよう促す。
論文 参考訳(メタデータ) (2020-10-26T13:57:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。