論文の概要: Can professional translators identify machine-generated text?
- arxiv url: http://arxiv.org/abs/2601.15828v1
- Date: Thu, 22 Jan 2026 10:25:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 21:37:20.571901
- Title: Can professional translators identify machine-generated text?
- Title(参考訳): プロの翻訳者は機械生成テキストを特定できるのか?
- Authors: Michael Farrell,
- Abstract要約: 本研究は,人工知能(AI)がイタリア語で生成した短編を,事前の専門訓練なしに確実に識別できるかどうかを考察する。
6人の翻訳者が人体実験に参加し、3つの匿名化された短編を評価した。
低いバーストさと物語の矛盾が、合成著者の最も信頼できる指標として現れた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This study investigates whether professional translators can reliably identify short stories generated in Italian by artificial intelligence (AI) without prior specialized training. Sixty-nine translators took part in an in-person experiment, where they assessed three anonymized short stories - two written by ChatGPT-4o and one by a human author. For each story, participants rated the likelihood of AI authorship and provided justifications for their choices. While average results were inconclusive, a statistically significant subset (16.2%) successfully distinguished the synthetic texts from the human text, suggesting that their judgements were informed by analytical skill rather than chance. However, a nearly equal number misclassified the texts in the opposite direction, often relying on subjective impressions rather than objective markers, possibly reflecting a reader preference for AI-generated texts. Low burstiness and narrative contradiction emerged as the most reliable indicators of synthetic authorship, with unexpected calques, semantic loans and syntactic transfer from English also reported. In contrast, features such as grammatical accuracy and emotional tone frequently led to misclassification. These findings raise questions about the role and scope of synthetic-text editing in professional contexts.
- Abstract(参考訳): 本研究は,AI(人工知能)がイタリア語で生成した短編を,事前の専門訓練なしに確実に識別できるかどうかを考察する。
そこでは、ChatGPT-4oによって書かれた2つの匿名化された短編と、人間の著者によって書かれた1つの短編を評価した。
各ストーリーについて、参加者はAI著者の可能性を評価し、選択の正当化を提供した。
平均的な結果は決定的ではなかったが、統計学的に重要な部分(16.2%)は人間のテキストから合成テキストを区別することに成功し、その判断は偶然ではなく分析的な技術によって伝達されたことを示唆した。
しかし、ほぼ等しい数字はテキストを反対方向に誤分類し、しばしば客観的なマーカーよりも主観的な印象に依存し、おそらくAI生成されたテキストに対する読者の好みを反映している。
低いバーストネスと物語の矛盾は、予想外のカルク、セマンティック・ローン、および英語からの構文的移動といった、合成著者の最も信頼性の高い指標として現れた。
対照的に、文法的正確さや感情的なトーンといった特徴は、しばしば誤分類に繋がった。
これらの知見は、プロの文脈における合成テキスト編集の役割と範囲に関する疑問を提起する。
関連論文リスト
- COIG-Writer: A High-Quality Dataset for Chinese Creative Writing with Thought Processes [83.84578306665976]
大規模な言語モデルは、創造的な文章、特に非英語の文脈において体系的な欠陥を示す。
提案するCOIG-Writerは,多種多様なアウトプットと,その基盤となる思考プロセスの両方をキャプチャする,中国のクリエイティブな文章データセットである。
論文 参考訳(メタデータ) (2025-10-16T15:01:19Z) - Liaozhai through the Looking-Glass: On Paratextual Explicitation of Culture-Bound Terms in Machine Translation [70.43884512651668]
我々は、文学・翻訳研究からジェネットのパラテキスト論(1987年)を定式化し、機械翻訳におけるパラテキスト明示の課題を紹介した。
古典中国語の短編集集Liaozhaiの4つの英訳から560の専門家対応パラテキストのデータセットを構築した。
本研究は,言語的等価性を超えた機械翻訳におけるパラテクスト的明示の可能性を示すものである。
論文 参考訳(メタデータ) (2025-09-27T16:27:36Z) - Humans can learn to detect AI-generated texts, or at least learn when they can't [0.0]
本研究では、即時フィードバックが得られた場合に、個人が人書きテキストとAI生成テキストの正確な識別を学べるかどうかを検討する。
我々はGPT-4oを用いて、様々なジャンルやテキストタイプに数百のテキストを生成しました。
チェコ語母語話者254人にランダム化されたテキストペアを提示した。
論文 参考訳(メタデータ) (2025-05-03T17:42:49Z) - Can postgraduate translation students identify machine-generated text? [0.0]
本研究では、言語訓練を受けた個人が、人文からの機械出力を識別する能力について検討する。
23人の大学院翻訳生がイタリア語の散文の抜粋を分析し、人書きかAI生成かを示すために可能性スコアを割り当てた。
論文 参考訳(メタデータ) (2025-04-12T09:58:09Z) - Do LLMs Understand Your Translations? Evaluating Paragraph-level MT with Question Answering [68.3400058037817]
本稿では,TREQA(Translation Evaluation via Question-Answering)について紹介する。
我々は,TREQAが最先端のニューラルネットワークとLLMベースのメトリクスより優れていることを示し,代用段落レベルの翻訳をランク付けする。
論文 参考訳(メタデータ) (2025-04-10T09:24:54Z) - ExaGPT: Example-Based Machine-Generated Text Detection for Human Interpretability [62.285407189502216]
LLM(Large Language Models)によって生成されたテキストの検出は、誤った判断によって致命的な誤りを引き起こす可能性がある。
本稿では,人間の意思決定プロセスに根ざした解釈可能な検出手法であるExaGPTを紹介する。
以上の結果から,ExaGPTは従来の強力な検出器よりも最大で40.9ポイントの精度を1%の偽陽性率で大きく上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2025-02-17T01:15:07Z) - Curious Case of Language Generation Evaluation Metrics: A Cautionary
Tale [52.663117551150954]
イメージキャプションや機械翻訳などのタスクを評価するデファクトメトリクスとして、いくつかの一般的な指標が残っている。
これは、使いやすさが原因でもあり、また、研究者がそれらを見て解釈する方法を知りたがっているためでもある。
本稿では,モデルの自動評価方法について,コミュニティにより慎重に検討するよう促す。
論文 参考訳(メタデータ) (2020-10-26T13:57:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。