論文の概要: AI Rivalry as a Craft: How Resisting and Embracing Generative AI Reshape Writing Professions
- arxiv url: http://arxiv.org/abs/2503.09901v1
- Date: Wed, 12 Mar 2025 23:43:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-14 21:36:22.460997
- Title: AI Rivalry as a Craft: How Resisting and Embracing Generative AI Reshape Writing Professions
- Title(参考訳): AIRivalry as a Craft: ジェネレーティブなAIリフォーム作業のレジストリングと受け入れ方法
- Authors: Rama Adithya Varanasi, Batia Mishan Wiesenfeld, Oded Nov,
- Abstract要約: ジェネレーティブAI(GAI)技術は、プロフェッショナルな書き込みを妨害し、従来のプラクティスに挑戦しています。
最近の研究では、創造的実践者のGAI導入経験を探求しているが、これらの経験が確立された実践へとどのように進化するかはほとんど分かっていない。
我々は,GAIを採用・抵抗する書記専門家を対象に,25件の半構造化インタビューを行った。
- 参考スコア(独自算出の注目度): 10.232236598662217
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Generative AI (GAI) technologies are disrupting professional writing, challenging traditional practices. Recent studies explore GAI adoption experiences of creative practitioners, but we know little about how these experiences evolve into established practices and how GAI resistance alters these practices. To address this gap, we conducted 25 semi-structured interviews with writing professionals who adopted and/or resisted GAI. Using the theoretical lens of Job Crafting, we identify four strategies professionals employ to reshape their roles. Writing professionals employed GAI resisting strategies to maximize human potential, reinforce professional identity, carve out a professional niche, and preserve credibility within their networks. In contrast, GAI-enabled strategies allowed writers who embraced GAI to enhance desirable workflows, minimize mundane tasks, and engage in new AI-managerial labor. These strategies amplified their collaborations with GAI while reducing their reliance on other people. We conclude by discussing implications of GAI practices on writers' identity and practices as well as crafting theory.
- Abstract(参考訳): ジェネレーティブAI(GAI)技術は、プロフェッショナルな書き込みを妨害し、従来のプラクティスに挑戦しています。
近年の研究では、創造的実践者のGAI導入経験を探求しているが、これらの経験が確立された実践にどのように発展し、GAI抵抗がこれらの実践を変えるかはほとんど分かっていない。
このギャップに対処するため, GAIの採用や抵抗に抵抗する著作家を対象に,25回の半構造化インタビューを行った。
ジョブクラフトの理論レンズを用いて、プロフェッショナルが役割を再形成するために使用する4つの戦略を特定します。
著作家たちは、人間の潜在能力を最大化し、プロのアイデンティティを強化し、プロのニッチを彫り、ネットワーク内の信頼性を維持するために、GAIの抵抗戦略を採用した。
対照的に、GAI対応戦略により、GAIを取り入れたライターは、望ましいワークフローを強化し、日常的なタスクを最小限にし、新たなAI管理労働に従事した。
これらの戦略は、GAIとのコラボレーションを拡大し、他人への依存を減らした。
本稿では, GAIの実践が作家のアイデンティティや実践, 工芸理論に与える影響を論じる。
関連論文リスト
- FAIRGAME: a Framework for AI Agents Bias Recognition using Game Theory [51.96049148869987]
ゲーム理論を用いたAIエージェントバイアス認識フレームワークFAIRGAMEを提案する。
我々は,AIエージェント間の人気ゲームにおけるバイアスのある結果を明らかにするために,その実装と利用について述べる。
全体として、FAIRGAMEはユーザーが望むゲームやシナリオを確実に簡単にシミュレートできる。
論文 参考訳(メタデータ) (2025-04-19T15:29:04Z) - Bridging the Gap: A Comparative Study of Academic and Developer Approaches to Smart Contract Vulnerabilities [5.052062767357937]
スマートコントラクトのセキュリティ脆弱性を修正するために,Solidity開発者が採用した戦略について検討する。
非整合性コミットから文献ではこれまで議論されていなかった27の新たな定着戦略を特定した。
これらの新興パターンは、未調査領域におけるスマートコントラクトを確保するための実行可能なソリューションを提供する。
論文 参考訳(メタデータ) (2025-04-16T19:20:00Z) - When Discourse Stalls: Moving Past Five Semantic Stopsigns about Generative AI in Design Research [8.362268744485956]
5つの一般的な「セマンティック・ストップサイン」を特定し、分解する
より深い調査を中止し、生産的なエンゲージメントを制限するデザインにおけるGenAIに関するリダクティブなフレーミング。
これらの停止サインをより微妙なフレームワークに再キャストすることで、これらの新興技術について考え、取り組むための実践的なアプローチをデザイン研究コミュニティに提供します。
論文 参考訳(メタデータ) (2025-03-11T15:54:03Z) - Exploring AI Writers: Technology, Impact, and Future Prospects [0.8702432681310401]
この研究は、特に金融、スポーツ、自然災害などの分野において、AIツールがニュース制作をどう変えているかを調べる。
この結果は、AIの専門職への統合に関するメディア学生の間では、効率向上に対する楽観と、雇用市場競争の増加に対する理解の両方を反映している。
論文 参考訳(メタデータ) (2025-02-22T02:03:09Z) - Navigating Automated Hiring: Perceptions, Strategy Use, and Outcomes Among Young Job Seekers [0.0]
自動雇用決定ツール(AEDT)の手続き的公正性の認知について,コンピュータサイエンスの学生448名を対象に調査を行った。
AEDTによって評価される若い求職者の認識と意欲は、自動化のレベルと評価されるタスクの技術的性質によって異なることが判明した。
我々の研究は、若手求職者の雇用状況における自動化に対する不信や、求職における社会的・社会経済的特権の継続的な役割を物語っている。
論文 参考訳(メタデータ) (2025-02-07T17:18:07Z) - Human-AI Collaborative Taxonomy Construction: A Case Study in Profession-Specific Writing Assistants [17.088117195986758]
LLM(Large Language Models)は、テキストのリビジョンやストーリー生成など、複数の作業において人間を支援する。
本稿では,ドメイン固有書記アシスタントのガイドラインとして,人間とAIの連携による分類学開発手法を提案する。
論文 参考訳(メタデータ) (2024-06-26T18:25:06Z) - K-Level Reasoning: Establishing Higher Order Beliefs in Large Language Models for Strategic Reasoning [76.3114831562989]
マルチエージェント環境で戦略を動的に適応させるためには、LLM(Large Language Model)エージェントが必要である。
我々は,「K-Level Reasoning with Large Language Models (K-R)」という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-02T16:07:05Z) - Beyond principlism: Practical strategies for ethical AI use in research practices [0.0]
科学研究における生成的人工知能の急速な採用は、倫理的ガイドラインの開発を上回っている。
既存のアプローチは、科学研究の実践においてAIの倫理的課題に取り組むための実践的なガイダンスをほとんど提供しない。
抽象的な原則と日々の研究実践のギャップを埋めるために,ユーザ中心の現実主義に触発されたアプローチを提案する。
論文 参考訳(メタデータ) (2024-01-27T03:53:25Z) - Explainable Authorship Identification in Cultural Heritage Applications:
Analysis of a New Perspective [48.031678295495574]
既存の汎用eXplainable Artificial Intelligence(XAI)技術のAIへの応用について検討する。
特に,3種類のAIdタスクにおける3種類のXAIテクニックの相対的メリットを評価した。
我々の分析によると、これらの技術は、説明可能なオーサシップの特定に向けて重要な第一歩を踏み出すが、まだ多くの作業が続けられている。
論文 参考訳(メタデータ) (2023-11-03T20:51:15Z) - The Participatory Turn in AI Design: Theoretical Foundations and the
Current State of Practice [64.29355073494125]
本稿は、既存の理論文献を合成して、AI設計における「参加的転換」を掘り下げることを目的としている。
我々は、最近発表された研究および12人のAI研究者および実践者に対する半構造化インタビューの分析に基づいて、AI設計における参加実践の現状に関する実証的な知見を述べる。
論文 参考訳(メタデータ) (2023-10-02T05:30:42Z) - Rehearsal: Simulating Conflict to Teach Conflict Resolution [54.32934135393982]
リハーサル(Rehearsal)は、ユーザーがシミュレート可能なインターロケータで競合をリハーサルできるシステムである。
ユーザはRehearsalを使って、事前に定義されたさまざまなコンフリクトシナリオの処理を実践できる。
リハーサルはIRPを使って紛争解決理論に基づく発話を生成する。
論文 参考訳(メタデータ) (2023-09-21T17:59:20Z) - Conditional Imitation Learning for Multi-Agent Games [89.897635970366]
本研究では,条件付きマルチエージェント模倣学習の課題について考察する。
本稿では,スケーラビリティとデータ不足の難しさに対処する新しい手法を提案する。
我々のモデルは,egoやパートナエージェント戦略よりも低ランクなサブスペースを学習し,サブスペースに補間することで,新たなパートナ戦略を推論し,適応する。
論文 参考訳(メタデータ) (2022-01-05T04:40:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。