論文の概要: "Better Ask for Forgiveness than Permission": Practices and Policies of AI Disclosure in Freelance Work
- arxiv url: http://arxiv.org/abs/2603.07459v1
- Date: Sun, 08 Mar 2026 04:25:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:14.605203
- Title: "Better Ask for Forgiveness than Permission": Practices and Policies of AI Disclosure in Freelance Work
- Title(参考訳): 「寛容よりも許しを問う」:フリーランス作品におけるAI開示の実践と可能性
- Authors: Angel Hsing-Chi Hwang, Senya Wong, Baixiao Chen, Jessica He, Hyo Jin Do,
- Abstract要約: フリーランスの労働者の間でAIアプリケーションの利用が増加し、クライアントとの信頼と関係が変わりつつある。
本稿では、フリーランス経済におけるAIの利用と開示を、労働者とクライアントの両方がどのように捉えているかを検討する。
- 参考スコア(独自算出の注目度): 13.155966848375405
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The growing use of AI applications among freelance workers is reshaping trust and relationships with clients. This paper investigates how both workers and clients perceive AI use and disclosure in the freelance economy through a three-stage study: interviews with workers and two survey studies with workers and clients. Findings first reveal a key expectation gap around disclosure: Workers often adopt passive disclosure practices, revealing AI use only when asked, as they assume clients can already detect it. Clients, however, are far less confident in recognizing AI-assisted work and prefer proactive disclosure. A second finding highlights the role of unclear or absent client AI policies, which leave workers consistently misinterpreting clients' expectations for AI use and disclosure. Together, these gaps point to the need for clearer guidelines and practices for AI disclosure. Insights extend beyond freelancing, offering implications for trust, accountability, and policy design in other AI-mediated work domains.
- Abstract(参考訳): フリーランスの労働者の間でAIアプリケーションの利用が増加し、クライアントとの信頼と関係が変わりつつある。
本稿では,労働者とクライアントがフリーランス経済におけるAIの利用と開示を3段階の研究を通してどのように捉えているかを検討する。
労働者はしばしば受動的開示のプラクティスを採用し、クライアントがすでにそれを検出できると仮定して、質問された時にのみAIが使用されることを明らかにする。
しかし、クライアントはAI支援の仕事を認識することに自信がなく、積極的に開示することを好む。
第二の発見は、不明確または欠落したクライアントAIポリシーの役割を強調し、労働者はAIの使用と開示に対するクライアントの期待を常に誤解している。
これらのギャップは、AI開示のためのより明確なガイドラインとプラクティスの必要性を示している。
インサイトはフリーランスを超えて、他のAIによる作業領域における信頼、説明責任、ポリシー設計に影響を及ぼす。
関連論文リスト
- Barriers to AI Adoption: Image Concerns at Work [0.0]
私は、労働者がAIへの依存が評価者に見える場合、低いレートでAIレコメンデーションを採用することに気付きました。
労働者がAIに大きく依存することを恐れていることが、労働者自身の判断に対する自信の欠如を示唆していることを示す、インセンティブに適合する新しい方法を紹介します。
論文 参考訳(メタデータ) (2025-11-23T18:50:34Z) - "We are not Future-ready": Understanding AI Privacy Risks and Existing Mitigation Strategies from the Perspective of AI Developers in Europe [56.1653658714305]
ヨーロッパを拠点とする25人のAI開発者を対象にインタビューを行い、ユーザ、開発者、ビジネスに最もリスクをもたらすと彼らが信じているプライバシの脅威を理解しました。
プライバシリスクの相対的なランク付けに関して、AI開発者の間ではほとんど合意が得られていないことが分かっています。
AI開発者はこれらのリスクに対処するために提案された緩和戦略を認識しているが、彼らは最小限の現実的採用を報告した。
論文 参考訳(メタデータ) (2025-10-01T13:51:33Z) - Transparency, Security, and Workplace Training & Awareness in the Age of Generative AI [0.0]
AI技術の進歩に伴い、倫理的考慮、透明性、データのプライバシー、そして人間の労働への影響は、イノベーションと効率の推進力と交差する。
我々の研究は、主流の精査から離れて、しばしば周辺で機能する公開アクセス可能な大規模言語モデル(LLM)を探索する。
具体的には、制限のないコミュニケーションとプライバシを中心としたプラットフォームであるGab AIを調べ、検閲なしで自由に対話できるようにします。
論文 参考訳(メタデータ) (2024-12-19T17:40:58Z) - AI Delegates with a Dual Focus: Ensuring Privacy and Strategic Self-Disclosure [40.47039082007319]
大規模言語モデル(LLM)ベースのAIデリゲートは、ユーザに代わって機能するためにますます利用されています。
プライバシーに配慮した自己開示を可能にする新しいAIデリゲートシステムを提案する。
我々のユーザー調査は、提案されたAIデリゲートがプライバシーを戦略的に保護し、多様なダイナミックなソーシャルインタラクションにおけるその利用の先駆者であることを実証している。
論文 参考訳(メタデータ) (2024-09-26T08:45:15Z) - The Ethics of Advanced AI Assistants [53.89899371095332]
本稿では,高度AIアシスタントがもたらす倫理的・社会的リスクについて論じる。
我々は、高度なAIアシスタントを自然言語インタフェースを持つ人工知能エージェントとして定義し、ユーザに代わってアクションのシーケンスを計画し実行することを目的としている。
先進的なアシスタントの社会規模での展開を考察し、協力、株式とアクセス、誤情報、経済的影響、環境、先進的なAIアシスタントの評価方法に焦点をあてる。
論文 参考訳(メタデータ) (2024-04-24T23:18:46Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。