論文の概要: Understanding the Building Blocks of Accountability in Software
Engineering
- arxiv url: http://arxiv.org/abs/2402.01926v1
- Date: Fri, 2 Feb 2024 21:53:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 23:29:00.938337
- Title: Understanding the Building Blocks of Accountability in Software
Engineering
- Title(参考訳): ソフトウェア工学における説明責任の構築ブロックを理解する
- Authors: Adam Alami and Neil Ernst
- Abstract要約: ソフトウェア技術者がチーム内で個々の説明責任を育む要因について検討する。
本研究は,ソフトウェア技術者が説明責任を個別に知覚する2つの主要な形態,すなわち制度化と草の根を認識するものである。
- 参考スコア(独自算出の注目度): 3.521765725717803
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In the social and organizational sciences, accountability has been linked to
the efficient operation of organizations. However, it has received limited
attention in software engineering (SE) research, in spite of its central role
in the most popular software development methods (e.g., Scrum). In this
article, we explore the mechanisms of accountability in SE environments. We
investigate the factors that foster software engineers' individual
accountability within their teams through an interview study with 12 people.
Our findings recognize two primary forms of accountability shaping software
engineers individual senses of accountability: institutionalized and
grassroots. While the former is directed by formal processes and mechanisms,
like performance reviews, grassroots accountability arises organically within
teams, driven by factors such as peers' expectations and intrinsic motivation.
This organic form cultivates a shared sense of collective responsibility,
emanating from shared team standards and individual engineers' inner commitment
to their personal, professional values, and self-set standards. While
institutionalized accountability relies on traditional "carrot and stick"
approaches, such as financial incentives or denial of promotions, grassroots
accountability operates on reciprocity with peers and intrinsic motivations,
like maintaining one's reputation in the team.
- Abstract(参考訳): 社会科学や組織科学では、説明責任は組織の効率的な運営と結びついている。
しかしながら、最も人気のあるソフトウェア開発手法(例えば、スクラム)において中心的な役割を果たすにもかかわらず、ソフトウェア工学(SE)研究に限定的に注目されている。
本稿では,SE環境における説明責任のメカニズムについて考察する。
ソフトウェア技術者がチーム内で個々の説明責任を育む要因について,12人とのインタビュー調査を通じて検討する。
本研究は,ソフトウェア技術者の個々に説明責任感を表わす2つの主要な形態,すなわち制度化と草の根を認識する。
前者はパフォーマンスレビューのような形式的なプロセスとメカニズムによって指示されているが、草の根のアカウンタビリティはチーム内で組織的に発生し、ピアの期待や本質的なモチベーションといった要因によって引き起こされる。
この組織的な形態は、共有チームの標準と、個人的、専門的価値、自己セットの標準に対する個々のエンジニアの内的コミットメントから、共通の責任意識を育みます。
制度化された説明責任は、財政的なインセンティブや昇進拒否のような伝統的な「ニンジンとスティック」アプローチに依存するが、草の根の説明責任は、チームの評判を維持するなど、仲間や本質的なモチベーションと相互に作用する。
関連論文リスト
- ReVISE: Learning to Refine at Test-Time via Intrinsic Self-Verification [53.80183105328448]
Refine via Intrinsic Self-Verification (ReVISE)は、LLMが自己検証を通じてアウトプットを自己修正できる効率的なフレームワークである。
様々な推論タスクに関する実験により、ReVISEは効率的な自己補正を実現し、推論性能を大幅に向上することを示した。
論文 参考訳(メタデータ) (2025-02-20T13:50:02Z) - Responsible Generative AI Use by Product Managers: Recoupling Ethical Principles and Practices [0.657029444008632]
ジェネレーティブAI(genAI)は、職場に急速に統合されている。
本稿では、プロダクトマネージャがGenAIを使用するとき、日々の業務において責任あるプラクティスをどのように実践するかを検討する。
論文 参考訳(メタデータ) (2025-01-27T22:10:27Z) - Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Generative AI in the Software Engineering Domain: Tensions of Occupational Identity and Patterns of Identity Protection [4.268049805078337]
我々は、ソフトウェア技術者が生成人工知能(GAI)を理解する方法と理由を理解するために、職業的アイデンティティの理論レンズと自己決定理論を構築している。
技術者のセンスメイキングは、下級生や上級生が、能力、自律性、関連性に対するニーズが、GAIによって異なる影響を受けていると感じているため、ドメインの専門知識に依存していることが分かりました。
本稿では、組織やシステムデザイナが、技術変革が労働者の職業的アイデンティティに与える影響をいかに促進できるかに関する設計ガイドラインを提案する。
論文 参考訳(メタデータ) (2024-10-04T16:20:39Z) - Software Fairness Debt [0.5249805590164902]
本稿では,ソフトウェアシステムにおけるバイアスの多面的性質について考察する。
ソフトウェア開発における公平性の欠如の主な原因を特定し,個人やコミュニティに対する悪影響を明らかにする。
我々の研究は、ソフトウェア工学における公平さのより深い理解に寄与し、より公平で社会的に責任を負うソフトウェアシステムの開発の道を開いた。
論文 参考訳(メタデータ) (2024-05-03T21:45:48Z) - An Actionable Framework for Understanding and Improving Talent Retention
as a Competitive Advantage in IT Organizations [44.342141516382284]
この作業は、IT組織で使用されるTalent Retention(TR)のための実行可能なフレームワークを提示します。
我々のフレームワークには、一連の要因、文脈特性、障壁、戦略、対処メカニズムが含まれています。
この結果から,ソフトウェア技術者は他の専門家グループと区別できることが示唆された。
論文 参考訳(メタデータ) (2024-02-02T17:08:14Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Autonomous Open-Ended Learning of Tasks with Non-Stationary
Interdependencies [64.0476282000118]
固有のモチベーションは、目標間のトレーニング時間を適切に割り当てるタスクに依存しないシグナルを生成することが証明されている。
内在的に動機付けられたオープンエンドラーニングの分野におけるほとんどの研究は、目標が互いに独立しているシナリオに焦点を当てているが、相互依存タスクの自律的な獲得を研究するのはごくわずかである。
特に,タスク間の関係に関する情報をアーキテクチャのより高レベルなレベルで組み込むことの重要性を示す。
そして、自律的に取得したシーケンスを格納する新しい学習層を追加することで、前者を拡張する新しいシステムであるH-GRAILを紹介する。
論文 参考訳(メタデータ) (2022-05-16T10:43:01Z) - The Good Shepherd: An Oracle Agent for Mechanism Design [6.226991885861965]
本研究では,適応型コプレーヤの学習軌道上での評価を行うエージェント構築アルゴリズムを提案する。
以上の結果から,我々のメカニズムは参加者の望ましい成果への戦略をシェパードできることが示唆された。
論文 参考訳(メタデータ) (2022-02-21T11:28:09Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。