Article

技術パートナーとしての開発会社:選定時に見るべき指標

高田晃太郎
技術パートナーとしての開発会社:選定時に見るべき指標

大規模ITプロジェクトの約45%が予算を超過し、スケジュール遅延は7%、期待した価値の未達は56%にのぼる¹という報告があるとされます。クラウド移行やプロダクト内製化が進む一方で、外部の開発会社を「技術パートナー」として選ぶ判断は依然として戦略的です。失敗の多くは「技術の優劣」そのものではなく、「マネジメント可能性(再現性と計測可能性)」の見誤りに起因します。複数の調査を突き合わせると、成功確率を押し上げるのは、契約形態や進め方以前に、選定段階で成果に直結するKPI(評価指標)を具体化し、監査可能な証拠で検証する態度²³。抽象的な「アジャイルできます」「品質に自信があります」といった言葉は判断材料になりません。CTOやエンジニアリングマネージャーが握るべきレバーは、計測の定義と基準、そして再現性の見極めです。これは「開発会社の選び方」を品質・速度・コストの観点で最適化するための前提になります。

何を測るか:アウトカムに結びつく技術指標(DORA・SRE・DevOpsのKPI)

選定で最初に合意すべきは、出荷本数や工数消化のような出力ではなく、ビジネス価値へ収束する開発パフォーマンス指標です。実務で効くのは、いわゆるDORAの4指標(DevOps Research and Assessmentの主要KPI)と、その前後を支える運用メトリクス群です²³。デプロイ頻度は変更をどれだけ小さく安全に届けられるかを表し、リードタイム(コードが本番に到達するまでの時間)はアイデアから本番到達までの摩擦を示します。変更障害率は品質とレビューの健全性の鏡であり、平均復旧時間(MTTR:障害からの復旧に要する平均時間)は観測性と運用体制の真価を暴きます。エリート水準の定義は年次レポートによって差があるものの、一般に本番リードタイムは1日未満、デプロイは1日あたり複数回、変更障害率は0〜15%、平均復旧時間は1時間未満が高い健全性の目安とされています³。選定の場では理想値を一方的に押し付けるのではなく、プロダクトの性質とリスク許容度に応じてターゲット帯域を合意し、その基準で過去実績と改善曲線を語ってもらうのが実践的です。

DORAだけではビルドの詰まりやレビューの滞留は見えません。意思決定の粒度とフロー効率を測るために、プルリクエスト(PR)の作成からマージまでのサイクルタイム、レビュー待機時間の中央値と95パーセンタイル(全体の95%が収まる時間)、1プルリクあたりの変更行数とコミット数、同時進行するブランチ数、そしてリベースやコンフリクト発生率などを加えると可視性が上がります。CIの安定性も重要で、CI/CD(継続的インテグレーション/継続的デリバリー)のパイプライン実行時間、キュー滞留、フレークテスト比率(再実行で成否が変わる不安定テストの割合)、失敗から再実行までの所要時間は、日々の速度を左右します。運用面ではSLO(サービスレベル目標)とエラーバジェットが中核になり、目標の達成率、SLO違反の持続時間、インシデントのMTTA(初動までの平均時間)とMTTR、ポストモーテムの作成率と再発防止アクションの完了率が、品質を犠牲にしない速度の可否を決めます⁴。ここでのポイントは、すべてを数式で定義し、データの出所をシステム・オブ・レコード(唯一の正式なデータ源)に限定することです。都合の良いサンプリングや手集計を許すと、指標はすぐに虚飾化します。

品質の代理指標として、ユニットテストのコードカバレッジや静的解析の警告数に注目したくなりますが、単独での目標設定は逆効果になり得ます。現実的には、変更障害率とMTTRを主軸に、回帰不具合の割合、テストの実行時間とフレーク率、そして本番での監視カバレッジを組み合わせる方が、プロダクトの健全性に直結します³。セキュリティでは、依存関係の脆弱性修正SLA、依存更新のリードタイム、SBOM(ソフトウェア部品表)の提供可否、秘密情報の管理方式、アクセス制御の最小権限原則の適用状況を、運用プロセスとして測ることが肝要です⁵。SLSA(Supply-chain Levels for Software Artifacts:ソフトウェアサプライチェーン保証レベル)への適合度や成果物署名も、リスク管理の観点で有効なKPIです。数値はあくまで会話の起点であり、例外運用やリスク評価の記録が伴ってこそ、成熟度の差が立ち上がります。

どう確かめるか:監査可能な証拠で再現性を検証する

選定の場で最も説得力があるのは、プレゼン資料ではなく、生の運用遺産です。過去プロジェクトのGitリポジトリから匿名化したコミット履歴とプルリクのタイムスタンプを提示してもらえば、PRサイクルタイムやレビュー密度は即座に再計算できます。CIの実行ログやダッシュボードのスクリーンショットは、成功率、実行時間の分位点、並列度の上限を示し、理想論と実働の乖離を露わにします。デプロイの履歴やリリースノートは、バッチサイズの推移やロールバック発生の扱いを示し、リリース運用の成熟度を示す根拠になります。インシデント管理ツールのチケット一覧とポストモーテムの実体は、検知から復旧までの流れと学習サイクルの有無を雄弁に物語ります⁴。ここまでの「監査可能な証拠」は、RFP(提案依頼書)や面談での主観を補正し、技術パートナー選定の再現性を高めます。

セキュリティでは、依存更新の自動化が行き届いているかを、RenovateやDependabotのマージリードタイム、拒否率、影響範囲の評価メモで読み解けます。SBOMの配布と保守方針、CVEへの初動SLA、脆弱性スキャナの検出精度と誤検知の扱い、成果物署名やSLSAレベルの自己適合性、署名鍵の保護方式、そしてビルドの再現性(同じ手順で同じ成果物が得られるか)が説明できるかは、サプライチェーンリスクの耐性を測る試金石です⁵。加えて、監査証跡の扱いが場当たりではなく、アクセスログと変更履歴、承認フローが統一の原則に基づいているかを確認します。形式的な認証に頼り切るのではなく、データの粒度と一貫性、例外運用の記録、そして第三者が追試できることが、真の信頼性の源泉です。

知的財産とスケーラビリティも、証拠で語るべき領域です。ADR(Architectural Decision Record:設計判断の記録)の整備状況と履歴の更新頻度は、意思決定の透明性を示し、設計変更が属人化していないかを判断する材料になります。ドキュメントの網羅性は、システム境界図、依存の逆引き、運用Runbook、オンボーディングガイドが最新版か、変更差分が追えるかで見えます。オンボーディング所要日数や、ペア作業・レビュー比率、バスファクターの推定は、継続性のリスクを定量化する助けになります。ここまで揃えば、「この会社は優秀だ」という印象論を超えて、この会社のやり方は自社の制約内で再現可能かという本質的な問いに答えられます。

組織と契約の設計:成果連動で歪みを最小化する

指標を設定しても、契約が逆方向の力学を生むと台無しになります。時間精算は透明ですが、短期的にはむしろリードタイムを伸ばす動機が働きます。フィーチャー単価は見積りのハックを誘発しがちです。そこで現実解として、ベースはT&M(Time & Materials)で透明性を確保しつつ、ボーナスやホールドバックをアウトカム指標に連動させるハイブリッドが機能します。たとえば、合意した四半期のターゲット帯域内でデプロイ頻度とリードタイムを維持しつつ、変更障害率とMTTRが許容範囲に収まることをボーナスの条件にするやり方です。SLO違反が続いた場合のエラーバジェット消費に応じて開発より信頼性改善を優先する運用に切り替える、いわゆるガバナンスの自動化も契約事項として明示できます⁴。ここで重要なのは、測り方と例外時の扱いを契約本文に書くことです。定義が曖昧な成果連動は、後の紛争の温床になります。

知識移転は契約上の成果物として扱い、最終納品時の状態ではなく過程に組み込みます。スプリント内で社内メンバーが主担当を受け持つ比率、コードレビューにおける社内レビュアーの承認必須化、ADRの共同執筆、運用Runbookの自社レポジトリ保管を標準にし、オンボーディング完了の定義を「新規メンバーが2週間でバグ修正を本番に届けられる状態」と明文化すると、形式的な引き継ぎを超えられます。ソースコードとビルドパイプライン、IaC(Infrastructure as Code)、監視設定、ダッシュボードの所有権とアクセス権は、委託期間中から自社組織配下に置き、退去時のアカウント無効化や鍵のローテーション、リポジトリの監査ログ保持期間も前提として合意します。万一の分岐に備え、ソースコードエスクローではなく、日次のミラーリングを標準運用とし、ベンダーロックインに耐える運用の自動化を初日から敷きます。

PoCで見極める:30〜60日で小さく本番まで

RFPと面談だけでは、再現性の確証には届きません。最も確かなのは、30〜60日の短期PoC(Proof of Concept:実証)で薄いスライスを本番まで通し、合意済みの指標で手触りを測る方法です。単なるデモではなく、サービスの極小価値に絞って、実リポジトリ、実CI/CD、実監視、最小限のガードレールを通します。開始前に成功条件を文章で確定し、たとえばPRサイクルタイムの中央値を現状から30%短縮し、週次以上のデプロイを安定稼働させ、SLOとアラートを定義し、インシデントの模擬対応とポストモーテムを実施し、ADRを2〜3本残し、コストの単位指標(1リクエストあたり、1バッチ処理あたり)を可視化する、といった基準を全員が理解できる形にします⁴。期間中は週次でメトリクスのトレンドと阻害要因をレビューし、最終日には改善の持続可能性と、自社チームが自走できるかを評価します。

PoCで見えるのはスキルだけではありません。優先順位の翻訳力、仕様の曖昧さに対する探索の姿勢、利害が衝突したときの説明責任、そして何より、失敗の透明性です。失敗を覆い隠す組織より、定義通りにSLO違反を宣言し、是正のために速度を落とす提案ができる組織の方が、長期的な価値を生みます。ここでの判断基準は好感度ではなく、約束した測り方で現実を示し、必要な意思決定を支えるかに尽きます。PoCの評価は定量に偏らせすぎず、プロダクトの文脈理解や利害関係者との合意形成の速さ、セキュリティ・法務・FinOps(クラウドコスト最適化運用)といった横断領域での自律性も、記述ベースで残しておくと再現性の見立てが立ちます。

まとめ:指標で語り、証拠で決める

優秀な開発会社を探す旅は、評判や価格比較に終始すると、運に委ねる割合が大きくなります。指標と証拠を起点にすれば、偶然を減らし、対話の質を高められます。まずは自社のリスク許容度に合うDORAと運用メトリクスの帯域を言語化し、測り方と例外処理を文章で固定してください³。次に、過去実績のデータ提供とPoCでの再現性検証を依頼し、契約は透明性を担保しながら成果連動のインセンティブを織り込みます。最後に、知識移転を過程に組み込み、資産と運用の所有権を最初の日から自社側に寄せることで、依存の罠を避けられます。

いま検討中の候補に、この測り方で臨めば何が見えるでしょうか。RFPのフォーマットを、数値の定義と証拠の提出要件に置き換えるだけでも、会話は具体になります。小さく始め、大きく学び、指標で語り、証拠で決める。技術パートナー選定の意思決定は、その瞬間からすでにプロダクトの将来を形づくっています。

参考文献

  1. McKinsey & Company. Delivering large-scale IT projects on time, on budget, and on value.
  2. Nicole Forsgren, Jez Humble, Gene Kim. DevOps Metrics. Communications of the ACM. 2018.
  3. Google Cloud. State of DevOps Report (Accelerate).
  4. Google SRE Book. Service Level Objectives.
  5. NIST. Executive Order 14028: Improving the Nation’s Cybersecurity — Software Security and Supply Chains.