Strona główna / Blog / 5 metryk efektywności QA

5 metryk efektywności QA, które powinieneś śledzić

28 lutego 2026 10 min czytania
Dashboard z 5 metrykami efektywności QA — Bug Escape Rate, MTTR, Completeness Score, Reopen Rate, Tester Velocity

TL;DR

5 metryk, po których poznasz faktyczną kondycję zespołu QA: Bug Escape Rate (ile bugów prześlizguje się na produkcję), Mean Time to Report (jak szybko powstaje raport), Report Completeness Score (czy raporty są kompletne), Bug Reopen Rate (ile ticketów wraca) i Tester Velocity (ile pracy przetwarza tester). Każda z definicją, wzorem, benchmarkiem i czerwoną flagą.

Robert Austin w „Measuring and Managing Performance in Organizations" (Dorset House, 1996) ostrzega: metryki mierzące indywidualną wydajność prowadzą do gier z systemem. Tester, który wie, że jest mierzony liczbą raportów, będzie zgłaszał dużo trywialnych bugów. Tester mierzony czasem zamknięcia ticketów będzie zamykał je przedwcześnie.

Dlatego poniższe 5 metryk dotyczy procesu, nie ludzi. Mierzą jakość systemu raportowania, nie indywidualną produktywność testerów. To kluczowa różnica: dobre metryki QA pokazują, gdzie proces się psuje — a nie kogo obwinić.

1. Bug Escape Rate — ile bugów prześlizguje się na produkcję

Definicja:

Procent defektów znalezionych na produkcji w stosunku do wszystkich znalezionych defektów (produkcja + testy wewnętrzne). Im niższy, tym lepiej.

Wzór:

Bug Escape Rate = (bugi produkcyjne / wszystkie bugi) x 100%

Benchmark:

  • Dobry: poniżej 10%
  • Średni: 10-20%
  • Słaby: powyżej 20%

Jak zmierzyć: Policz bugi zgłoszone przez klientów/użytkowników w ostatnim miesiącu. Dodaj bugi znalezione wewnętrznie przez QA w tym samym okresie. Podziel produkcyjne przez sumę. Potrzebujesz dwóch źródeł: trackera wewnętrznego i systemu zgłoszeń klientów (support, helpdesk, monitoring).

Dlaczego to ważne: Capers Jones w „Applied Software Measurement" (McGraw-Hill, 2008) wykazał, że koszt naprawy defektu rośnie wielokrotnie w każdej kolejnej fazie cyklu życia oprogramowania. Bug złapany w testach kosztuje godziny. Bug na produkcji kosztuje dni — debugging, hotfix, deploy, komunikacja z klientem, ewentualne odszkodowania.

Czerwona flaga: Bug Escape Rate powyżej 25% oznacza, że co czwarty bug przechodzi przez QA niezauważony. Sprawdź: czy testy pokrywają krytyczne ścieżki? Czy testerzy mają czas na eksploracyjne testowanie, czy tylko „klikają checklistę"?

2. Mean Time to Report — ile czasu zajmuje stworzenie raportu buga

Definicja:

Średni czas od momentu znalezienia buga do momentu utworzenia kompletnego ticketu w trackerze. Obejmuje zbieranie danych, pisanie opisu, załączanie dowodów.

Wzór:

MTTR = suma czasów raportowania / liczba raportów

Benchmark:

  • Ręczne raportowanie: 10-15 minut (Capgemini, World Quality Report 2024)
  • Z narzędziem automatycznym: poniżej minuty
  • Dobry cel: poniżej 3 minut

Jak zmierzyć: Przez tydzień poproś testerów o mierzenie stoperem czasu od momentu znalezienia buga do kliknięcia „Utwórz" w trackerze. Zbierz dane, policz średnią i medianę. Mediana jest ważniejsza — eliminuje skrajności (np. jeden bug wymagający 30 minut opisu nie powinien zaburzać obrazu).

Dlaczego to ważne: Przy 8 bugach dziennie i czasie raportowania 12 minut per bug, jeden tester spędza 96 minut dziennie na samym raportowaniu. To prawie 1/5 dnia pracy. Przy zespole 4 testerów: 384 minuty = ponad 6 godzin dziennie. Przy stawce 80 PLN/h to 480 PLN dziennie, ponad 9 600 PLN miesięcznie — na logistykę, nie na testowanie.

Czerwona flaga: MTTR powyżej 15 minut = tester walczy z narzędziem lub procesem. Sprawdź: czy musi ręcznie zbierać dane techniczne? Ile kliknięć wymaga stworzenie ticketu? Ile pól formularza jest obowiązkowych?

3. Report Completeness Score — czy raporty mają wszystko, czego potrzebuje developer

Definicja:

Procent raportów bugów, które zawierają wszystkie wymagane pola: opis, kroki reprodukcji, oczekiwany vs faktyczny rezultat, screenshot/nagranie, dane techniczne (URL, przeglądarka, logi konsoli).

Wzór:

Completeness = (raporty kompletne / wszystkie raporty) x 100%

Benchmark:

  • Dobry: powyżej 90%
  • Średni: 70-90%
  • Słaby: poniżej 70%

Jak zmierzyć: Zdefiniuj checklistę kompletności (np. 6 pól: tytuł, opis, kroki reprodukcji, oczekiwany rezultat, screenshot, dane techniczne). Przejrzyj losową próbkę 30-50 ostatnich ticketów. Policz, ile z nich ma wszystkie 6 pól wypełnionych. Podziel przez liczbę sprawdzonych ticketów.

Dlaczego to ważne: Capers Jones w „Software Defect Origins and Removal Methods" (2012) wskazuje, że niekompletne raporty odpowiadają za 15-25% ponownych otwarć ticketów. Developer dostaje ticket bez URL, bez logów, bez kroków reprodukcji — i albo sam musi to ustalić (30-60 minut), albo odsyła ticket z pytaniem (kolejne 24h opóźnienia).

Czerwona flaga: Completeness Score poniżej 60% oznacza, że deweloperzy regularnie dostają niepełne raporty. Sprawdź: czy template w trackerze wymusza kluczowe pola? Czy testerzy mają narzędzie, które automatycznie zbiera dane techniczne?

4. Bug Reopen Rate — ile ticketów wraca

Definicja:

Procent zamkniętych ticketów, które wracają do statusu otwarty/do naprawy. Mierzy dwa problemy naraz: jakość fixów developerów i jakość raportów testerów.

Wzór:

Reopen Rate = (reopened tickets / closed tickets) x 100%

Benchmark:

  • Dobry: poniżej 5%
  • Średni: 5-15% (Capers Jones, 2012)
  • Słaby: powyżej 15%

Jak zmierzyć: W Jirze (lub dowolnym trackerze) sprawdź ile ticketów w ostatnim miesiącu przeszło ze statusu Done/Closed z powrotem do Open/In Progress/To Do. Podziel przez łączną liczbę zamkniętych ticketów w tym okresie. Pomnóż przez 100.

Dlaczego to ważne: Każdy reopen to podwójna praca. Developer wraca do kodu, który pisał tydzień temu (30+ minut na wejście w kontekst). Tester ponownie weryfikuje fix. Przy 640 ticketach miesięcznie (4 testerzy x 8 bugów x 20 dni) i reopen rate 15%, to 96 reopenów. Capers Jones szacuje koszt jednego reopen na 30-60 minut pracy (tester + developer). To 48-96 straconych godzin miesięcznie.

Czerwona flaga: Reopen Rate powyżej 20% = systematyczny problem. Zbadaj przyczyny: czy tickety wracają przez niekompletne raporty (brak kroków reprodukcji) czy przez niedokładne fixy? To zupełnie różne problemy z różnymi rozwiązaniami.

5. Tester Velocity — ile pracy przetwarza tester na sprint

Definicja:

Ile test case'ów (lub story pointów QA) realizuje jeden tester w ciągu sprintu. To metryka przepustowości — pokazuje, czy zespół QA nadąża za zespołem developerskim.

Wzór:

Velocity = wykonane test case'y / sprint (per tester)

Benchmark:

  • Zależy od projektu — ważny jest trend, nie wartość absolutna
  • Spadek velocity o 20%+ = sygnał alarmowy
  • Stabilny lub rosnący trend = proces działa

Jak zmierzyć: Na koniec każdego sprintu policz ile test case'ów wykonał każdy tester (executed, nie napisał). Śledź trend przez 5-6 sprintów. Nie porównuj testerów między sobą — porównuj każdego testera z jego własną historią. Nagły spadek velocity u jednej osoby to sygnał: nowy projekt? zablokowany? zmiana narzędzia?

Dlaczego to ważne: Capgemini w „World Quality Report 2024" podaje, że testowanie stanowi średnio 23% budżetu projektu IT. Jeśli velocity spada, a backlog rośnie — masz wąskie gardło w QA. Ale przyczyna może nie leżeć w testerach: wolne środowisko testowe, brak danych testowych, zbyt dużo czasu na logistykę raportowania — to wszystko obniża velocity bez winy testera.

Czerwona flaga: Jeśli velocity spada, a MTTR rośnie jednocześnie — testerzy tracą coraz więcej czasu na raportowanie kosztem testowania. To najczęstsza przyczyna: nie brak umiejętności, a złe narzędzia i procesy.

Zestawienie: 5 metryk na jednym dashboardzie

Metryka Dobry Średni Czerwona flaga
Bug Escape Rate < 10% 10-20% > 25%
Mean Time to Report < 3 min 3-10 min > 15 min
Completeness Score > 90% 70-90% < 60%
Bug Reopen Rate < 5% 5-15% > 20%
Tester Velocity Stabilny trend Lekkie wahania Spadek > 20%

Jak zacząć — nie wdrażaj 5 metryk naraz

Robert Austin (1996) przestrzega przed „metryczną przeładowaniem". Zacznij od dwóch metryk, które dadzą Ci największy wgląd w aktualne problemy:

Plan wdrożenia

Tydzień 1-2: Bug Reopen Rate + MTTR

  • Reopen Rate — wyciągnij z Jiry (1 godzina pracy)
  • MTTR — testerzy mierzą stoperem przez 5 dni
  • Na koniec: czy problem leży w raportach (niekompletne) czy w fixach (niedokładne)?

Tydzień 3-4: Report Completeness Score

  • Przejrzyj 50 ostatnich ticketów z checklistą 6 pól
  • Zidentyfikuj najczęściej brakujące elementy
  • Wdróż rozwiązanie: template, narzędzie, automatyzacja

Miesiąc 2+: Bug Escape Rate + Tester Velocity

  • Bug Escape Rate wymaga danych z produkcji — potrzebujesz monitoringu lub systemu zgłoszeń
  • Tester Velocity ma sens dopiero po 3-4 sprintach (potrzebny jest trend, nie punkt)

Czego nie mierzyć — metryki, które szkodzą

Niektóre metryki wydają się rozsądne, ale w praktyce prowadzą do dysfunkcyjnych zachowań:

  • Liczba bugów per tester: Prowadzi do raportowania trywialności. Tester zgłaszający 20 bugów dziennie nie jest automatycznie lepszy od tego, który zgłasza 5 krytycznych.
  • Czas zamknięcia ticketu per developer: Prowadzi do przedwczesnego zamykania, obniża jakość fixów, zwiększa reopen rate.
  • Procent automatyzacji testów: Bez kontekstu to pusta liczba. 90% automatyzacji na złej warstwie (unit testy sprawdzające gettery/settery) jest gorsze niż 40% na krytycznych ścieżkach użytkownika.

Zasada: jeśli metryka mierzy osobę, a nie proces — prędzej czy później ktoś zacznie grać z systemem. Mierz efektywność procesu raportowania, nie produktywność poszczególnych testerów.

Co możesz zrobić

Dziś (30 minut):

  • Otwórz Jirę i policz Reopen Rate z ostatniego miesiąca — ile ticketów wróciło ze statusu Done?
  • Przejrzyj 10 ostatnich ticketów pod kątem kompletności — ile ma URL, logi, screenshot?

Ten tydzień:

  • Poproś testerów o mierzenie MTTR przez 5 dni
  • Zdefiniuj checklistę kompletności raportu (6 pól minimum)

Ten miesiąc:

  • Wdróż dashboard z Reopen Rate + MTTR + Completeness Score
  • Porównaj MTTR przed i po wdrożeniu narzędzia do automatycznego raportowania

Policz dla swojego zespołu

Wpisz dane zespołu i zobacz ile zaoszczędzisz optymalizując czas raportowania.

Otwórz kalkulator ROI →

Źródła

  1. Capgemini, „World Quality Report 2024" — dane o udziale testowania w budżetach IT i strukturze czasu pracy zespołów QA. Link
  2. Capers Jones, „Applied Software Measurement", McGraw-Hill, 2008 — koszt defektów w kolejnych fazach cyklu życia oprogramowania.
  3. Capers Jones, „Software Defect Origins and Removal Methods", 2012 — benchmarki reopen rate i wpływ kompletności raportów na koszt naprawy. Link
  4. Robert Austin, „Measuring and Managing Performance in Organizations", Dorset House, 1996 — ryzyka metryk indywidualnych i gry z systemem pomiarowym.

Darmowy trial Voice2Bug

Podaj email — dostaniesz 30 dni darmowego dostępu. Zero zobowiązań.

Żadnego spamu. Tylko wartościowe treści z bloga.

Wolisz od razu? Zacznij darmowy trial

Darmowy trial Voice2Bug — 30 dni