Кастую коллег в тред.
Просматривая разнообразные вебинары, семинары и прочие обучающие материалы заметил, что любой менеджер, дорвавшийся до настройки JIRA, тестлинка и других подобных инструментов - норовит прикрутить к ним дашборд с круговой диаграммой, отображающей количество пройденных и не пройденных кейсов.
Тестировать может автоматика, могут люди, но дашбордик будет висеть полюбому, в первом случае вероятней, так как есть готовые плагины.
Расскажите мне, какую полезную информацию несет любое значение, отличное от 100% прохождения?
Чем будет отличаться ваше поведение в случае, если прошло 87% тестов, от вашего поведения, когда вы узнаете, что прошло 63%?
В случае, если тесты гоняет автоматика можно продолжить вопросы: что вам даст список упавших тестов? Что хуже для продукта - один упавший тест или тридцать?
Само число в N% процентов упавших тестов мне вообще ни о чем не говорит.
ОтветитьУдалитьА вот список багов в той же Jira (из-за которых и упали эти N% тестов) с указанием их приоритета — другое дело.
поэтому я эти проценты и не считаю.