テストチームの様子を見ているとなかなか苦戦してる様子だな。(´・ω・`)
様子を察するに、全てのテストをモンキーテストで実施している。つまり、テスト項目を直感だけとは言わないが白紙から体当たりで作っている。
どいうことか?
テスト項目作成には一定の原理原則というものがあるのよ。
このシステムはWebシステムであるから、処理の起点は画面からの入力である。つまり、インプット情報という観点からの試験項目。
- 必須項目がnullである場合
- 255桁しか入らない項目に256文字を入れた場合
- 半角数字であるはずの項目にアルファベットを入れた場合
と言うように、「インプット情報」という切り口で試験項目を洗い出す。
次に、モデルの観点だな。
- DBの検索結果が0件である場合
- DBの検索結果が1件である場合
- DBの検索結果が2件以上である場合
- DBの検索結果が閾値より多くてページ遷移が発生する場合
という感じに、試験には「切り口/観点」というものがあって、ある程度は機械的に試験項目が生成されるものなのだが。
この試験チームにはそれが無い。(;´・ω・`)
( ゚Д゚)「テキストボックスを空白にしてみよう」
( ゚Д゚)「検索結果が2件の場合はどうなるかな」
( ゚Д゚)「検索結果が3件の場合はどうなるかな」
( ゚Д゚)「テキストボックスに記号とか入れてみるか」
こんな感じ。規則性、法則性、論理立て。そういうものが皆無で、ジッと要件定義のパワポと画面を見て、頭の中に泡のように浮かんだ試験項目を提示までひたすら実施。
「境界値」とか、「同値分割」とか、そういう言葉も知らなければ発想も無い。
これは厳しくないか。(;´・ω・`)
どうしてこうなるかと言うと、担当者が限りなく未経験に近く、基本情報も持っていなければ「試験に関する考え方」という発想も持っておらず、指導も受けていないから。
だから原始人が素手で殴り合うように試験を頑張るのみ。
まあ、若手と未経験者の練習用プロジェクトという意味もあるからある程度は仕方ないと思うけど、やっぱり最低限の基本的レクチャー、原理原則、軌道修正は行った方が良いのではないか。(;´・ω・`)
0 件のコメント:
コメントを投稿