前回のコラムで、目に見えない応対品質についても、適切な評価基準を持つことで、”数値管理”ができるのですよ‥とご紹介しました。でも、正しく数値管理するためには、もう少し”適切さ”のハードルがあります。今回は、モニタリングのサンプリングをテーマにしてみたいと思います。
クオリティは、数字を計算式に投入するだけで測定できるようなものではありません。応対プロセスを、モニタリングによって「見える化」することで初めて数値化し、測定対象にすることができるのです。クオリティの測定も、迅速性の指標(例:サービスレベル・放棄呼率)や効率性の指標(例:AHT・稼働率)等と同じように100%のデータを根拠に算出したいところですが、担当者の時間を考えると100%の応対に対してモニタリングすることは難しいでしょう。そこで部分的に抽出したモニタリング対象データが、センター全体の応対を表すに相応しいサンプリング手法であることが重要になります。私の経験上、適切な手法をとっていないセンターのほうが多いようです。サンプリングの方法で改善の余地があるケースを2つご紹介いたしましょう。
ケース1:サンプルを選んでいませんか?
顧客満足度向上をミッションとし、モニタリングに力を入れているセンターの事例です。複数ロケーションそれぞれの応対品質レベルと改善の状況を見るために、1名のエージェント(CSR)から数件、件数を定めて応対音声を採取しています。数名のモニタリング担当者が評価基準に則って応対評価を行ないます。結果は四半期に一度取りまとめられ、ロケーション単位で評価結果の高かったところは表彰される仕組みになっています。録音は一人一人のエージェント(CSR)に任されているため、各々指定された時間帯に録音した音声の中から、一番納得のいく応対を提出しています。
注意ポイント
サンプルの客観性
サンプルによってセンターのクオリティ評価を行なうためには、抽出したサンプルが全体を表すものになっていなければなりません。
全応対には、案件の種類/応対にかかった時間/応対者/応対が適切に終了したかどうかなど様々な異なる条件がありますが、抜き出したサンプルが全体を表すためには、全ての側面からみて偏りがないようにすることが必要です。意図的に選択の条件を絞ることは全体を表さないことにつながってしまいます。
特に上手くいった/いかなかったというエンドユーザ満足度に関わるところの結果で自由に応対を選択させてしまうと、評価結果は現実のセンター評価よりも良い数値となることにつながり、本来の改善点を見失うことになってしまいます。
エッセンス
モニタリング対象とするサンプルデータの抜き出しには、ランダム性を確保するために、元の構成比を崩さない方法、特に良い応対を選ぶなどの私意が挟まる余地のないルールが必要です。
ケース2:個人評価への適切性
毎月のモニタリングとその結果からのコーチングを行なっているセンターの事例です。
1名のエージェント(CSR)につき2件のモニタリングをスコア化し、そのスコアを個人の評価としてフィードバックしながら1件ずつコーチングを実施しています。毎月スコアが大きく変動するために、個人のレベルや改善ポイントが見え辛くなっていて、エージェント達にもフィードバックやコーチングをマイナスに受け取られてしまっている状況があります。どこに改善の要素があるのでしょうか?
注意ポイント
サンプルによる評価には誤差が含まれているため、以下の注意が必要です。
1・センター全体の評価にあたっては、誤差率(注1)を考慮して適切なサンプル数を定める必要があります。
2・個人の場合は特に月1件・2件といった少ない件数では、個人間の比較時に大きな誤差がでてきます。そのため少なすぎるモニタリング結果だけに基づいた正式な人事評価をするべきではありません。個人のコーチングは改善ポイントに気付ける機会とし、本人が自主的に改善へ取り組むことにフォーカスすることが効果的です。
(注1) 誤差率: 過去の欠陥率(不適切さの割合)/全体の母数/サンプルの件数 によって誤差率(誤差の割合)が何%程度か算出するロジック
エッセンス
モニタリング実施件数を定めるときや、評価結果を見る場合、誤差率を考慮することが重要です。
クオリティのパフォーマンスを数値管理するには、モニタリングによる評価を根拠とするしかありません。ほとんどの場合はサンプリングデータで行い全件チェックではありませんので、サンプルが全体像を表せるように抜き出すことが重要です。そのために、サンプルに偏った条件を持たせないこと、誤差率を考慮し、担当者が割ける時間との兼ね合いで、適切な実施件数をルール化することが大事です。
次回のコラムでは、評価者間のカリブレーション(評価軸あわせ)ついての考え方をご紹介したいと思います。