Churn Prediction - Model Explainability
Interpretacja modelu predykcji odejść klientów przy użyciu SHAP
📋 Opis Projektu
Piąty i ostatni krok serii Churn Prediction. Koncentruje się na interpretowalności modelu: dlaczego model przewiduje churn?
🎯 Cel
- Zrozumienie decyzji modelu
- Identyfikacja najważniejszych czynników churn
- Wyjaśnienie predykcji dla biznesu
- Trust & transparency w AI
� Jupyter Notebook
-
Model explainability: SHAP values, feature importance i interpretacja decyzji AI.
�🛠️ Technologie
- SHAP (SHapley Additive exPlanations)
- LIME (Local Interpretable Model-agnostic Explanations)
- Feature Importance (built-in)
- Partial Dependence Plots
📊 Rodzaje Wyjaśnień
1. Global Explainability
- Feature importance (który feature jest najważniejszy?)
- SHAP summary plots
- Ogólne trendy w danych
2. Local Explainability
- SHAP values dla pojedynczej predykcji
- Dlaczego TEN klient jest churnerem?
- LIME explanations
📈 Key Findings
Top 5 czynników churn: 1. Contract type (month-to-month) 2. Total charges 3. Tenure (jak długo jest klientem) 4. Internet service type 5. Payment method
SHAP Insights: - Month-to-month contract +45% churn probability - Long tenure (>2 years) -30% churn probability - High monthly charges +20% churn probability
💡 Business Actions
Na podstawie explainability: - Promować longer contracts (discounts) - Retention campaigns dla nowych klientów (<6 months) - Review pricing dla high-paying customers - Improve customer service
Status: ✅ Ukończony
Część serii: 5/5 Churn Prediction
Tech: SHAP + LIME