Air Quality

Prédire la qualité de l’air est un sujet délicat et important. Il est possible avec des modèles de Machine Learning de prédire avec précision cette qualité. Notons que produire une prévision de bonne qualité c’est difficile. Cela demande beaucoup d’expérience et certaines compétences très spécifiques. Certes, il existe des outils de prévision mais qui sont assez rigides, notamment pour intégrer certaines hypothèses utiles.

Pour ces raisons, Facebook a créé Prophet, un outil de prévision disponible en Python et R. Cet outil permet aux experts et aux non-experts de produire de bonnes prévisions avec un minimum d’efforts.

Dans cet article, nous allons utiliser Prophet pour nous aider à prédire la qualité de l’air!

Vous trouverez le notebook complet en cliquant ici et le dataset est à télécharger ici.

Commençons à faire quelques prédictions !

Importer les bibliothèques

Comme d’habitude, nous commençons par importer les bibliothèques utiles :

import warnings
warnings.filterwarnings('ignore')

import numpy as np
import pandas as pd
from scipy import stats
import statsmodels.api as sm
import matplotlib.pyplot as plt

%matplotlib inline

Importer les données

Nous allons importer le dataset et le visualiser :

DATAPATH = 'data/AirQualityUCI.csv'

data = pd.read_csv(DATAPATH, sep=';')
data.head()

Le dataset contient des informations sur les concentrations de différents gaz. Ils ont été enregistrés à chaque heure pour chaque jour. Vous pouvez trouver une description de toutes les colonnes ici.

Si vous explorez un peu plus le dataset, vous remarquerez qu’il existe de nombreuses instances de la valeur -200. Bien entendu, il n’est pas logique d’avoir une concentration négative, nous aurons donc besoin de nettoyer les données avant de faire notre modélisation.

Nettoyer les données

Tout d’abord, nous nous débarrassons de toutes les instances où il existe une valeur vide :

data.dropna(axis=1, how='all', inplace=True)
data.dropna(axis=0, how='all', inplace=True)

Après, nous devons formater la colonne Date en tant que date et transformer toutes les mesures en float :

# Formater les dates
data['Date'] = pd.to_datetime(data['Date'])

# Convertir les mesures en float
for col in data.iloc[:,2:].columns:
    if data[col].dtypes == object:
        data[col] = data[col].str.replace(',', '.').astype('float')

Ensuite, nous agrégeons les données par jour en prenant la moyenne de chaque mesure :

def positive_average(num):
    return num[num > -200].mean()
    
daily_data = data.drop('Time', axis=1).groupby('Date').apply(positive_average)

daily_data.head()

Nous avons encore quelques NaN dont nous devons nous débarrasser. Nous pouvons voir combien de NaN sont présents dans chaque colonne avec cette commande :

daily_data.isna().sum()

Supprimons les colonnes contenant plus de 8 NaN:

daily_data = daily_data.iloc[:,(daily_data.isna().sum() <= 8).values]
daily_data = daily_data.dropna()

Parfait! Maintenant, nous devrions regrouper les données par semaine, car cela donnera une tendance plus lisse à analyser.

weekly_data = daily_data.resample('W').mean()
weekly_data = weekly_data.dropna()

Top ! Nous sommes maintenant prêts à explorer ces données.

Analyse des données

Traçons chaque colonne du dataset :

def plot_data(col):
    plt.figure(figsize=(17, 8))
    plt.plot(weekly_data[col])
    plt.xlabel('Time')
    plt.ylabel(col)
    plt.grid(False)
    plt.show()
    
for col in weekly_data.columns:
    plot_data(col)

Prenez le temps de regarder chaque graphique et d’identifier les tendances intéressantes. Par souci de longueur, nous ne prendrons que la concentration de NOx.

Les oxydes d’azote sont très nocifs, car ils réagissent en formant de la brume et des pluies acides. Ils sont également responsables de la formation de particules fines et de l’ozone troposphérique. Celles-ci ont des effets néfastes sur la santé, la concentration de NOx est donc un élément clé de la qualité de l’air.

Par conséquent, supprimons toutes les colonnes non pertinentes avant de passer à la modélisation :

cols_to_drop = ['PT08.S1(CO)', 'C6H6(GT)', 'PT08.S2(NMHC)', 'PT08.S4(NO2)', 'PT08.S5(O3)', 'T', 'RH', 'AH']

weekly_data = weekly_data.drop(cols_to_drop, axis=1)

weekly_data.head()

Modélisation

On commence par installer Prophet si ce n’est pas déjà fait.

Vous pouvez suivre ce lien: installation Prophet. Ou si vous êtes sur anaconda: conda install gcc puis conda install -c conda-forge fbprophet

On continue en important la bibliothèque Prophet :

from fbprophet import Prophet
import logging

logging.getLogger().setLevel(logging.ERROR)

Ensuite, Prophet exige que la colonne Date soit nommée ds et que la colonne des résultats soit nommée y :

df = weekly_data.reset_index()
df.columns = ['ds', 'y']
df.head()

Ensuite, nous définissons un dataset de training. Pour cela, nous utiliserons les 30 dernières entrées à des fins de prédiction et de validation.

prediction_size = 30
train_df = df[:-prediction_size]

Ensuite, nous initialisons simplement Prophet, ajustons le modèle aux données et commençons à faire des prédictions !

m = Prophet()
m.fit(train_df)

future = m.make_future_dataframe(periods=prediction_size)

forecast = m.predict(future)

forecast.head()

Nickel ! Ici, yhat représente la prédiction, tandis que yhat_lower et yhat_upper représentent respectivement la limite inférieure et supérieure de cette prédiction.

Prophet vous permet de tracer facilement les prévisions :

m.plot(forecast)

On obtient ceci :

Prévision de concentration de NOx
Prévision de concentration de NOx

Comme vous pouvez le constater, Prophet a simplement utilisé une ligne droite pour prédire la concentration future de NOx.

Vous pouvez également utiliser une commande pour voir si la série chronologique a des caractéristiques intéressantes, telles que la saisonnalité :

m.plot_components(forecast)

Et on obtient:

Graphique saisonnalité

Ici, Prophet a seulement identifié une tendance à la baisse sans aucune saisonnalité.

Maintenant, évaluons les performances du modèle en calculant son erreur moyenne en pourcentage absolu (Mean Absolute Percentage Error – MAPE) et son erreur moyenne absolue (Mean Absolute Error – MAE) :

# Définit une fonction qui crée un DataFrame contenant les prédictions et valeurs actuelles
def make_comparison_dataframe(historical, forecast):
    return forecast.set_index('ds')[['yhat', 'yhat_lower', 'yhat_upper']].join(historical.set_index('ds'))

cmp_df = make_comparison_dataframe(df, forecast)

# Définit une fonction qui calcule MAPE et MAE
def calculate_forecast_errors(df, prediction_size):
    
    df = df.copy()
    df['e'] = df['y'] - df['yhat']
    df['p'] = 100 * df['e'] / df['y']
    
    predicted_part = df[-prediction_size:]
    
    error_mean = lambda error_name: np.mean(np.abs(predicted_part[error_name]))
    
    return {'MAPE': error_mean('p'), 'MAE': error_mean('e')}

# Affiche MAPE et MAE
for err_name, err_value in calculate_forecast_errors(cmp_df, prediction_size).items():
    print(err_name, err_value)

Et vous devriez voir que le MAPE est à 13,86% et le MAE à 109,32, ce qui n’est pas si mal! N’oubliez pas que nous n’avons pas du tout ajusté le modèle.

Enfin, décrivons la prévision avec ses limites supérieure et inférieure:

plt.figure(figsize=(17, 8))
plt.plot(cmp_df['yhat'])
plt.plot(cmp_df['yhat_lower'])
plt.plot(cmp_df['yhat_upper'])
plt.plot(cmp_df['y'])
plt.xlabel('Time')
plt.ylabel('Average Weekly NOx Concentration')
plt.grid(False)
plt.show()

Finalement, on obtient :

prévision de la concentration hebdomadaire moyenne de NOx
prévision de la concentration hebdomadaire moyenne de NOx

Voilà, vous avez appris à utiliser Prophet pour la prévision de séries chronologiques. Notez que Prophet ne convient pas à toutes les situations. Veillez donc à lire cela avant d’utiliser Prophet.

N’hésitez pas si vous avez des questions !

Publications similaires

0 Commentaires
Le plus récent
Le plus ancien Le plus populaire
Commentaires en ligne
Afficher tous les commentaires