Skip to Content

Qu’est-ce qu’un flux de travail d’apprentissage machine ?

Un flux de travail d’apprentissage machine est le processus systématique de développement, d’entraînement, d’évaluation et de déploiement de modèles d’apprentissage machine. Il comprend une série d’étapes qui guident les praticiens tout au long du cycle de vie d’un projet d’apprentissage machine, de la définition des problèmes au déploiement de solutions. 

Pourquoi les flux de travail d’apprentissage machine sont-ils importants ?

Les flux de travail d’apprentissage machine aident à : 

  • Clarté et concentration : Un flux de travail bien défini permet de définir clairement les objectifs, les rôles et les responsabilités du projet afin que tous les membres de l’équipe soient alignés et concentrés sur l’obtention des résultats souhaités et prévus.
  • Efficacité et productivité : Un flux de travail structuré fournit une approche systématique pour s’attaquer à des projets d’apprentissage machine complexes. Cela permet d’améliorer l’efficacité et la productivité, car cela facilite l’organisation des tâches, la gestion des ressources et le suivi efficace des progrès.
  • Assurance qualité : L’utilisation d’un flux de travail structuré vous aide à exécuter systématiquement chaque étape du processus d’apprentissage machine, ce qui permet d’identifier et de résoudre les problèmes potentiels dès le début du cycle de vie du projet.
  • Reproductibilité et évolutivité : Un flux de travail bien défini documente toutes les étapes prises pendant le processus de développement, ce qui facilite la réplication des résultats et fournit un cadre que vous pouvez adapter et réutiliser pour de futurs projets.
  • Gestion des risques : Les flux de travail d’apprentissage machine améliorent la gestion des risques en identifiant les risques et les incertitudes potentiels dès le début du cycle de vie du projet, ce qui vous permet de mettre en œuvre des stratégies d’atténuation proactives qui réduisent les risques de défaillance du projet.

Quelles sont les étapes types du flux de travail de l’apprentissage machine ?

Un flux de travail d’apprentissage machine classique comprend les étapes suivantes :

Définition du problème, où vous définissez clairement le problème à résoudre et établissez les objectifs du projet. Cette étape consiste à comprendre le contexte commercial, à identifier les sources de données pertinentes et à définir des indicateurs de performance clés.

Collecte et prétraitement des données, où vous rassemblez les données nécessaires à partir de différentes sources et les prétraitez pour vous assurer qu’elles sont propres, cohérentes et prêtes pour l’analyse. Cette étape peut impliquer des tâches telles que le nettoyage des données, l’ingénierie des fonctionnalités et la transformation des données.

L’analyse exploratoire des données (EDA ), qui vous permet d’explorer les données pour obtenir des informations et identifier les schémas, les tendances et les relations. L’EDA aide à comprendre les caractéristiques des données et à éclairer les décisions concernant la sélection des fonctionnalités, la sélection des modèles et les stratégies de prétraitement des données.

Sélection et formation des modèles : vous choisissez les algorithmes et techniques d’apprentissage machine appropriés en fonction des exigences du problème et des caractéristiques des données, vous formez les modèles sélectionnés à l’aide des données préparées et vous évaluez leurs performances à l’aide de mesures d’évaluation appropriées.

Évaluation et réglage des modèles , où vous évaluez les performances des modèles entraînés à l’aide de techniques de validation telles que les méthodes de validation croisée et de réglage des hyperparamètres pour optimiser les performances du modèle.

Le déploiement et la surveillance du modèle, où vous déployez le modèle entraîné dans l’environnement de production, l’intègrent dans les systèmes existants, surveillent les performances du modèle dans des scénarios réels et le mettent à jour si nécessaire pour garantir une efficacité continue.

Intéressons-nous un peu plus en détail à chacune de ces étapes. 

Définition du problème

Pour définir le problème :

1. Comprendre vos objectifs commerciaux

La première étape de la définition du problème consiste à comprendre les objectifs plus larges de l’entreprise. Cela implique de collaborer étroitement avec les parties prenantes pour identifier les principaux défis commerciaux ou les opportunités que vous souhaitez aborder avec l’apprentissage machine.

2. Formuler un énoncé de problème

En fonction de ces objectifs commerciaux, écrivez un énoncé clair et concis du problème. Cette déclaration doit préciser ce qui doit être prévu, classé ou optimisé, et comment il s’aligne sur vos objectifs commerciaux globaux. Il doit également tenir compte de facteurs tels que la disponibilité des données, la faisabilité et l’impact potentiel.

3. Définir des critères de réussite

Définissez des critères de réussite mesurables ou des indicateurs clés de performance (KPI) que vous pouvez utiliser pour évaluer les performances de la solution d’apprentissage machine. Elles doivent être alignées sur l’énoncé du problème et les résultats commerciaux souhaités.

4. Identifier les exigences et les contraintes en matière de données

Identifier les exigences en matière de données pour résoudre le problème, y compris les types de données (structurées ou non structurées), les sources, les considérations de qualité et toutes les contraintes réglementaires ou éthiques liées à l’utilisation des données. Comprendre les limites et les contraintes des données dès le départ vous aidera à définir des attentes réalistes et à planifier des stratégies d’acquisition et de prétraitement des données.

5. Évaluation des risques

Réaliser une évaluation préliminaire des risques pour identifier les risques et les difficultés potentiels associés à la définition du problème. Cela inclut les risques liés à la qualité des données, à la complexité des modèles, à l’interprétabilité, à la conformité réglementaire et à l’impact commercial. L’élaboration de stratégies d’atténuation des risques dès le début du projet peut aider à relever ces défis de manière proactive.

6. Documenter la définition du problème

Enfin, documentez la définition du problème, y compris l’énoncé du problème, les critères de réussite, les exigences en matière de données, la portée, les contraintes et les conclusions de l’évaluation des risques. Cette documentation vous servira de référence pour toutes les parties prenantes impliquées et contribuera à assurer l’alignement tout au long du flux de travail d’apprentissage machine.

Collecte de données

La collecte de données pertinentes pour votre projet d’apprentissage machine est une étape importante qui peut avoir un impact significatif sur les performances et les résultats du modèle. 

Voici le processus étape par étape de collecte des données et des conseils pour en garantir la fiabilité et la qualité :

1. Définir des objectifs

Définissez clairement les objectifs de votre projet d’apprentissage machine. Comprendre les questions auxquelles vous souhaitez répondre et les problèmes que vous souhaitez résoudre. Cela vous aidera à collecter les informations les plus pertinentes.

2. Identifier les sources de données

Déterminez où vous pouvez trouver les données dont vous avez besoin. Les sources de données peuvent varier en fonction de la nature de votre projet, mais les sources courantes sont les suivantes : 

  • Sites Web tels que Kaggle, UCI Machine Learning Repository et bases de données gouvernementales. 

  • API : De nombreuses organisations proposent des API pour accéder à leurs données par programmation.

  • Web scraping : Extraire des données de sites Web à l’aide d’outils tels que Beautiful Soup ou Scrapy.

  • Bases de données internes : Le cas échéant, utilisez les données stockées dans les bases de données de votre organisation.

  • Enquêtes ou entretiens : Collectez des données directement auprès d’utilisateurs ou d’experts du domaine par le biais d’enquêtes ou d’entretiens.

3. Évaluer la qualité des données

Avant de collecter des données, évaluez leur qualité pour vous assurer qu’elles sont adaptées à votre projet. Tenez compte des facteurs suivants :

  • L’exactitude des données, Les données sont-elles exemptes d’erreurs ou d’incohérences ?

  • Exhaustivité : L’ensemble de données couvre-t-il toutes les variables et tous les enregistrements nécessaires ?

  • Cohérence : Les valeurs des données sont-elles cohérentes entre les différentes sources ou périodes ?

  • Pertinence : Les données comprennent-elles les informations nécessaires pour atteindre vos objectifs ?

  • Rapidité : Les données sont-elles à jour et pertinentes pour votre analyse ?

  • Méthodes de collecte de données : Avez-vous choisi les méthodes appropriées pour collecter vos données en fonction de la source de données ?

4. Documenter les sources de données et les étapes de traitement

Tenir à jour une documentation exhaustive des sources de données, des méthodes de collecte, des étapes de prétraitement et de toute transformation appliquée aux données. Cette documentation est essentielle à la transparence, à la reproductibilité et à la collaboration.

5. Itérer

La collecte de données est un processus itératif. Lorsque vous analysez les données et affinez votre modèle, vous pouvez avoir besoin de données supplémentaires ou d’ajustements de vos ensembles de données existants. Évaluez en permanence la pertinence et la qualité de vos données pour améliorer la précision et l’efficacité de votre modèle d’apprentissage machine.

Prétraitement des données

Le prétraitement des données est le processus de préparation des données brutes pour l’analyse dans le cadre de projets d’apprentissage machine et de science des données. Il s’agit de nettoyer, transformer et organiser les données pour s’assurer qu’elles sont adaptées à la modélisation et à l’analyse. Elle contribue également à la qualité des données, à l’ingénierie des fonctionnalités, aux performances des modèles et à la compatibilité des données. 

Voici quelques aspects clés du prétraitement des données et des instructions sur la gestion des données manquantes, des valeurs aberrantes et de la normalisation des données :

1. Gestion des données manquantes

Commencez par identifier les colonnes ou les entités avec des valeurs manquantes dans le jeu de données. Ensuite, en fonction de la nature des données manquantes, choisissez une méthode d’imputation appropriée, telle que la moyenne, la médiane, le mode, ou utilisez des modèles prédictifs pour remplir les valeurs manquantes. Dans les cas où les valeurs manquantes sont trop nombreuses ou ne peuvent pas être imputées de manière fiable, envisagez de supprimer des lignes ou des colonnes contenant des données manquantes. Pour les entités catégorielles, envisagez d’ajouter une nouvelle catégorie pour représenter les valeurs manquantes ou d’utiliser des techniques comme l’imputation en mode pour les variables catégorielles.

2. Gestion des valeurs aberrantes

Pour gérer les valeurs aberrantes :

  • Utilisez des méthodes statistiques telles que des diagrammes à cases, des Z-scores ou un IQR (intervalle interquartile) pour identifier les valeurs aberrantes dans les données numériques.
  • Supprimez les valeurs extrêmes du jeu de données.
  • Limitez les valeurs extrêmes en les remplaçant par les valeurs non aberrantes les plus proches.
  • Appliquer des transformations telles que la transformation logarithmique, la transformation racine carrée ou la transformation Box-Cox pour rendre les données plus distribuées normalement et réduire l’impact des valeurs aberrantes.
  • Consultez des experts du domaine pour valider les valeurs aberrantes qui peuvent représenter des anomalies ou des erreurs réelles dans les données.

3. Normalisation des données

Les étapes de normalisation des données sont les suivantes :

a. Standardisation (normalisation du score Z) : Transformez les caractéristiques numériques pour obtenir une moyenne de 0 et un écart type de 1. Il permet de faire évoluer les fonctionnalités vers une plage similaire, ce qui les rend comparables.

b. Évolutivité min-max : Faites évoluer les fonctionnalités vers une plage spécifique, généralement comprise entre 0 et 1, en préservant les relations relatives entre les points de données.

c. Évolutivité robuste : Utilisez des techniques d’évolution robustes comme RobustScaler, qui adapte les données en fonction de la médiane et de la plage interquartile, ce qui les rend moins sensibles aux valeurs aberrantes.

Ingénierie des fonctionnalités

L’ingénierie des fonctionnalités consiste à transformer les données brutes dans un format plus adapté à la modélisation. Il se concentre sur la création de nouvelles fonctionnalités, la sélection de fonctionnalités importantes et la transformation des fonctionnalités existantes pour améliorer les performances des modèles d’apprentissage machine. L’ingénierie des fonctionnalités est très importante pour la précision des modèles, la réduction des surajustements et l’amélioration de la capacité de généralisation des modèles.

Voici quelques explications et exemples de techniques d’ingénierie courantes :

Encodage à chaud

L’encodage à chaud convertit les variables catégorielles en un format numérique qui peut être introduit dans les algorithmes d’apprentissage machine. Il crée des colonnes binaires pour chaque catégorie, avec un 1 indiquant la présence de la catégorie et un 0 dans le cas contraire. Prenons l’exemple d’une fonction « Couleur » avec les catégories « Rouge », « Vert » et « Bleu ». Après un encodage à chaud, cette fonctionnalité serait transformée en trois fonctions binaires : « Is_Red », « Is_Green » et « Is_Blue », où chaque caractéristique représente la présence de cette couleur.

Mise à l’échelle des fonctionnalités

La mise à l’échelle des fonctionnalités permet d’adapter les fonctionnalités numériques à une échelle ou à une plage similaire. Il permet aux algorithmes de converger plus rapidement et empêche les fonctionnalités de plus grande ampleur de dominer pendant l’entraînement. Les techniques d’évolution courantes incluent la standardisation et la min-max mentionnées ci-dessus. 

Réduction de dimensionnalité

Les techniques de réduction de dimensionnalité réduisent le nombre de fonctionnalités tout en conservant la plupart des informations pertinentes. Cela permet de réduire la complexité de calcul, d’améliorer les performances du modèle et d’éviter la dimensionnalité.

Extraction de fonctionnalités

L’extraction de fonctionnalités consiste à créer de nouvelles fonctionnalités à partir de fonctionnalités existantes à l’aide de transformations mathématiques, de connaissances du domaine ou de techniques de traitement de texte. Par exemple, générer des combinaisons polynomiales de fonctionnalités pour capturer des relations non linéaires dans les données. La conversion de données textuelles en fonctions numériques à l’aide de méthodes telles que le TF-IDF, l’incorporation de mots ou les représentations de type « sac de mots » en est un autre exemple. 

Sélection du modèle

Le choix du modèle d’apprentissage machine approprié pour une tâche spécifique est une étape essentielle des flux de travail d’apprentissage machine. Il s’agit de prendre en compte différents facteurs tels que la nature du problème, les données disponibles, les caractéristiques souhaitées du modèle (par exemple, l’interprétabilité, la précision) et les ressources de calcul. 

Voici les étapes et considérations clés du processus de sélection du modèle :

1. Comprendre le problème

Tout d’abord, déterminez si le problème est une classification, une régression, un clustering ou un autre type de tâche. Vous devez comprendre les fonctionnalités, la ou les variable(s) cibles, la taille des données, la distribution des données et les schémas ou complexités inhérents aux données.

2. Sélection des modèles candidats 

Exploitez votre expertise du domaine pour identifier les modèles couramment utilisés et adaptés à des tâches similaires dans le domaine. Il est important de prendre en compte différents types de modèles d’apprentissage machine tels que les modèles linéaires, les modèles basés sur des arbres, les machines vectorielles de support (SVM), les réseaux neuronaux, les méthodes d’ensemble, etc., en fonction du type de problème et des caractéristiques des données.

3. Évaluer la complexité et l’interprétabilité du modèle

Considérez la complexité du modèle et sa capacité à capturer des relations complexes dans les données. Des modèles plus complexes, comme les réseaux neuronaux d’deep learning, peuvent offrir une plus grande précision prédictive, mais peuvent être coûteux en calcul et sujets à surajustement. En fonction de l’application et des besoins des parties prenantes, déterminez si l’interprétabilité du modèle est cruciale. Les modèles simples comme la régression linéaire ou les arbres de décision sont plus facilement interprétables que les modèles complexes à boîte noire comme les réseaux neuronaux profonds.

4. Prise en compte des indicateurs de performance

Pour les tâches de classification, considérez des indicateurs tels que l’exactitude, la précision, le rappel, F1-score, l’ASC-ROC, etc., en fonction du déséquilibre de classe et des objectifs commerciaux. Pour les tâches de régression, vous pouvez utiliser des indicateurs tels que l’erreur moyenne au carré (MSE), l’erreur absolue moyenne (MAE), le R au carré et d’autres pour évaluer les performances du modèle. Utilisez des techniques de validation appropriées, telles que la validation croisée, la division des essais en train ou la validation basée sur le temps (pour les données de séries temporelles) pour évaluer pleinement les performances du modèle.

5. Comparaison et validation des modèles

Commencez par des modèles de référence simples pour établir une référence de performance. Entraînez plusieurs modèles candidats à l’aide d’ensembles de données de formation/validation appropriés et évaluez leurs performances à l’aide des indicateurs choisis. Affinez les hyperparamètres des modèles à l’aide de techniques telles que la recherche de grille, la recherche aléatoire ou l’optimisation bayésienne pour améliorer les performances.

6. Choisir le meilleur modèle

Envisagez des compromis entre la complexité du modèle, l’interprétabilité, les ressources de calcul et les indicateurs de performance, puis évaluez le modèle le plus performant sur un ensemble de données de test de holdout afin de garantir sa capacité de généralisation sur des données invisibles.

7. Itération et raffinage

La sélection de modèles est souvent un processus itératif. Si le modèle que vous avez choisi ne répond pas aux critères souhaités, répétez l’opération en affinant l’ingénierie des fonctionnalités, les hyperparamètres ou en essayant différents algorithmes jusqu’à obtenir des résultats satisfaisants.

Formation au modèle

L’entraînement d’un modèle d’apprentissage machine consiste à adapter l’algorithme sélectionné aux données d’entraînement pour apprendre les schémas et les relations dans les données. Ce processus consiste à diviser les données en ensembles d’entraînement et de validation, à optimiser les paramètres du modèle et à évaluer les performances du modèle. 

Examinons de plus près les étapes suivantes :

1. Répartition des données

Divisez l’ensemble de données en ensembles d’entraînement et de validation/test. Les ratios de fractionnement typiques sont de 70-30 ou 80-20 pour l’entraînement/la validation, ce qui garantit que l’ensemble de validation représente la distribution réelle des données.

2. Choix de l’algorithme

En fonction de votre type de problème (classification, régression, clustering) et des caractéristiques des données, sélectionnez l’algorithme d’apprentissage machine ou l’ensemble d’algorithmes appropriés pour entraîner le modèle.

3. Instantanation du modèle

Créez une instance du modèle choisi en initialisant ses paramètres. Par exemple, dans Python avec Scikit-Learn, vous pouvez utiliser un code comme :

depuis sklearn.linear_model import LogisticRegression

modèle = LogisticRegression()

4. Entraînement du modèle

Adaptez le modèle aux données d’entraînement à l’aide de la méthode .fit(). Cette étape consiste à apprendre les schémas et les relations dans les données.

5. Optimisation des paramètres du modèle

Effectuez un réglage hyperparamétrique pour optimiser les performances du modèle. Les techniques courantes sont la recherche de grille, la recherche aléatoire ou l’optimisation bayésienne.

6. Évaluation du modèle

Évaluer les performances du modèle entraîné à l’aide de l’ensemble de validation/test. Calculez des indicateurs pertinents tels que l’exactitude, la précision, le rappel, le F1-score (pour la classification) ou l’erreur moyenne au carré.

7. Sélection finale du modèle

Une fois satisfait des performances du modèle sur l’ensemble de validation, réentraînez le modèle final à l’aide de l’ensemble complet de données d’entraînement (y compris les données de validation) pour maximiser l’apprentissage avant le déploiement.

Déploiement du modèle

Une fois que vous avez sélectionné et entraîné votre modèle, vous êtes prêt à le déployer. 

Les étapes de déploiement sont les suivantes :

1. Sérialisation du modèle

Sérialisez le modèle entraîné dans un format adapté au déploiement. Les formats courants sont le pickle (Python), le PMML (Predictive Model Markup Language), l’ONNX (Open Neural Network Exchange) ou les formats personnalisés en fonction du cadre utilisé.

2. Intégration à l’environnement de production

Choisissez un environnement de déploiement approprié, par exemple des plateformes cloud (AWS , Azure , Google Cloud), des serveurs sur site ou des solutions conteneurisées (Docker, Kubernetes ). Intégrez le modèle dans l’environnement de production à l’aide de structures ou de bibliothèques spécifiques à l’environnement de déploiement choisi (par exemple, Flask pour les API Web, TensorFlow Serving ou PyTorch pour les modèles de service).

3. Considérations relatives à l’évolutivité

Concevez l’architecture de déploiement pour gérer les différentes charges et exigences d’évolutivité. Tenez compte de facteurs tels que les utilisateurs simultanés, le traitement par lots et l’utilisation des ressources. Utilisez des fonctionnalités de mise à l’échelle automatique basées sur le cloud ou des outils d’orchestration de conteneurs pour une mise à l’échelle dynamique en fonction de la demande. Envisagez la modernisation du datacenter pour faire évoluer l’AI. 

4. Prévisions en temps réel

Assurez-vous que le déploiement du modèle prend en charge les prédictions en temps réel si nécessaire. Cela implique de configurer des terminaux ou des services à faible latence pour traiter rapidement les demandes de prédiction entrantes. Envisagez d’optimiser la vitesse d’inférence du modèle à l’aide de techniques telles que la quantification des modèles, l’élagage ou l’utilisation d’accélérateurs matériels (p. ex. GPU, TPU) en fonction de l’environnement de déploiement.

5. Mesures de surveillance et de performance

Mettre en œuvre des solutions de surveillance pour suivre les performances du modèle en production. Surveillez les indicateurs tels que la latence de prédiction, le débit, les taux d’erreur et la dérive des données (changements dans la distribution des données d’entrée au fil du temps). Définissez des alertes et des seuils pour les indicateurs de performance critiques afin de détecter et de résoudre rapidement les problèmes.

6. Mises à jour des versions et des modèles

Établissez une stratégie de gestion des versions pour vos modèles déployés afin de suivre les modifications et de faciliter la restauration si nécessaire. Mettre en œuvre un processus de déploiement de mises à jour de modèles ou de cycles de réentraînement basés sur de nouvelles données ou des algorithmes améliorés. Envisagez des techniques comme le test A/B pour comparer les versions de modèles en production avant le déploiement complet.

7. Sécurité et conformité

Mettre en œuvre des mesures de sécurité pour protéger le modèle, les données et les terminaux déployés contre les accès non autorisés, les attaques et les violations de données. Garantir la conformité aux exigences réglementaires telles que le RGPD, la loi HIPAA ou les normes spécifiques au secteur relatives à la confidentialité des données et au déploiement des modèles.

8. Documentation et collaboration

Conservez une documentation détaillée sur le modèle déployé, notamment son architecture, ses API, ses dépendances et ses configurations. Favoriser la collaboration entre les scientifiques des données, les ingénieurs et les parties prenantes pour itérer les améliorations apportées aux modèles, résoudre les problèmes et incorporer les commentaires tirés de l’utilisation réelle.

Conclusion

Vous connaissez désormais les composants essentiels d’un flux de travail structuré d’apprentissage machine, notamment les étapes clés telles que la définition du problème, le prétraitement des données, l’ingénierie des fonctionnalités, la sélection des modèles, l’entraînement et l’évaluation. 

Chaque étape joue un rôle essentiel dans la réussite globale d’un projet d’apprentissage machine. La définition précise du problème prépare le terrain pour développer une solution ciblée, tandis que le prétraitement des données garantit la qualité et l’adéquation des données à l’analyse. L’ingénierie des fonctionnalités améliore les performances du modèle en extrayant des informations pertinentes des données. La sélection du modèle implique de choisir l’algorithme le plus approprié en fonction de facteurs tels que la complexité, l’interprétabilité et les indicateurs de performance, suivis d’une formation, d’une optimisation et d’une évaluation approfondies pour garantir des performances robustes du modèle.

En suivant un flux de travail structuré, les spécialistes des données peuvent améliorer l’efficacité, maintenir l’intégrité des modèles et prendre des décisions éclairées tout au long du cycle de vie du projet, ce qui aboutit finalement à des modèles d’apprentissage machine plus précis, plus fiables et plus percutants qui apportent une réelle valeur ajoutée aux organisations et aux parties prenantes.

Cependant, les goulets d’étranglement constituent l’un des principaux défis liés à tous les flux de travail d’apprentissage machine. Les ensembles de données d’apprentissage machine dépassent généralement de loin la capacité de la DRAM d’un serveur. La meilleure façon de se préparer à ces goulets d’étranglement est de les éviter complètement en disposant d’une infrastructure compatible AI et ML telle qu’AIRI® ou FlashStack®. Découvrez comment Pure Storage vous aide à accélérer vos initiatives d’AI et de ML.

09/2024
Seven Key Storage Considerations for Digital Pathology
Explore 7 key considerations your organization should consider when choosing data storage for digital pathology.
Livre blanc
4 pages
CONTACTEZ-NOUS
Des questions, des commentaires ?

Vous avez des questions ou des commentaires concernant des produits ou certifications Pure ?  Nous sommes là pour vous aider.

Planifier une démo

Planifiez une démo en direct et découvrez comment Pure peut vous aider à transformer vos données. 

Tél. : +33 1 89 96 04 00

Services Médias : pr@purestorage.com

 

Pure Storage France

32 rue Guersant

75017 Paris

info@purestorage.com

 

FERMER
Votre navigateur n’est plus pris en charge !

Les anciens navigateurs présentent souvent des risques de sécurité. Pour profiter de la meilleure expérience possible sur notre site, passez à la dernière version de l’un des navigateurs suivants.