From 08b357d1fd4ada2a36a446b5202644b1e46da514 Mon Sep 17 00:00:00 2001 From: =?UTF-8?q?Nicolas=20Mass=C3=A9?= Date: Mon, 4 Nov 2024 11:10:14 +0100 Subject: [PATCH] proofreading by mos --- .../index.md | 2 +- .../speaking/red-hat-summit-connect-france-2024/index.md | 6 +++--- 2 files changed, 4 insertions(+), 4 deletions(-) diff --git a/content/french/blog/behind-the-scenes-at-open-code-quest-how-i-designed-leaderboard/index.md b/content/french/blog/behind-the-scenes-at-open-code-quest-how-i-designed-leaderboard/index.md index c7efb55..dd45bf5 100644 --- a/content/french/blog/behind-the-scenes-at-open-code-quest-how-i-designed-leaderboard/index.md +++ b/content/french/blog/behind-the-scenes-at-open-code-quest-how-i-designed-leaderboard/index.md @@ -52,7 +52,7 @@ Le **Leaderboard** doit permettre deux choses : - **déterminer les 30 participants les plus rapides** pour leur remettre un prix Dans les précédentes éditions de cet atelier, on validait la bonne réalisation sur la base de captures d'écran envoyées sur un channel Slack. -Les participants envoyaient les captures d'écran, l'animateur les validait dans l'ordre, notait les points dans une feuille Google Sheet et annonçait la progression à interval régulier. +Les participants envoyaient les captures d'écran, l'animateur les validait dans l'ordre, notait les points dans une feuille Google Sheet et annonçait la progression à intervalle régulier. Un animateur était dédié à la gestion du leaderboard. Cette année, il était attendu que le processus soit **entièrement automatisé** pour éviter ces tâches administratives chronophages. diff --git a/content/french/speaking/red-hat-summit-connect-france-2024/index.md b/content/french/speaking/red-hat-summit-connect-france-2024/index.md index 03c68ca..a28f4d8 100644 --- a/content/french/speaking/red-hat-summit-connect-france-2024/index.md +++ b/content/french/speaking/red-hat-summit-connect-france-2024/index.md @@ -113,7 +113,7 @@ Et dans Microshift, nous avons déployé *over-the-air* les microservices, un ** Le Jetson est relié, pour la durée de la mission, à un cluster OpenShift dans le cloud AWS via une connexion 5G. Dans le cloud AWS, il y a une VM RHEL 9 qui nous permet de construire les images **Red Hat Device Edge** pour le SoC Jetson. -Dans le cluster OpenShift, l'application application de vidéo surveillance qui diffuse le flux vidéo de la caméra embarquée du train. +Dans le cluster OpenShift, l'application de vidéo surveillance qui diffuse le flux vidéo de la caméra embarquée du train. Le flux vidéo est relayé depuis le Jetson au travers d’un **broker Kafka** ! Il faut ajouter à cela des pipelines MLops pour entraîner le modèle d’IA. Et enfin des pipelines CI/CD pour construire les images de conteneur de nos micro-services pour les architectures x86 et ARM. @@ -130,10 +130,10 @@ Ce dernier est transmis à un service de transformation qui a pour rôle d'extra {{< attachedFigure src="mission-impossible-software-architecture.png" >}} -Et enfin, il nous a fallu construire d’un modèle d’intelligence artificielle. +Et enfin, il nous a fallu construire un modèle d’intelligence artificielle. Pour cela, nous avons suivi les bonnes pratiques pour gérer le cycle de vie du modèle, c’est ce qu’on appelle le **MLOps** : -- **Acquérir la donnée** : Nous avons utilisé un jeu de donnée open source comprenant des données provenant d’une caméra embarqué sur une voiture, qui ont été annotées avec les panneaux rencontrés sur son trajet. +- **Acquérir la donnée** : Nous avons utilisé un jeu de données open source comprenant des données provenant d’une caméra embarquée sur une voiture, qui ont été annotées avec les panneaux rencontrés sur son trajet. Les photos ont été prises sur des routes dans l’union européenne et montrent donc des panneaux de signalisation "normalisés" (potentiellement un peu différents des panneaux **Lego**). - **Développer un modèle d’IA** : Nous avons choisi un algorithme d’apprentissage et procédé à l'entraînement du modèle sur un cluster OpenShift avec des GPU pour accélérer le calcul. - **Déployer le modèle** : Nous avons déployé le modèle dans un serveur d’inférence pour le consommer via des APIs.