Aller au contenu principal

IA et transport : comment automatiser la lecture d'emails avec OpenAI et Mistral

Le problème : des dizaines d'emails à traiter manuellement chaque jour

Dans le secteur du transport et de la logistique, les échanges par email restent omniprésents. Commandes de transport, confirmations de chargement, avis de livraison, demandes de cotation, réclamations : chaque jour, les équipes d'exploitation reçoivent des dizaines — parfois des centaines — d'emails qu'il faut lire, comprendre, puis saisir manuellement dans le TMS (Transport Management System).

Ce processus est chronophage, sujet aux erreurs de saisie et difficile à absorber en période de pic d'activité. Un opérateur qui traite manuellement un email de commande passe en moyenne 3 à 5 minutes par message : lecture, identification des informations clés (adresses, dates, tonnages, références), puis saisie dans le TMS. Multipliez cela par 50 ou 100 emails par jour, et le goulot d'étranglement devient évident.

Pourquoi l'IA change la donne pour le traitement des emails transport

Les modèles de langage (LLM) comme OpenAI GPT et Mistral sont capables de comprendre le contenu d'un email en langage naturel, d'en extraire les données structurées et de les classer par type. Contrairement à un système de règles classique (regex, mots-clés), un LLM s'adapte aux variations de formulation, aux fautes de frappe et aux formats hétérogènes que l'on rencontre dans les emails professionnels.

Le résultat : un pipeline d'automatisation capable de lire un email, d'en extraire les informations pertinentes (expéditeur, destinataire, adresse de chargement, adresse de livraison, date souhaitée, type de marchandise, tonnage, références) et de pré-remplir une entrée dans le TMS — le tout en quelques secondes, sans intervention humaine pour la majorité des messages.

Architecture technique : combiner OpenAI et Mistral

L'utilisation conjointe de plusieurs LLM n'est pas un effet de mode — c'est une stratégie pragmatique pour optimiser le rapport coût/performance/confidentialité.

  • Mistral (modèle français, déployable on-premise ou via API) est utilisé pour la classification et le pré-traitement des emails. Son avantage : excellente compréhension du français, latence faible, coût réduit et possibilité de l'héberger en interne pour les entreprises soumises à des contraintes de confidentialité.
  • OpenAI GPT est utilisé pour l'extraction structurée des données complexes et la gestion des cas ambigus. Sa puissance de raisonnement permet de traiter les emails mal formatés, les demandes multi-ordres et les pièces jointes textuelles.

Le pipeline type fonctionne en trois étapes :

  • Étape 1 — Classification : Mistral analyse l'email entrant et le classe (commande, confirmation, réclamation, demande de cotation, autre). Les emails non pertinents (spam, newsletters) sont filtrés automatiquement.
  • Étape 2 — Extraction : le LLM approprié (Mistral pour les cas simples, OpenAI pour les cas complexes) extrait les données structurées sous forme JSON : adresses, dates, volumes, références client, instructions spéciales.
  • Étape 3 — Intégration TMS : les données extraites sont injectées dans le TMS via son API. Si le niveau de confiance de l'extraction est suffisant, l'ordre est créé automatiquement. Sinon, il est mis en file d'attente pour validation humaine.

Le rôle du seuil de confiance

Tout système d'IA doit savoir reconnaître ses limites. C'est pourquoi le pipeline intègre un score de confiance pour chaque extraction. Au-dessus d'un seuil défini (par exemple 95 %), l'ordre de transport est créé automatiquement dans le TMS. En dessous, l'email est transmis à un opérateur avec les données pré-remplies, ce qui réduit quand même le temps de traitement.

Ce mécanisme est essentiel pour maintenir la confiance des équipes. L'IA n'est pas une boîte noire qui décide seule : elle augmente la productivité des opérateurs tout en leur laissant le contrôle sur les cas ambigus.

Stack technique du pipeline

Voici les briques techniques typiques d'un tel système :

  • Python pour l'orchestration du pipeline (lecture boîte mail, appels LLM, transformation, injection TMS)
  • IMAP / Microsoft Graph API / Gmail API pour la récupération automatique des emails
  • Mistral API ou déploiement on-premise pour la classification et l'extraction primaire
  • OpenAI API pour l'extraction avancée et le traitement des cas complexes
  • React pour le tableau de bord de supervision (emails traités, taux d'automatisation, erreurs, file d'attente de validation)
  • API TMS pour l'injection des ordres de transport
  • PostgreSQL pour l'historique des traitements et l'audit trail

Cas d'usage concrets dans le transport

Ce type de pipeline s'applique à de nombreux flux dans le secteur du transport et de la logistique :

  • Commandes de transport : extraction automatique des informations de chargement et livraison, création d'ordres dans le TMS
  • Avis de livraison : mise à jour automatique du statut des expéditions
  • Demandes de cotation : extraction des paramètres (origine, destination, tonnage, délai) et pré-calcul tarifaire
  • Réclamations : classification, extraction du numéro de référence et routage vers le bon service
  • Documents de transport : lecture des CMR, bons de livraison et lettres de voiture en pièce jointe (via OCR + LLM)

Les bénéfices mesurables

Les entreprises de transport qui déploient ce type de solution constatent des gains significatifs :

  • Réduction du temps de traitement : de 3-5 minutes par email en traitement manuel à quelques secondes en traitement automatique
  • Réduction des erreurs de saisie : l'IA extrait les données directement du texte source, éliminant les erreurs de recopie
  • Capacité d'absorption des pics : le système traite 10 ou 1 000 emails avec la même rapidité, sans embauche supplémentaire
  • Traçabilité complète : chaque email traité est archivé avec les données extraites, le score de confiance et l'action effectuée
  • Libération des équipes : les opérateurs se concentrent sur les tâches à valeur ajoutée (négociation, gestion des exceptions, relation client)

Pourquoi combiner deux modèles plutôt qu'un seul ?

Utiliser un seul LLM pour tout le pipeline est tentant, mais rarement optimal. Voici pourquoi la combinaison OpenAI + Mistral est pertinente :

  • Coût : Mistral est significativement moins cher que GPT-4 pour les tâches de classification. En l'utilisant comme premier filtre, vous réduisez le nombre d'appels au modèle le plus coûteux.
  • Latence : Mistral répond plus rapidement pour les tâches simples, ce qui accélère le traitement global.
  • Souveraineté : Mistral peut être déployé on-premise ou sur un cloud européen, ce qui répond aux exigences de confidentialité de certaines entreprises.
  • Robustesse : si un fournisseur connaît une indisponibilité, le système peut basculer sur l'autre modèle en mode dégradé.

Les pièges à éviter

Déployer un pipeline de lecture automatique d'emails n'est pas un projet trivial. Voici les erreurs les plus fréquentes :

  • Ne pas prévoir de boucle de feedback : les opérateurs doivent pouvoir signaler les erreurs d'extraction pour améliorer le système dans le temps.
  • Ignorer les pièces jointes : dans le transport, une grande partie de l'information se trouve dans les PDF, images et documents scannés joints aux emails.
  • Sous-estimer la variété des formats : chaque client envoie ses commandes dans un format différent. Le système doit être robuste face à cette hétérogénéité.
  • Déployer sans tableau de bord : sans visibilité sur le taux d'automatisation, les erreurs et la file d'attente, les équipes perdent confiance dans le système.

Comment démarrer

Si vous êtes dans le transport ou la logistique et que vos équipes passent des heures chaque jour à traiter des emails, voici comment aborder le projet :

  • Audit des flux email : identifiez les types d'emails les plus fréquents et les plus chronophages. Commencez par un seul type (par exemple, les commandes de transport).
  • Proof of concept : développez un prototype sur un échantillon réel d'emails pour valider les taux d'extraction et de classification.
  • Déploiement progressif : commencez en mode « assistance » (pré-remplissage + validation humaine) avant de passer en mode automatique.
  • Mesure et itération : suivez le taux d'automatisation, le taux d'erreur et le temps gagné pour ajuster les seuils et améliorer le modèle.

Ce type de projet s'inscrit dans une démarche plus large d'automatisation métier et de déploiement d'agents IA en entreprise. Découvrez aussi notre use-case détaillé sur l'automatisation des emails entrants avec l'IA pour une vue opérationnelle du sujet.

Et après ? De la lecture d'emails à l'agent IA complet

La lecture automatique des emails est souvent le point de départ d'un projet d'automatisation plus large. Une fois le pipeline email → TMS validé et opérationnel, l'étape suivante consiste à élargir le périmètre : traiter d'autres types de documents (bons de commande, bordereaux, fax), couvrir d'autres étapes du flux (classification, routage, suivi), et passer d'un pipeline linéaire à un véritable agent IA capable de gérer l'ensemble du traitement transport.

Pour découvrir cette approche élargie, consultez notre article sur l'agent IA appliqué à l'automatisation du traitement transport en logistique.

Vous traitez des dizaines d'emails par jour dans le transport ou la logistique ? Contactez l'équipe Genee pour un audit gratuit de vos flux email et une estimation du potentiel d'automatisation.