Jeudi 15 Novembre se tenait la conférence développeur Cloud & AI d'IBM, un événement en ligne qui nécessitait de bloquer l'essentiel de son après-midi, pour la version Europe. J'ai participé à la partie apprentissage machine (ou machine learning; il y avait aussi une partie cloud).
Je reviens donc sur les points clés de ce séminaire en ligne bien rodé (avec des vidéos préenregistrées). Je ne reprend pas les aspects feuille de route (roadmap) évoqués mais seulement les solutions disponibles aujourd'hui.
Sam Lightstone, CTO IBM Data & AI, nous présenta les grandes lignes de cet événement et les 4 piliers d'IBM pour une intelligence artificielle de confiance :
explicable: comprendre les décisions du modèle
équitable: détecter & atténuer les biais
précision: identifier & lutter contre la dérive des modèles
ouverture: contributions communautaires (open source)
Sam nous présente les bénéfices d'AutoAI pour accélérer la création de modèles, pallier au manque de compétences, faciliter la collaboration, explorer et comparer automatiquement les différents algorithmes avec votre jeux de données.
Selon Sam, AutoAI est plus capable de trouver de meilleurs algorithmes et des meilleurs paramètres que 99% des PhDs à qui il a été comparé. AutoAI passe en revue 30 algorithmes de classification et 44 algorithmes de régression. Sans vouloir remplacer votre PhD (qui fait certainement partie du 1%), cette automatisation devrait certainement être un gain de temps énorme.
Dr John R Smith, Head of AI Tech for IBM Research AI, nous explique sa feuille route technologique vers une intelligence artificielle généralisée. John montre comment le projet Debater a été clé pour tirer les avancées de son groupe. Debater est un système d'intelligence artificielle capable de débattre de sujets humains complexes.
Mais revenons à du concret, John revient, avec plus de détails, nous expliquer les piliers de d'IBM pour une IA de confiance:
AI Fairness 360: c'est un outils open source qui réalise plus de 70 tests de détection de biais et 10 algorithmes pour compenser les biais
AI Explainability 360: outils open source qui aide la compréhension des prédictions du modèle grâce à 8 algorithmes et les métriques associées
Adversarial Robustness 360: outils open source qui permet de tester la sécurité d'un modèle et sa résistance à des attaques
Aaron Baughman, ingénieur émérite, nous présente ensuite les différents composants qu'IBM a développé pour adresser les challenges d'ESPN, chaine TV sportive américaine. Le système doit créer automatiquement et diffuser sur les réseaux sociaux des vidéos courtes des faits marquants pendant l'événement sportif (tennis, golf). Les challenges sont multiples: servir des millions d'usagers, définir des critères fiables de détection de début et de fin des "faits marquants", combiner détection d'image/sound/..., enlever les biais des modèles.
Aaron montre comment il utilise AI Fairness 360 pour adresser le biais de détection sonore: un joueur très connu aura forcément plus de foule et de bruits de foule qu'un inconnu, pourtant les fans du "rookie" veulent aussi voir ses faits marquants.
Fred Reiss, architecte en chef pour IBM CODAIT, partage ses meilleurs pratiques de création et gestion de modèles et les outils cloud d'IBM pour vous aider tout au long du cycle de vie du produit.
Fred nous montre comment déployer MAX-Object-Detector, projet example disponible en open source sur github.
Animesh Singh, directeur de programme, Plateforme IA, nous montre comment tirer parti de Kubeflow Pipelines pour déployer une nouvelle révision de modèles à 10% de vos utilisateurs (test) tout en maintenant l'essentiel du flux d'utilisateurs, 90%, sur le modèle éprouvé.
PS: Je n'ai aucune affiliation avec IBM, c'est un acteur mondial important de l'écosystème IA.
Comments