Bienvenue à Jérôme Vétillard

Date :

"En tant que polymathe initialement formé en recherche académique (Ingénieur AgroParis Tech, PhD Biotechnologie AgroParis Tech, DU en oncologie clinique, hématologie, radiopathologie), j'ai dédié une première décennie de ma carrière à la recherche médicale en onco-hématologie. J'ai co-fondé une start-up de thérapie cellulaire et breveté un bioreacteur pour produire des cellules adaptées aux normes GMP afin de traiter les cancers du sang et de la moelle osseuse.

Au cours des deux décennies suivantes, fort de mon Global Executive MBA de IE-Brown et de formations en gestion de l'innovation HEC/INSEAD, j'ai occupé des postes clés chez Microsoft. En tant qu'Architecte d'Entreprise, Digital Advisor puis Industry Advisor spécialisé en "Healthcare & Life Sciences", j'ai guidé les grandes sociétés pharmaceutiques et les instituts de recherche vers l'adoption des nouvelles technologies, notamment l'intelligence artificielle pour révolutionner la R&D biomédicale.

Je rejoins Qualees en qualité de VP R&D, afin d'accélérer le passage à l'intelligence artificielle à grande échelle." J Vetillard

Autres sujets qui pourraient vous intéresser

TweenMe, une approche du jumeau numérique enrichie à l’IA

Date : Tags :
En pratique, la solution développée en ce moment par Qualees et dénommée TweenMe, propose une première étape de qualification et d'enrichissement du patrimoine de données des clients en fonction de leur problématique. L’outil procède ensuite à un enrichissement dimensionnel, c’est-à-dire une augmentation volumétrique des données pour préparer un jeu de données optimisé sur lequel repose l’apprentissage dit « causal » des IA de TweenMe. Celui-ci procède également à l’anonymisation des données. Un modèle est ensuite généré puis packagé dans une application avec une interface utilisable par un utilisateur final lambda, expert dans son domaine et non familier des méthodes d’IA. Cette approche est révolutionnaire en ce qu’elle fait appel à une volumétrie moindre de données tout en permettant de créer des modèles à la fois optimisés et plus fiables car utilisant des nouvelles architectures d’IA (les neural statistical networks) qui permettent de limiter les hallucinations et d’optimiser la performance sur des jeux de données de plus en plus complexes.