ENSTA Paris - Comment bien se former aux métiers de l'Intelligence Artificielle ?
Si vous voulez passer sous la peau de Diane Bryant,
Le chef du puissant groupe de centres de données d'Intel était à Computex à Taipei cette semaine, en partie pour expliquer comment le dernier processeur Xeon Phi de la société est un bon choix pour l'apprentissage automatique. le processus par lequel des entreprises comme Google et Facebook forment un logiciel pour mieux accomplir les tâches de l'IA, y compris la vision par ordinateur et la compréhension du langage naturel. C'est la clé pour améliorer toutes sortes de services en ligne: Google a récemment déclaré qu'il repense tout ce qu'il fait autour de l'apprentissage automatique.
[Plus d'informations: Les meilleurs services de streaming TV]
dit que les 72 cœurs et la forte performance en virgule flottante du nouveau Xeon Phi de Knight's Landing d'Intel, publié il y a six mois, lui confèrent un excellent ratio performance / watt par dollar pour les algorithmes d'apprentissage machine."C'est un "Le défi pour Intel est que les processeurs les plus utilisés aujourd'hui pour l'apprentissage automatique sont les GPU comme ceux de Nvidia. et AMD.
"Je ne suis pas au courant que certains des Super Seven utilisent Xeon Phi pour former leurs réseaux de neurones", a déclaré Patrick Moorhead, analyste de Moor Insights and Strategy, faisant référence aux plus grands clients rning - Google, Facebook, Amazon, Microsoft, Alibaba, Baidu et Tencent.
Bryant, qui est très affable, a grandi légèrement exaspéré quand on lui a demandé comment Intel pouvait rivaliser sur ce marché sans GPU. Le GPU à usage général, ou GPGPU, est juste un autre type d'accélérateur, dit-elle, et non un outil unique pour l'apprentissage automatique.
"Nous appelons Knights Landing un coprocesseur, mais c'est un accélérateur pour les opérations en virgule flottante,
Elle admet que Nvidia a pris une avance rapide sur le marché des charges de travail HPC accélérées en positionnant ses GPU pour cette tâche il y a plusieurs années. Mais depuis la sortie du premier Xeon Phi en 2014, Intel a maintenant 33% du marché pour les charges de travail HPC qui utilisent un accélérateur à virgule flottante.
"Nous avons donc gagné des parts contre Nvidia, et nous allons
La part d'Intel dans le secteur de l'apprentissage automatique est peut-être bien moindre, mais Bryant s'empresse de noter que le marché est encore jeune.
"Moins de 1% de tous les serveurs L'expérience de l'année dernière a été appliquée à l'apprentissage automatique, alors entendre [Nvidia] nous battre dans un marché qui existe à peine me rend un peu fou », dit-elle.
Pourtant, 1% du marché mondial des serveurs n'est pas anodin et Intel va continuer à faire évoluer Xeon Phi pour l'améliorer lors des tâches d'apprentissage automatique.
Ce n'est pas sans clients dans la région, même si elle ne peut pas pointer vers des noms familiers. Bryant a mentionné Viscovery, qui utilise Knights Landing pour former des algorithmes pour la recherche de vidéos.
L'apprentissage automatique comporte deux aspects, note-t-elle - l'apprentissage des modèles algorithmiques, la partie la plus intensive en calcul, et l'application de ces modèles au réel. Les FPGA d'Intel, acquis à partir de son acquisition d'Altera, couplés à ses processeurs Xeon habituels, sont bien adaptés à la partie inférence, dit Bryant, donc Intel a les deux côtés de l'équation
Pourtant, il peut être difficile de remplacer les GPU dans les entreprises hyperscales - sans parler du TPU de Google, ou Tensor Processing Unit, une puce spécialement conçue pour l'apprentissage automatique.
Selon Moorhead, les GPU de Nvidia sont plus difficiles à utiliser pour les programmeurs, ce qui pourrait jouer en faveur d'Intel, d'autant plus que les entreprises régulières commencent à adopter l'apprentissage automatique. Et Knights Landing est "auto-amorçable", ce qui signifie que les clients n'ont pas besoin de le coupler avec un Xeon standard pour démarrer un système d'exploitation.
Mais le nouveau Xeon Phi d'Intel a une performance en virgule flottante d'environ 3 téraflops. comparé à plus de 5 teraflops pour le nouveau GP100 de Nvidia.
"Vous pouvez renforcer le flottant sur Knights Landing et avoir quelque chose qui ressemble à un GPU, mais ce n'est pas ce qu'il est en ce moment". Pourtant, Intel est persistant, et il est déterminé à réussir. "Nous continuerons à faire progresser la gamme de produits, et nous continuerons à prendre part", a déclaré Bryant.
Pourquoi le chef des données de Microsoft pense que les outils d'apprentissage automatique sont comme des chemises sur mesure? A l'avenir, il voit un monde où les développeurs créent des applications conçues pour tirer parti de l'apprentissage automatique et de l'analyse prédictive sans avoir besoin de l'aide d'un data scientist.
![Pourquoi le chef des données de Microsoft pense que les outils d'apprentissage automatique sont comme des chemises sur mesure? A l'avenir, il voit un monde où les développeurs créent des applications conçues pour tirer parti de l'apprentissage automatique et de l'analyse prédictive sans avoir besoin de l'aide d'un data scientist. Pourquoi le chef des données de Microsoft pense que les outils d'apprentissage automatique sont comme des chemises sur mesure? A l'avenir, il voit un monde où les développeurs créent des applications conçues pour tirer parti de l'apprentissage automatique et de l'analyse prédictive sans avoir besoin de l'aide d'un data scientist.](https://i.joecomp.com/img/cloud-services-2018/why-microsoft-s-data-chief-thinks-current-machine-learning-tools-are-like-tailored-shirts.jpg)
Quand le chef des données de Microsoft pense à l'avenir »Joseph Sirosh, vice-président du groupe Data de Microsoft, compare l'état actuel des outils d'apprentissage automatique à l'âge de plusieurs décennies, lorsque les gens achetaient sur mesure. chemises. De la même manière que la fabrication de masse permet maintenant aux gens de saisir une chemise, il dit qu'une transition similaire est en cours de développement d'applications.
Le chef de centre de données d'Intel parle d'apprentissage automatique - ne demandez rien au GPU
![Le chef de centre de données d'Intel parle d'apprentissage automatique - ne demandez rien au GPU Le chef de centre de données d'Intel parle d'apprentissage automatique - ne demandez rien au GPU](https://i.joecomp.com/img/server-hardware-2018/intel-s-data-center-chief-talks-machine-learning-just-don-t-ask-about-gpus.jpg)
Diane Bryant Le chef du puissant groupe de datacenters d'Intel était à Computex à Taipei cette semaine, en partie pour expliquer comment le dernier processeur Xeon Phi de l'entreprise est un bon choix pour l'apprentissage automatique.