Conseillé, 2024

Le choix des éditeurs

Le chef de centre de données d'Intel parle d'apprentissage automatique - ne demandez rien au GPU

ENSTA Paris - Comment bien se former aux métiers de l'Intelligence Artificielle ?

ENSTA Paris - Comment bien se former aux métiers de l'Intelligence Artificielle ?
Anonim

Si vous voulez passer sous la peau de Diane Bryant,

Le chef du puissant groupe de centres de données d'Intel était à Computex à Taipei cette semaine, en partie pour expliquer comment le dernier processeur Xeon Phi de la société est un bon choix pour l'apprentissage automatique. le processus par lequel des entreprises comme Google et Facebook forment un logiciel pour mieux accomplir les tâches de l'IA, y compris la vision par ordinateur et la compréhension du langage naturel. C'est la clé pour améliorer toutes sortes de services en ligne: Google a récemment déclaré qu'il repense tout ce qu'il fait autour de l'apprentissage automatique.

[Plus d'informations: Les meilleurs services de streaming TV]

dit que les 72 cœurs et la forte performance en virgule flottante du nouveau Xeon Phi de Knight's Landing d'Intel, publié il y a six mois, lui confèrent un excellent ratio performance / watt par dollar pour les algorithmes d'apprentissage machine.

"C'est un "Le défi pour Intel est que les processeurs les plus utilisés aujourd'hui pour l'apprentissage automatique sont les GPU comme ceux de Nvidia. et AMD.

"Je ne suis pas au courant que certains des Super Seven utilisent Xeon Phi pour former leurs réseaux de neurones", a déclaré Patrick Moorhead, analyste de Moor Insights and Strategy, faisant référence aux plus grands clients rning - Google, Facebook, Amazon, Microsoft, Alibaba, Baidu et Tencent.

Bryant, qui est très affable, a grandi légèrement exaspéré quand on lui a demandé comment Intel pouvait rivaliser sur ce marché sans GPU. Le GPU à usage général, ou GPGPU, est juste un autre type d'accélérateur, dit-elle, et non un outil unique pour l'apprentissage automatique.

"Nous appelons Knights Landing un coprocesseur, mais c'est un accélérateur pour les opérations en virgule flottante,

Elle admet que Nvidia a pris une avance rapide sur le marché des charges de travail HPC accélérées en positionnant ses GPU pour cette tâche il y a plusieurs années. Mais depuis la sortie du premier Xeon Phi en 2014, Intel a maintenant 33% du marché pour les charges de travail HPC qui utilisent un accélérateur à virgule flottante.

"Nous avons donc gagné des parts contre Nvidia, et nous allons

La part d'Intel dans le secteur de l'apprentissage automatique est peut-être bien moindre, mais Bryant s'empresse de noter que le marché est encore jeune.

"Moins de 1% de tous les serveurs L'expérience de l'année dernière a été appliquée à l'apprentissage automatique, alors entendre [Nvidia] nous battre dans un marché qui existe à peine me rend un peu fou », dit-elle.

Pourtant, 1% du marché mondial des serveurs n'est pas anodin et Intel va continuer à faire évoluer Xeon Phi pour l'améliorer lors des tâches d'apprentissage automatique.

Ce n'est pas sans clients dans la région, même si elle ne peut pas pointer vers des noms familiers. Bryant a mentionné Viscovery, qui utilise Knights Landing pour former des algorithmes pour la recherche de vidéos.

L'apprentissage automatique comporte deux aspects, note-t-elle - l'apprentissage des modèles algorithmiques, la partie la plus intensive en calcul, et l'application de ces modèles au réel. Les FPGA d'Intel, acquis à partir de son acquisition d'Altera, couplés à ses processeurs Xeon habituels, sont bien adaptés à la partie inférence, dit Bryant, donc Intel a les deux côtés de l'équation

Pourtant, il peut être difficile de remplacer les GPU dans les entreprises hyperscales - sans parler du TPU de Google, ou Tensor Processing Unit, une puce spécialement conçue pour l'apprentissage automatique.

Selon Moorhead, les GPU de Nvidia sont plus difficiles à utiliser pour les programmeurs, ce qui pourrait jouer en faveur d'Intel, d'autant plus que les entreprises régulières commencent à adopter l'apprentissage automatique. Et Knights Landing est "auto-amorçable", ce qui signifie que les clients n'ont pas besoin de le coupler avec un Xeon standard pour démarrer un système d'exploitation.

Mais le nouveau Xeon Phi d'Intel a une performance en virgule flottante d'environ 3 téraflops. comparé à plus de 5 teraflops pour le nouveau GP100 de Nvidia.

"Vous pouvez renforcer le flottant sur Knights Landing et avoir quelque chose qui ressemble à un GPU, mais ce n'est pas ce qu'il est en ce moment". Pourtant, Intel est persistant, et il est déterminé à réussir. "Nous continuerons à faire progresser la gamme de produits, et nous continuerons à prendre part", a déclaré Bryant.

Top