Dr. Shahar Kutinsky (à gauche) avec la doctorante Tsfnat Grinberg-Toledo Photo: Nitzan Zohar, porte-parole du Technion
24h/24 et 6j/7 : Vous souhaitez rester informé ? Rejoignez les fils d'actualités sur Facebook Rejoignez notre page Facebook.

Parce que l’apprentissage à partir de systèmes d’intelligence artificielle nécessite beaucoup de puissance de calcul, cela se fait généralement sur des ordinateurs dotés de GPU excellents. Cependant, la vitesse de ces processeurs reste faible par rapport au taux d’apprentissage souhaité des réseaux de neurones. Des chercheurs de la faculté de génie électrique Viterbi du Technion ont mis au point un matériel innovant qui accélère le processus d’apprentissage des systèmes d’intelligence artificielle, dirigé par le Dr Shahar Kutinsky et le doctorant Zofnat Greenberg-Toledo, ainsi que les étudiants Roy Mazor et Amir Haj Ali. Leur article a été publié dans IEEE Transactions on Circuits and Systems publié par l’Association internationale des ingénieurs électriciens et électroniciens (IEEE).

Ces dernières années, le monde de l’intelligence artificielle a considérablement progressé, principalement grâce aux modèles de réseaux neuronaux profonds (DNN) . Inspirés par le cerveau humain et les méthodes d’apprentissage humain, ces réseaux connaissent un succès sans précédent dans des tâches complexes telles que la conduite autonome, le traitement du langage naturel, la reconnaissance des émotions du texte, la traduction, la reconnaissance d’image et le développement de traitements médicaux innovants. Cela se fait par auto-apprentissage à partir d’un vaste pool d’exemples – images, par exemple. Cette technologie se développe rapidement dans les groupes de recherche universitaires ainsi que dans les sociétés géantes telles que Facebook et Google, qui la mettent au service de leurs besoins.

Parce que l’apprentissage à partir d’exemples nécessite beaucoup de puissance de calcul, cela se fait généralement sur des ordinateurs dotés de GPU excellents. Cependant, la vitesse de ces processeurs reste faible par rapport au taux d’apprentissage souhaité des réseaux de neurones et le processeur reste donc un goulot d’étranglement dans ce processus. De plus, l’utilisation de processeurs consomme beaucoup d’énergie. « En fait, nous avons du matériel conçu à l’origine pour d’autres utilisations – principalement les graphiques – et il ne suit pas le rythme rapide d’activité dans les réseaux de neurones », a déclaré Kutinsky. Pour résoudre ce problème, nous avons besoin d’un matériel dédié, adapté aux réseaux de neurones profonds.  »

En effet, le groupe de recherche du Dr Kutinsky a mis au point théoriquement des systèmes matériels spécifiquement conçus pour fonctionner avec ces réseaux, permettant ainsi au réseau de neurones d’effectuer la phase d’apprentissage à une vitesse élevée et avec une énergie réduite. « Par rapport au travail avec des processeurs graphiques, la vitesse de calcul est 1 000 fois et réduit la consommation d’énergie de 80%.  »

Le matériel mis au point par le groupe constitue une avancée et un changement conceptuel réels: au lieu d’améliorer les processeurs existants, les chercheurs du Technion ont développé la structure d’une machine informatique tridimensionnelle intégrant la mémoire. « Au lieu de séparer les unités qui effectuent les calculs dans la mémoire responsable de la conservation des informations, nous faisons tout au sein du maryristor – un composant de mémoire de calcul utilisé spécifiquement dans ce cas pour travailler avec des réseaux neuronaux profonds. »

Bien qu’il s’agisse d’un travail théorique, le groupe a déjà démontré la mise en œuvre du développement au niveau de la simulation. « Notre développement est conçu pour fonctionner avec l’algorithme d’apprentissage Momentum, mais nous avons l’intention de continuer à développer le matériel de manière à ce qu’il s’intègre également à d’autres algorithmes. Il se peut qu’au lieu de plusieurs composants matériels différents, un matériel dynamique multifonctionnel soit ouvert, qui puisse s’adapter à différents algorithmes.