Où docteurs et entreprises se rencontrent
Menu
Connexion

Support logiciel pour l'utilisation d'accélérateur de calcul et de transfert mémoire // Sofware support for computing accelerators and memory transferts accelerators

ABG-138318 Sujet de Thèse
13/04/2026 Financement public/privé
CEA Université Grenoble Alpes Laboratoire Systèmes-sur-puce et Technologies Avancées
Grenoble
Support logiciel pour l'utilisation d'accélérateur de calcul et de transfert mémoire // Sofware support for computing accelerators and memory transferts accelerators
  • Sciences de l’ingénieur
  • Numérique
Nouveaux paradigmes de calculs, circuits et technologies, dont le quantique / Défis technologiques / Informatique et logiciels / Sciences pour l’ingénieur

Description du sujet

Pour des raisons d'énergie les futurs ordinateurs devront utiliser des accélérateurs pour le calcul comme pour les accès à la mémoire (GPU, TPU, NPU, DMA intelligents). Les application d'IA ont des besoins en calcul intensif à la fois en intensité de calcul et en débits mémoire.

Ces accélérateurs ne se basent pas sur un jeu d'instruction simple (ISA), ils s'affranchissent du modèle de Von Neuman et ils nécessitent d'écrire manuellement du code spécialisé.

Par ailleurs, il est difficile de comparer l'utilisation de ces accélérateurs avec un code utilisant un processeur non spécialisé, les codes sources initiaux étant très différents.

HybroLang est un langage de programmation proche matériel permettant d'exprimer des programmes utilisant toutes les capacités de calcul d'un processeur tout en permettant une spécialisation du code en fonction des données connues à l'exécution.

Le compilateur HybroGen a déjà démontré sa capacité de programmation d'accélérateurs de calcul en mémoire, comme en optimisation de code sur CPU classique en réalisant des optimisations innovantes.

Cette thèse se propose d'étendre le langage HybroLang afin de :

- faciliter la programmation d'application d'IA apportant le support pour des données complexes : stencils, convolution, calcul clairsemé

- permettre la génération de code à la fois sur CPU et avec des accélérateurs matériels en cours de développement au CEA (calcul clairsemé, calcul en mémoire, accès à la mémoire)

- permettre la comparaison d'architectures différentes en partant d'un seul code source d'application

Idéalement un candidat devra avoir des connaissances dans les domaines suivants : architecture des ordinateurs, implémentation de langage de programmation, compilation et optimisation de code.
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
------------------------------------------------------------------------------------------------------------------------------------------------------------------------

For energy reasons, future computers will have to use accelerators for both computation and memory access (GPUs, TPUs, NPUs, smart DMAs). AI applications have intensive computational requirements in terms of both computing power and memory throughput.

These accelerators are not based on a simple instruction set (ISA), they break the Von Neuman model: they require specialized code to be written manually.

Furthermore, it is difficult to compare the use of these accelerators with code using a non-specialized processor, as the initial source codes are very different.

HybroLang is a hardware-close programming language that allows programs to be written using all of a processor's computing capabilities, while also allowing code to be specialized based on data known at runtime.

The HybroGen compiler has already demonstrated its ability to program in-memory computing accelerators, as well as to optimize code on conventional CPUs by performing innovative optimizations.

This thesis proposes to extend the HybroLang language in order to

- facilitate the programming of AI applications by providing support for complex data: stencils, convolution, sparse computing

- enable code generation both on CPUs and with hardware accelerators currently under development at the CEA (sparse computing, in-memory computing, memory access)

- allow to benchmark different computing architectures with the same initial source code

Ideally, a candidate should have knowledge of computer architecture, programming language implementation, code optimization and compilation.
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
------------------------------------------------------------------------------------------------------------------------------------------------------------------------

Pôle fr : Direction de la Recherche Technologique
Pôle en : Technological Research
Département : Département Systèmes et Circuits Intégrés Numériques (LIST)
Service : DSCIN
Laboratoire : Laboratoire Systèmes-sur-puce et Technologies Avancées
Date de début souhaitée : 01-09-2026
Ecole doctorale : Mathématiques, Sciences et Technologies de l’Information, Informatique (MSTII)
Directeur de thèse : RASTELLO Fabrice
Organisme : INRIA
Laboratoire : LIG/CORSE
URL : https://blog.hpch.net/

Nature du financement

Financement public/privé

Précisions sur le financement

Présentation établissement et labo d'accueil

CEA Université Grenoble Alpes Laboratoire Systèmes-sur-puce et Technologies Avancées

Pôle fr : Direction de la Recherche Technologique
Pôle en : Technological Research
Département : Département Systèmes et Circuits Intégrés Numériques (LIST)
Service : DSCIN

Profil du candidat

Master informatique / école d'ingénieur informatique
Partager via
Postuler
Fermer

Vous avez déjà un compte ?

Nouvel utilisateur ?