Noise and trainability in quantum machine learning - Réseau de recherche en Théorie des Systèmes Distribués, Modélisation, Analyse et Contrôle des Systèmes
Thèse Année : 2023

Noise and trainability in quantum machine learning

Bruit et capacité d'apprentissage en apprentissage automatique quantique

Résumé

This thesis is devoted to the exploration of the interface between quantum computing and machine learning, with an emphasis on the effects of noise and decoherence. In the first part, we investigate the use of open quantum systems to tackle classical pattern recognition tasks. In particular, we study the impact of noise on quantum kernel machines in a reservoir computing setup. The models we consider are based on the use of a large and uncontrolled quantum system, the reservoir, that is excited with an input signal to be processed. Measurements are then performed on the system, and a linear combination of the outcomes is optimized to achieve the desired processing task. Within the theoretical framework associated with kernel methods, we analyze the effect of dissipation on the expressive power of these models. We show that the noise affecting the reservoir can act as an implicit regularization that helps to prevent over-fitting. These findings are supported by a numerical study of a set of noisy kernel machines based on driven-dissipative chains of spins exhibiting decoherence and whose Markovian evolution is described by a Lindblad master equation. The second part of the thesis focuses on variational quantum algorithms. There, we present an efficient classical simulation scheme to estimate the trainability of a parameterized quantum circuit. We first study the quantum channels associated with the averages of random Z-rotations of one and two qubits. Upon some assumptions, we show that these average rotation channels can be decomposed into convex sums of Clifford channels. This result, which can be interpreted as an artificial decoherence induced by the random choice of the rotation angles, allows us to derive our efficient estimation scheme based on the celebrated Gottesman-Knill theorem. Among other figures of merits, this method enables to efficiently estimate the average amplitude of the cost-function gradient through classical simulations. This method is scalable and can be used to certify trainability for variational quantum circuits and explore design strategies that can overcome the barren plateau problem.
Cette thèse est consacrée à l'exploration de l'interface entre l'informatique quantique et l'apprentissage automatique, en mettant l'accent sur les effets du bruit et de la décohérence. Dans la première partie, nous étudions l'utilisation de systèmes quantiques ouverts pour la réalisation de tâches classiques de reconnaissance des formes. En particulier, nous nous intéressons à l'impact du bruit sur les machines à noyau quantique dans une configuration de calcul à réservoir. Les modèles que nous considérons sont basés sur l'utilisation d'un système quantique de grande taille et non contrôlé, un réservoir, qui est excité par un signal d'entrée à traiter. Des mesures sont ensuite effectuées sur le système et une combinaison linéaire des résultats est optimisée afin de réaliser la tâche souhaitée. Dans le cadre théorique associé aux méthodes à noyau, nous analysons l'effet de la dissipation sur l'expressivité de ces modèles. Nous montrons que le bruit affectant le réservoir peut agir comme une régularisation implicite qui aide à prévenir l'ajustement excessif. Ces résultats sont accompagnés d'une étude numérique d'un ensemble de machines à noyaux bruitées basées sur des chaînes de spins quantiques sujets à de la décohérence, et dont l'évolution markovienne est décrite par une équation maîtresse de type Lindblad. Dans la deuxième partie de la thèse, nous nous concentrons sur les algorithmes quantiques variationnels. Nous y présentons un schéma de simulation classique efficace pour estimer des quantités moyennées à la sortie d'un circuit quantique paramétré dont les paramètres de rotation sont choisis aléatoirement. Nous étudions d'abord les canaux quantiques associés aux moyennes de rotations aléatoires d'un et de deux qubits autour d'un axe Z. Sous certaines hypothèses, nous montrons que ces canaux peuvent être décomposés en sommes convexes de canaux associés à des transformations unitaires de Clifford. Ce résultat peut être interprété comme un effet de décohérence artificiel induit par le choix aléatoire des angles de rotation. Il nous permet construire un schéma de simulation efficace basé sur le célèbre théorème de Gottesman-Knill. Cette méthode permet notamment d'estimer efficacement l'amplitude moyenne du gradient de la fonction de coût par des simulations classiques avec une complexité polynomiale en le nombre de qubits. Elle peut donc être utilisée pour explorer des stratégies de conception de circuits variationnels quantiques permettant d'éviter les difficultés d'entrainement due à une disparition du gradient.
Fichier principal
Vignette du fichier
va_Heyraud_Valentin.pdf (2.68 Mo) Télécharger le fichier
Origine Version validée par le jury (STAR)

Dates et versions

tel-04702049 , version 1 (19-09-2024)

Identifiants

  • HAL Id : tel-04702049 , version 1

Citer

Valentin Heyraud. Noise and trainability in quantum machine learning. Mathematical Physics [math-ph]. Université Paris Cité, 2023. English. ⟨NNT : 2023UNIP7237⟩. ⟨tel-04702049⟩
0 Consultations
0 Téléchargements

Partager

More