L'utilisation de l'intelligence artificielle dans la finance n'en est qu'à ses débuts, mais elle doit être surveillée et éventuellement réglementée pour éviter de nuire aux consommateurs et assurer le bon fonctionnement des marchés, a déclaré la Banque centrale européenne mercredi.

La BCE a vu un certain nombre d'opportunités dans l'utilisation de l'IA générative par les banques et autres institutions financières, comme un traitement supérieur de l'information, un service à la clientèle plus efficace et même une plus grande capacité à repérer les cybermenaces.

Mais elle a également mis en garde contre les risques, notamment le comportement grégaire, la dépendance excessive à l'égard d'un nombre limité de fournisseurs et des cyberattaques plus sophistiquées.

"Par conséquent, la mise en œuvre de l'IA dans le système financier doit être suivie de près au fur et à mesure que la technologie évolue", a déclaré la BCE dans un article publié dans le cadre de sa revue régulière de la stabilité financière.

"En outre, des initiatives réglementaires pourraient devoir être envisagées si des défaillances du marché apparaissent et ne peuvent être traitées par le cadre prudentiel actuel." L'Union européenne a formulé les premières règles mondiales en matière d'intelligence artificielle, qui obligeront les systèmes d'IA à usage général et à haut risque à se conformer à des obligations de transparence spécifiques et aux lois européennes sur le droit d'auteur.

Jusqu'à présent, cependant, la BCE a déclaré que l'adoption de tels systèmes par les sociétés financières européennes n'en était qu'à ses débuts.

"Les contacts sur le marché indiquent que les institutions financières de la zone euro pourraient être plus lentes à adopter l'IA générative, étant donné l'éventail des risques précédemment évoqués (et) compte tenu également des risques potentiels pour la réputation", a déclaré la BCE. (Reportage de Francesco Canepa ; Rédaction de Muralikumar Anantharaman)