Rajna Gibson: «L’informatique a été nécessaire au développement moderne de la finance»
A l’occasion du Finance Summit qui se tenait fin septembre à Genève, notre rédaction a rencontré la Professeure Rajna Gibson Brandon. Elle nous donne son point de vue sur les liens étroits souvent positifs, parfois négatifs, entre les développements récents de la finance et de l’informatique.

Quel est votre regard sur les liens entre la finance et l’informatique?
La finance actuelle doit beaucoup à l’informatique. Si l’on pense par exemple à toutes les affaires liées aux transactions sur des actifs financiers, le fait que l’on puisse les traiter à la nanoseconde près n’aurait jamais été possible sans l’outil informatique. On peut aussi citer les capacités actuelles de stockage qui permettent de tester des modèles ou de faire de la recherche académique sur de grandes quantités de données historiques, parfois même intra-journalières. Idem dans le domaine de la gestion de portefeuille, les modèles d’optimisation de larges portefeuilles requièrent des ordinateurs dotés de puissances de calcul dont on ne pouvait que rêver il y a vingt ans. Ensuite, tout ce qui touche à la gestion alternative: dans les hedge funds par exemple, vous avez des acteurs qui font du trading algorithmique lequel repose entièrement sur des systèmes informatiques. A l’époque où je rédigeais ma thèse, il y avait encore dans les bourses des traders en chair et en os – ils ont été le plus souvent remplacés par des plateformes électroniques. Dans beaucoup de domaines, l’informatique a été nécessaire au développement moderne de la finance. Elle a aussi permis de réduire considérablement les coûts de transaction.
Cet usage extensif de l’informatique a-t-il des effets pervers?
Toutes les banques, toutes les assurances, tous les intermédiaires financiers évaluent et gèrent les risques en ayant recours à des outils informatiques, cela crée également un risque opérationnel. Il y a d’abord les problèmes de sécurité. Ensuite, des problèmes qui naissent de l’automatisation excessive et de l’abstraction de l’élément humain. Si par exemple quelqu’un se trompe en saisissant un ordre de vente de 5 milliards de titres au lieu de 5000, cela peut provoquer un crash du cours. Il faut donc des garde-fous et des systèmes d’alerte. L’outil informatique est paradoxal, parce qu’il permet une prise de risque exacerbée, mais il permet aussi de contrôler les risques.
Dans le trading à haute fréquence, l’avantage technologique devient un facteur de concurrence crucial. Y voyez-vous une dérive?
Les firmes spécialisées dans le trading à haute fréquence soulèvent certaines questions. Ainsi, le petit investisseur ou l’institutionnel ne peut pas être en concurrence loyale avec eux, car ni l’un ni l’autre ne dispose de l’outil informatique adapté; la vitesse d’exécution devient un avantage concurrentiel. On s’interroge d’ailleurs sur la façon de règlementer les pratiques de ces agents qui peuvent causer des problèmes d’efficience et d’équité quant à l’accès aux marchés.
Une autre préoccupation concerne l’utilisation des mêmes modèles par de nombreux agents qui peut créer un risque systémique. Disposant tous des mêmes informations, ils risquent de prendre la même décision au même moment, ce qui va provoquer à la fois un effet de saturation et d’éviction, et un effet de feedback – c’est-à-dire qu’un gros investisseur va pouvoir influencer les prix, comme on l’a vu lors du crash d’octobre 1987, alors que tous les modèles de finance considèrent que les agents individuels sont trop petits pour exercer une telle influence.
L’informatique est également mise en cause dans la crise des subprimes avec des crédits hypothécaires accordés de façon «robotique». Quel est votre avis sur la question?
Le problème avec les subprimes c’est que l’on a pratiqué une évaluation automatique des débiteurs – FICO scoring – qui fonctionne bien avec des données quantitatives, mais qui est mal adaptée aux données qualitatives. On a donc automatisé les processus d’octroi de prêts, puis on a titrisé certains de ces prêts hypothécaires dits subprime. Ces hypothèques ne figurant dès lors plus au bilan, les banques ont cessé d’en faire le monitoring. L’outil informatique ne saurait donc remplacer l’élément humain, en particulier lorsqu’il s’agit d’exploiter des données qualitatives.
Qu’en est-il du risque lié à l’utilisation même de modèles mathématiques?
Le risque de modèle existe et il est connu. Vous faites des hypothèses, par exemple que la distribution des rendements est une gaussienne, et vous vous retrouvez au final avec des crashs qui surviennent plus souvent que prévu. Il en va de même avec les modèles basés sur des données historiques qui ne tiennent pas compte de changements d’environnement politique, monétaire ou autre. Mais, je reste convaincue que l’exploitation d’un maximum de données est un excellent outil. Ceci dit, la finance n’est pas une science exacte. Une tendance actuelle est d’ailleurs de s’intéresser également aux comportements humains et aux émotions et de s’éloigner de l’image d’un homo œconomicus parfaitement rationnel lors de la modélisation financière.
Pour revenir à l’actualité et aux futures règlementations des banques. Doivent-elles s’appuyer sur des mesures et sur des systèmes automatiques?
On est revenu à des règles plus simples et pragmatiques, comme l’augmentation des fonds propres. En somme, on sait que vous prenez des risques, on sait que vous avez tendance à vous endetter trop, on sait que cela pose un risque systémique et on veut donc le limiter. On cherche ainsi à règlementer de manière optimale, sachant que la crise a montré que les marchés n’étaient pas en mesure de s’autoréguler. Il faut éviter les règles automatiques se basant par exemple sur des seuils et promouvoir des règles qui permettent l’interprétation et le jugement de valeur, mais il faut aussi former les gens pour qu’ils soient capables d’exercer ces jugements.
Kommentare
« Plus