C’est l’aversion aux inégalités qui justifie l’actualisation dans un monde en croissance

17 Mars 2017 Finance

Quelles ont été les grandes avancées de la théorie économie ces dernières années en termes d’évaluation du risque ?

On assiste à une vraie révolution de la pensée suscitée à la fois par des résultats expérimentaux et le choc de la crise financière. Elle remet en cause certains fondements théoriques sur lesquels la science économique s’est construite durant le siècle écoulé. Aujourd’hui, nos modèles sont capables d’intégrer de nombreux concepts issus de la science cognitive et qui influencent lourdement sur nos comportements face au risque. Par exemple, le risque de perdre la moitié de son revenu est plus grave si on est seul à porter ce risque que si tout le monde doit y faire face simultanément, selon le principe de « misery loves company ». Cette observation empirique peut expliquer un certain conformisme et un comportement moutonnier dans la prise de risque. Elle peut expliquer les bulles financières quand elle est appliquée aux opérateurs sur les marchés financiers. Il y a aussi une prise de conscience parmi les chercheurs en finance que nos modèles d’évaluation des investissements basés sur l’hypothèse de rendements en « courbe en cloche » gaussienne est incapable d’appréhender correctement les événements extrêmes. Ceci alors même qu’on sait aujourd’hui que c’est la plausibilité de ces événements qui rendent beaucoup d’investisseurs très réticents à investir, même s’ils ne se sont encore jamais produits. Qui peut être certain qu’une météorite ne nous conduira pas au même destin que les dinosaures, ou au contraire que nous serons capables de conquérir la Voie Lactée ? L’abandon de l’hypothèse gaussienne dans la théorie de la finance est certainement un challenge considérable pour plusieurs générations de chercheurs.
 

En termes microéconomiques, le risque est un facteur clef des secteurs de l’assurance, de la santé, de la banque et de l’industrie… Y a-t-il aujourd’hui l’émergence de la notion de risques dans de nouveaux secteurs, liés à l’économie numérique par exemple ?

 
Au niveau agrégé, on ne peut pas dire que nos économies sont plus volatiles que dans le passé. Les économistes parlent d’ailleurs de « great moderation » en référence à la période comprise entre le début des années quatre-vingt et la crise financière durant laquelle cette volatilité a été extrêmement faible. En même temps, les institutions en charge des partages de risque au niveau micro (assurance chômage, santé, marchés de l’assurance,…) sont sorties plutôt renforcées de la crise. Et les nouvelles technologies de l’information ouvrent de belles perspectives d’innovations dans le secteur, comme les fintech par exemple. Mais en démontrant leur grande sensibilité au risque systémique (effet domino) dans une économie mondialisée, ce sont les marchés financiers qui concentrent aujourd’hui les risques. L’amélioration du partage des risques individuels et collectifs se heurte aux limites que les économistes ont mises en lumière depuis quatre décennies. S’il est mal contrôlé et régulé, le transfert de risque diffuse les responsabilités et réduit les incitations à gérer ce risque en « bon père de famille », comme l’a par exemple illustré la crise des subprimes. En même temps, certains progrès technologiques ont considérablement réduit le coût de contrôle, ce qui réduit d’autant ce « risque moral ». Par exemple, certains assureurs proposent aujourd’hui l’installation d’un petit boîtier automobile permettant d’évaluer à distance les efforts de prévention du conducteur, en échange d’un bonus sur la prime.
 

Le Big Data permet-il de révolutionner le risque ?

 
Le meilleur accès aux données est sans conteste une bonne chose pour la recherche, en facilitant la confrontation des modèles à la réalité. L’amélioration de l’information peut aussi avoir des effets pervers sur l’assurabilité des risques. Par exemple, l’amélioration de la médecine prédictive et de la génétique nous rend inégaux face à la santé. L’information est en fait une machine qui transforme les risques en inégalités. Or, un risque réalisé est inassurable. Comment assurerons-nous les risques de santé demain dans un monde où une bonne part de l’évolution de notre santé sera prédictible ? Interdire l’accès à l’information, comme mis en place actuellement dans l’Obamacare, ne peut être à elle seule la solution, car seuls les mauvais risques chercheront à s’assurer.
 

La notion de calcul de risque et de son coût repose sur l’élément clef qu’est le taux d’actualisation. A l’heure où les liquidités sont abondantes partout et que les taux apparaissent mal évalués, est-ce un facteur perturbant ?

 
Notre génération est interpellée comme jamais dans l’histoire pour ses responsabilités envers les générations futures. Nous sommes suspectes de laisser nos dettes publiques exploser, de détruire notre climat, notre biodiversité et de dévorer sans compter nos ressources naturelles. En même temps, depuis la fin de la deuxième guerre mondiale, nous avons investi massivement dans les infrastructures et la recherche, deux sources fondamentales de prospérité. Le taux d’actualisation qu’utilisent les investisseurs publics et privés pour déterminer s’il est profitable de mettre en œuvre tel ou tel projet d’investissement est en effet le facteur clé qui détermine si oui ou non, nous investissons assez pour les générations futures. Ce taux d’actualisation est déterminé par le marché, à travers le taux d’intérêt et les primes de risques qu’imposent les marchés pour financer ces projets. Historiquement, ce taux a été élevé, ce qui a freiné l’incitation à l’investissement. C’était justifié par une forte croissance. En effet, dans un monde en croissance, investir augmente les inégalités intergénérationnelles puisque cela conduit la génération présente à sacrifier une partie de sa consommation pour le bénéfice des générations futures plus prospères. C’est donc l’aversion aux inégalités qui justifie l’actualisation dans un monde en croissance. Mais aujourd’hui, cet argument est mis en doute par la persistance d’une croissance molle et d’un débat sur la possibilité d’une « stagnation séculaire », voire d’une décroissance. Cette incertitude doit en tout cas inciter à baisser le taux d’actualisation, ce que les marchés ont déjà mis en œuvre à travers la baisse des taux d’intérêt.
 

Le risque environnemental a été amené auprès du grand public par le biais des calculs économiques menés par Nicholas Stern. Comment pourrait-on rendre ce débat encore plus concret auprès du grand public ?

 
C’est en effet la politique de lutte contre le changement climatique, et la publication en 2007 du rapport Stern, qui a focalisé ce débat sur l’actualisation. L’efficacité de cette lutte ne peut passer que par l’instauration d’un prix universel du carbone. Son principe est simple : quels que soient la raison ou le lieu, toute molécule de CO2 émise aujourd’hui générera le même flux de dommage climatique dans les décennies et siècles à venir. Cette externalité n’est aujourd’hui pas prise en compte par les émetteurs, ce qui introduit un biais entre leur intérêt particulier et l’intérêt général. Pour rétablir l’efficacité, il suffit de faire payer à chaque émetteur la valeur actualisée du flux de dommages climatiques généré par cette émission. Ce prix du carbone dépend donc du taux d’actualisation utilisé dans ce calcul. Faut-il utiliser le taux de rendement des obligations souveraines, ou le taux de rendement moyen du capital des entreprises ? La réponse à cette question dépend du profil de risque de ces dommages climatiques. Il semblerait que les bénéfices de la lutte contre le changement climatique sont indexés sur la croissance de la consommation et de la richesse, ce qui justifierait de prendre un taux d’actualisation plutôt élevé.
 

Assurance-chômage, assurance vieillesse… le débat bat son plein sur la répartition entre le public et le privé dans le financement de ces risques « sociaux » ? Quels sont les atouts des uns et des autres ? Quelle est la façon la plus efficace, pour le grand public, de les faire cohabiter ?

Ce qui frappe aujourd’hui quand on étudie le problème de l’emploi en France, c’est tant la persistance d’un chômage de masse malgré des taux d’intérêt très faibles que l’incapacité de notre système à partager efficacement les risques liés au marché du travail. Les « insiders », ceux qui ont un CDI, très protégés, tandis que les outsiders, les jeunes arrivant sur le marché et les chômeurs de longue durée, n’ont aucune protection et constituent la « variable d’ajustement » en cas de crise. Ce choix de société, qui protège les vieux au détriment des jeunes, est à la fois injuste et inefficace. Il ne récompense pas suffisamment le talent, les compétences. Il crée des rentes et réduit les incitations, tant pour les employeurs que pour les employés. Ce qu’on ne comprend toujours pas en France, qui, comme les autres économies, subit de profondes mutations sectorielles, c’est que ce ne sont pas les emplois qu’il faut protéger, mais les employés. Il faut accompagner ces transitions plutôt que de les subir. Il est vain et coûteux de chercher à empêcher les licenciements dans les secteurs en déclin. Par contre, il faut inciter les employeurs à internaliser le coût social du licenciement en mettant en place un bonus-malus en assurance chômage, comme le propose Blanchard et Tirole.