Misère de l’épidémiologie et variant anglais du SARS-CoV-2

[Cet article est une traduction du billet de blog que j’ai écrit en anglais pour CSPI et qui a été publié le 9 avril. Une traduction a été réalisée par @IanSolliec, @WintermeW et @Fixpir, ainsi qu’une autre par @lfeeatc, qui a travaillé indépendamment. Je les remercie chaleureusement pour leur travail, car je ne pense pas que j’aurais eu le temps de tout faire moi-même. Grâce à eux, je n’ai eu qu’à traduire les graphiques, tandis que pour le texte j’ai utilisé les deux traductions en me contentant de les retravailler un peu ici et là. J’ai également profité de la traduction pour ajouter une mise à jour avec les dernières données disponibles et une méthode d’estimation de l’avantage de B.1.1.7 alternative.]
 
Résumé
 
  • Le variant B.1.1.7 du SARS-CoV-2, apparu en Angleterre l’année dernière et qui se propage rapidement partout dans le monde depuis le début de l’année, serait bien plus transmissible que la souche historique. Par exemple, en analysant son expansion initiale en France, Gaymard et al. (2021) ont trouvé que ce variant était entre 50% et 70% plus transmissible. Ce résultat a été utilisé pour recommander un renforcement des restrictions sanitaires puisque, s’il s’avérait exact, seule une réduction drastique de la transmission du virus pourrait éviter une explosion du taux d’incidence.
  • Cependant, cette estimation repose sur la calibration d’un modèle simple de croissance exponentielle à partir de deux points observés en janvier et elle est extrêmement sensible aux hypothèses faites sur la distribution du temps de génération, au sujet de laquelle je soutiens qu’il y a une incertitude considérable. Lorsque je reproduis l’analyse de Gaymard et al. mais que je prends correctement en compte cette incertitude en essayant un éventail plus large de distributions (ce que j’ai pu faire malgré eux, car non seulement ils n’ont pas publié leur code, mais ils n’ont pas répondu à un email que je leur ai écrit pour leur demander s’il pouvait me l’envoyer), je trouve que le B.1.1.7 pourrait être entre 21% et 72% plus transmissible, soit une fourchette beaucoup plus large que celle qu’ils ont rapportée.
  • Si je calibre le même type de modèle avec des données plus récentes au lieu d’utiliser uniquement le taux de croissance du B.1.1.7 en janvier, je trouve que l’avantage de transmissibilité du B.1.1.7 est compris entre 16% et 42% selon les hypothèses que je fais sur la distribution du temps de génération, ce qui est beaucoup plus bas que la fourchette de 50% à 70% de Gaymard et al. Cependant, cette conclusion est basée sur l’hypothèse que le B.1.1.7 a suivi une croissance exponentielle en France depuis le début de l’année, une hypothèse clairement contredite par les données même si certains épidémiologistes continuent inexplicablement à la défendre.
  • La plupart des épidémiologistes s’en rendent probablement compte, mais arguent que l’explosion qu’ils avaient prédite en janvier a été évitée grâce à la décision d’avancer le couvre-feu de 20h à 18h en janvier et aux vacances scolaires en février. Donc plutôt que d’utiliser un modèle simple de croissance exponentielle, j’essaie de modéliser l’effet des interventions gouvernementales et des vacances scolaires sur la transmission de façon similaire à celle des épidémiologistes qui conseillent le gouvernement français. La différence est que j’utilise ce modèle pour estimer l’avantage de transmissibilité du B.1.1.7 à partir des données, au lieu de simplement partir du principe qu’il est entre 50% et 70% plus transmissible. Cette approche me conduit à conclure que, selon les hypothèses que je fais sur la distribution du temps de génération, B.1.1.7 est entre 22% et 53% plus transmissible.
  • J’explique que, même si l’avantage de transmissibilité de B.1.1.7 était resté constant (ce que cette approche suppose implicitement), cette estimation ne serait pas fiable car, comme je l’ai expliqué par ailleurs, ce type de modèle repose sur des hypothèses mécanistiques fortes et complètement irréalistes. J’essaie donc aussi une approche économétrique pour estimer l’avantage de transmissibilité du B.1.1.7. Cette approche suppose également que l’avantage est resté constant, mais elle est agnostique vis-à-vis du mécanisme sous-jacent. Au final, les estimations sont encore plus disparates qu’avec l’approche précédente, puisque l’avantage de transmissibilité de B.1.1.7 va de -12% à 98% selon le modèle que j’utilise et les hypothèses que je fais sur la distribution du temps de génération.
  • Ainsi, même en supposant, comme les épidémiologistes le font systématiquement (bien qu’ils l’admettent rarement de manière explicite), que l’avantage de transmissibilité du B.1.1.7 est resté constant, l’affirmation de Gaymard et al. selon laquelle il est de 50% à 70% plus transmissible est totalement injustifiée, l’incertitude étant bien plus élevée que cela. Quoi qu’il en soit, je montre que l’avantage de transmissibilité du B.1.1.7 n’est pas resté constant en France depuis le début de l’année, mais qu’il a rapidement baissé à mesure que la prévalence de cette souche augmentait. J’estime qu’il n’est plus désormais que 11% plus transmissible que la souche historique.
  • Malheureusement, les épidémiologistes ne se sont apparemment pas donné la peine de vérifier si l’avantage de transmissibilité du B.1.1.7 était resté constant, ils ont simplement supposé qu’il l’était et ont intégré l’estimation de 50 à 70 % de Gaymard et al. dans les modèles qu’ils utilisent pour faire leurs projections, ce qui naturellement leur a permis de prédire que l’incidence allait bientôt exploser comme jamais auparavant. Bien sûr, cela ne s’est pas produit, mais au lieu d’admettre qu’ils s’étaient trompés et de revoir leur hypothèse selon laquelle l’avantage de transmissibilité du B.1.1.7 est constant, ils ont simplement proposé des justifications ad hoc pour expliquer pourquoi leurs projections ne se sont pas réalisées alors même qu’ils avaient raison et ont continué à plaider pour un renforcement des restrictions.

Le nombre de cas de COVID-19 est récemment reparti à la hausse dans plusieurs pays des deux côtés de l’Atlantique. À en croire les épidémiologistes qu’on entend dans les médias, le coupable est B.1.1.7, un variant du SARS-CoV-2 apparu pour la première fois au Royaume-Uni et qui selon eux est bien plus transmissible que la souche historique. Étant donné qu’il s’est rapidement propagé partout où il a été introduit, il ne fait aucun doute que le B.1.1.7 est plus transmissible ou, du moins, qu’il l’était initialement. Mais dans quelle mesure ? Selon les études, les épidémiologistes trouvent différentes fourchettes d’estimations, mais dans tous les cas l’avantage de transmissibilité du B.1.1.7 fait l’objet d’estimations très élevées. Par exemple, selon cette étude qui se base principalement sur des données britanniques, l’avantage est estimé entre 43% et 90%. Dans ce billet, je me concentrerai sur Gaymard et al. (2021), une étude récente basée sur des données françaises qui estime l’avantage de transmissibilité du B.1.1.7 entre 50% et 70%, avec une estimation centrale à 59%. Par ailleurs, les épidémiologistes ne se contentent pas d’affirmer que le B.1.1.7 est beaucoup plus transmissible que la souche historique, ils affirment que cet avantage de transmissibilité est constant.

Ils ne l’affirment d’ailleurs pas que dans les publications scientifiques, mais aussi dans les médias, où ils ne montrent souvent aucune circonspection quant à leurs estimations. Par exemple, après la publication de l’étude française, l’un des co-auteurs, qui fait également partie du conseil scientifique qui conseille le gouvernement, a donné une interview au Monde dans laquelle on aurait du mal à trouver la moindre trace de doute sur la validité de leurs estimations. Il n’est donc pas surprenant que les journalistes et les commentateurs parlent de l’hypothèse selon laquelle le B.1.1.7 a un avantage de transmissibilité constant et élevé comme s’il s’agissait d’un fait établi. Cependant, non seulement cette hypothèse n’est pas établie, mais je pense qu’à ce stade, il est parfaitement claire qu’elle est fausse. Malheureusement, la plupart des épidémiologistes ne semblent pas très intéressés par les données qui semblent difficiles à concilier avec leur hypothèse. Dans ce billet, je vais donc examiner de plus près Gaymard et al. (2021) pour expliquer comment ils ont conclu que B.1.1.7 était de 50 à 70% plus transmissible que la souche historique, et montrer que ce n’est pas très sérieux.

Laissez moi commencer par expliquer rapidement ce que Gaymard et al. ont fait. Il y aura un peu de maths, mais ne vous inquiétez pas, ce ne sera pas long et ce n’est pas grave si vous ne comprenez pas tout. Je vais expliquer tout ce que vous devez savoir pour comprendre le reste du billet en termes simples. Afin d’estimer l’avantage de transmissibilité du B.1.1.7, Gaymard et al. ont utilisé un modèle simple de croissance exponentielle :

C_h(t) = C(0)(1 - p_0)e^{r_ht} and C_v(t) = C(0)p_0e^{r_vt}

C(t) est le nombre total de cas à l’instant t, C_v(t) est le nombre de cas dus à B.1.1.7 à l’instant t, C_h(t) est le nombre de cas dus aux autres variants à l’instant t, p_0 est la prévalence de B.1.1.7 au 1er janvier, r_v est le taux de croissance de B.1.1.7 et r_h est le taux de croissance des autres variants. A partir de ce modèle, a l’aide de quelques transformations algébriques, il est possible de déduire l’expression de la prévalence de B.1.1.7 à l’instant t :

p(t) = \frac{1}{1 + \frac{1 - p_0}{p_0}e^{r_h - r_v}t}

qui, comme vous pouvez le constater, dépend de la prévalence initiale de B.1.1.7, du taux de croissance de B.1.1.7 et du taux de croissance des autres variants.

Ce qui intéresse Gaymard et al. (2021), cependant, c’est le rapport entre le nombre de reproduction R_v de B.1.1.7 et le nombre de reproduction R_h de la souche historique. Dans leur modèle, ils supposent que R_v = (1 + \alpha)R_h, c’est-à-dire que B.1.1.7 a un avantage de transmissibilité constant de 100\alpha pour cent. Ainsi, l’hypothèse que B.1.1.7 a un avantage de transmissibilité constant n’est pas une conclusion obtenue à partir de l’analyse des données, c’est leur hypothèse de départ. C’est un point très important, car cette hypothèse n’est pas évidente a priori et, comme nous le verrons, il y a de très bonnes raisons de douter qu’elle soit vraie. Mais si cette hypothèse est fausse, alors même si toutes les autres hypothèses de leur modèle étaient vraies (ce qui, comme nous le verrons bientôt, n’est absolument pas le cas), leurs résultats ne valent rien. Quoi qu’il en soit, puisqu’ils s’intéressent à R_h et R_v, Gaymard et al. doivent trouver un moyen de relier ces quantités à l’équation gouvernant p(t). Cela est possible si on connaît la distribution du temps de génération (c’est-à-dire le temps entre le moment où une personne est infectée et le moment où elle infecte quelqu’un d’autre), car il est possible de déduire le taux de croissance de l’épidémie si l’on connaît le nombre de reproduction ainsi que la moyenne et l’écart-type du temps de génération.

Ainsi, Gaymard et al. ont supposé que B.1.1.7 et la souche historique croissaient tous deux exponentiellement à un taux déterminé par leur nombre de reproduction, ainsi que le temps de génération de SARS-CoV-2. Afin d’estimer l’avantage de transmissibilité de B.1.1.7, ils ont supposé que R_h était resté constant et égal à 1 depuis le début de l’année et que la distribution du temps de génération avait une moyenne de 6,5 jours et un écart type de 4 jours. (Ils ont également essayé avec des valeurs de 0,9 et 1,1 pour R_h et avec une moyenne de 5,5 jours et un écart type de 3,4 jours pour le temps de génération.) Une fois ces hypothèses faites, pour prédire comment la prévalence de B.1.1.7 allait évoluer dans le temps, il suffisait d’estimer p_0 et \alpha. Les autorités sanitaires françaises ont mené une enquête pour déterminer la prévalence de B.1.1.7 les 7 et 8 janvier, puis à nouveau le 27 janvier. Gaymard et al. ont utilisé les estimations de la prévalence de B.1.1.7 à ces dates pour calibrer le modèle à l’aide une technique statistique appelée la méthode de Monte Carlo par chaînes de Markov afin d’estimer p_0 et \alpha. Vous pouvez voir la méthode de Monte Carlo par chaînes de Markov comme une série d’essais utilisant de nombreuses valeurs possibles de p_0 et \alpha afin de calculer comment p(t) aurait évolué dans le temps pour ces valeurs, toutes les autres hypothèses du modèle étant fixées, afin de déterminer quel couple de valeurs permet de coller aux plus près de la véritable évolution de la prévalence de B.1.1.7.

Voici la figure de l’article qui résume les résultats qu’ils ont obtenus avec cette méthode :Comme vous pouvez le constater, dans leur scénario central (R_h égal à 1, temps de génération moyen de 6,5 jours), l’avantage de transmissibilité de B.1.1.7 est estimé à 59 %. (Au cas où vous vous poseriez la question, 501Y.V1 n’est qu’un autre nom pour B.1.1.7.) Comme le montre la figure D, la prévalence de B.1.1.7 prédite pour le début du mois de février par le modèle ajusté sur les données de janvier était très proche des données qui n’avaient pas été utilisées pour calibrer le modèle. Dans leurs analyses de sensibilité, ils ont essayé différentes hypothèses sur le temps de génération et sa moyenne (y compris un scénario dans lequel le temps de génération était plus long pour B.1.1.7 que pour la souche historique), mais dans tous les cas le modèle a trouvé un avantage de transmissibilité très important. La fourchette de 50% à 70% est apparemment obtenue en regardant les différentes estimations qu’ils obtiennent dans chacun des 6 scénarios qu’ils ont essayés.

Il est vrai que, si on regarde juste ce graphique, cette conclusion semble assez convaincante. Elle signifie que R va beaucoup augmenter au fur et à mesure que la prévalence de B.1.1.7 augmente, ce qui explique pourquoi de nombreux épidémiologistes ont demandé un confinement strict afin d’éviter que l’épidémie ne devienne incontrôlable. Cependant, en y regardant de plus près, tout l’édifice s’écroule assez rapidement. D’abord, même si nous admettons qu’un modèle simple de croissance exponentielle est adapté (ce qui, comme nous le verrons, n’est absolument pas le cas), leurs analyses de sensibilité ne le sont clairement pas. En particulier, il est intéressant de s’attarder sur le choix de la moyenne et de l’écart-type du temps de génération, car, comme nous le verrons, les résultats y sont très sensibles. (Encore une fois le temps de génération est le temps qui s’écoule entre le moment où une personne est infectée et le moment où elle infecte quelqu’un d’autre). Comme nous l’avons vu, dans leur scénario central, ils ont supposé une moyenne de 6,5 jours et un écart type de 4 jours. Pour justifier ce choix, ils citent cet article sur la transmission de B.1.1.7 en Angleterre fin 2020, qui lui-même cite l’article tristement célèbre de Flaxman et al. sur l’effet des interventions non-pharmaceutiques en Europe pendant la première vague. (Si ça vous intéresse, j’ai déjà décortiqué cet article, qui est probablement l’étude la plus citée sur l’effet des interventions non-pharmaceutiques, dans un autre billet il y a quelques mois). Cependant, Flaxman et al. n’ont même pas utilisé une estimation de la distribution du temps de génération, mais l’ont plutôt approximée avec une estimation de la distribution de l’intervalle sériel qu’ils ont trouvé dans cette étude basée sur les premières données chinoises, qui a estimé une moyenne de 6,3 jours et un écart type de 4,2 jours.

L’intervalle sériel est le temps qui s’écoule entre l’apparition des symptômes chez l’infecteur et l’apparition des symptômes chez la personne infectée, donc ce n’est pas la même chose que le temps de génération. Il est vrai que, tant que les périodes d’incubation des infecteurs et des infectés dans une paire de transmission sont indépendantes et distribuées de manière identique (ce qui est une hypothèse raisonnable), elles ont la même moyenne, mais le temps de génération a généralement un écart type plus faible. Le temps de génération est très difficile à estimer car il se réfère à des événements non observables, c’est pourquoi les gens utilisent souvent des estimations de l’intervalle sériel pour l’approcher, mais une fois encore, il s’agit de concepts différents. De plus, en partie parce que c’est difficile à faire, très peu d’études ont tenté d’estimer le temps de génération du SARS-CoV-2. Je n’en ai trouvé que 5, pour un total de 7 estimations différentes, qui présentent une grande hétérogénéité. (J’ai créé un répertoire sur GitHub avec le code des analyses que j’ai effectuées ici, où vous pourrez également trouver la liste des références). Les moyennes vont de 2,82 jours à 5,5 jours, tandis que les écarts types vont de 1,51 jour à 2,96 jours. En d’autres termes, non seulement il y a très peu d’estimations de la distribution du temps de génération, mais elles sont très dispersées.

On trouve plus d’estimations de l’intervalle sériel, ce qui est toujours une information utile même si vous êtes intéressé par le temps de génération puisque, comme nous l’avons vu, ils ont la même moyenne et l’écart type de l’intervalle sériel fournit une borne supérieure pour celui du temps de génération. Une méta-analyse récente a trouvé 23 estimations de l’intervalle sériel. Les moyennes vont de 4,2 jours à 7 jours, tandis que les écarts types vont de 0,95 à 5,8. (Une autre méta-analyse sur laquelle je reviendrai prochainement a trouvé des moyennes allant de 3,95 jours à 7,5 jours, mais les auteur sont eux-mêmes estimé un intervalle sériel de 2,09 jours en utilisant les données recueillies par Public Health England). Ainsi, que nous examinions les estimations publiées du temps de génération ou de l’intervalle sériel, la moyenne choisie par Gaymard et al. se situe dans la partie haute. Or comme nous le verrons, l’hypothèse d’un temps de génération plus long entraîne un avantage de transmissibilité plus élevé pour B.1.1.7. Bien qu’il soit plus facile d’estimer l’intervalle sériel que le temps de génération, car contrairement à l’infection, l’apparition des symptômes est un événement observable, cela reste extrêmement difficile et ces estimations doivent être utilisées avec une grande précaution. En effet, non seulement elles sont généralement basées sur de très faibles échantillons (typiquement quelques dizaines de personnes), mais les données sont habituellement de très mauvaise qualité. Par exemple, les chercheurs doivent se fier à la mémoire des personnes pour déterminer le moment de l’apparition des symptômes, ce qui n’est généralement pas fiable en raison du biais de rappel. Les échantillons ne sont probablement pas non plus représentatifs, ne serait-ce que parce que les cas asymptomatiques sont sous-représentés.

Pire encore, que ce soit pour le temps de génération ou l’intervalle sériel, les estimations sont presque exclusivement basées sur des données chinoises qui remontent au début de la pandémie. Ceci est problématique pour au moins 2 raisons. Premièrement, nous sommes intéressés par le temps de génération en France, mais il n’y a aucune raison qu’il soit le même qu’en Chine. De fait, la littérature suggère qu’il y a de très grandes différences entre les pays. Deuxièmement, même au sein d’un même pays, il n’y a aucune raison de penser que la distribution du temps de génération reste constante au cours du temps et, au contraire, il y a même d’excellentes raisons de penser qu’elle a diminué au cours du temps. Par exemple, il y a eu une pénurie de tests dans les premiers mois de la pandémie, mais au fur et à mesure que leur disponibilité s’est accrue, il est devenu plus facile pour les gens de découvrir qu’ils avaient été infectés et ils ont pu s’isoler plus rapidement, ce qui a vraisemblablement réduit le temps de génération puisqu’une fois isolés, les gens ont moins d’occasions d’infecter d’autres personnes. Cette hypothèse trouve un certain soutien empirique dans une étude qui a conclu qu’après l’introduction d’interventions non-pharmaceutiques en Chine, la moyenne de l’intervalle sériel est passée de 7,8 jours à 2,2 jours. (La méta-analyse citée plus haut n’inclut pas cet article, mais elle inclut un autre article par certains de ses co-auteurs qui a trouvé une moyenne de 5 jours, probablement parce qu’il regroupe des personnes des deux périodes). Ainsi, non seulement l’hypothèse faite par Gaymard et al. sur la moyenne du temps de génération se situe dans la partie haute des estimations publiées, mais ces estimations surestiment probablement le temps de génération en France en 2021. Ceci est également vrai pour la moyenne de 5,5 jours qu’ils ont utilisée pour leur analyse de sensibilité.

Quelles hypothèses Gaymard et al. auraient-ils donc dû faire concernant la distribution du temps de génération ? Il n’y a pas de réponse facile à cette question, mais une chose que nous pouvons dire avec certitude est qu’ils n’auraient pas dû supposer une moyenne de 6,5 jours et un écart-type de 4 jours. En effet, étant donné la gamme d’estimations que l’on trouve dans la littérature, cette moyenne et cet écart-type semblent bien trop élevés pour être utilisés comme la meilleure estimation disponible pour modéliser la transmission. Même une moyenne de 5,5 jours, qu’ils ont utilisée dans une analyse de sensibilité, semble trop élevée, surtout si l’on garde à l’esprit ce que j’ai dit sur le fait que le temps de génération en France actuellement est probablement beaucoup plus court que pendant la période où les données utilisées pour déterminer les estimations dans la littérature ont été recueillies. Une chose que nous pourrions faire est d’utiliser l’estimation de la distribution du temps de génération trouvée dans Challen et al. (2020), une méta-analyse que j’ai déjà mentionnée ci-dessus, qui in fine est basée sur ce qu’ils ont considéré comme étant la meilleure estimation de la distribution de la période d’incubation ainsi que sur leur estimation méta-analytique de la distribution de l’intervalle sériel. La distribution résultante a une moyenne de 4,8 jours et un écart type de 1,7 jours.

Comme d’habitude, Gaymard et al. n’ont pas publié leur code, mais de surcroît ils n’ont pas répondu à un email que je leur ai écrit pour leur demandant s’ils pouvaient me l’envoyer. J’ai cependant pu reproduire leurs résultats en implémentant un modèle similaire à celui qu’ils ont décrit dans les annexes de leur article. (Je pense que tout le monde devrait publier son code en même temps que son article, et que les personnes qui ne le font pas devraient être systématiquement mises à l’index, mais c’est particulièrement inacceptable lorsque les auteurs sont payés avec mes impôts et ne répondent même pas aux emails dans lesquels je leur demande poliment le code). En particulier, lorsque je suppose un R égal à 1 pour la souche historique, une moyenne de 6,5 jours et un écart-type de 4 jours pour le temps de génération (comme dans leur scénario central), j’estime l’avantage de transmissibilité du B.1.1.7 à environ 59%, soit la même valeur que Gaymard et al. rapportent dans leur article. De plus, j’obtiens également les mêmes résultats lorsque j’effectue les mêmes analyses de sensibilité, donc je suis assez certain qu’il n’y a pas de différence majeure entre le modèle que j’ai implémenté et le leur. Mais que se passe-t-il si j’utilise le même modèle mais que je suppose une moyenne de 4,8 jours et un écart type de 1,7 jours pour le temps de génération ? Sous ces hypothèses, en gardant R égal à 1 pour la souche historique, l’avantage de transmissibilité du B.1.1.7 tombe à 44%. (En faisant quelques hypothèses simplificatrices, il est facile de prouver analytiquement que l’avantage de transmissibilité du B.1.1.7 est positivement lié à la moyenne de la distribution du temps de génération, même l’on suppose que cette distribution est identique pour le B.1.1.7 et la souche historique. J’esquisse la preuve dans les commentaires de mon code sur GitHub si ça vous intéresse). Ainsi, comme vous pouvez le voir, faire des hypothèses plus réalistes sur la distribution du temps de génération a entraîné une réduction substantielle de l’estimation de l’avantage de transmissibilité du B.1.1.7.

Mais même si c’est mieux que ce que Gaymard et al. ont fait, je pense qu’il n’est toujours pas idéal d’utiliser l’estimation de la distribution du temps de génération fournie par Challen et al., parce qu’en fin de compte, elle est basée sur les estimations de l’intervalle sériel et de la période d’incubation publiées dans la littérature. Or, comme nous l’avons vu, non seulement ces estimations ne sont sans doute pas très bonnes, même pour la phase initiale de la pandémie en Chine (d’où proviennent la plupart des données utilisées pour obtenir ces estimations), mais il y a de très bonnes raisons de penser que, même si elles l’étaient, elles ne s’appliqueraient pas à la situation actuelle en France. La vérité est que nous n’avons aucune idée de la distribution du temps de génération en France ou dans la plupart des autres pays. La moyenne et l’écart-type pourraient se situer n’importe où dans la fourchette des estimations publiées et même en dehors de celle-ci. Nous ne le savons tout simplement pas, et même une méta-analyse n’est pas particulièrement utile, car elle regroupe des estimations basées sur des données recueillies pendant la phase initiale de la pandémie en Chine et dans une demi-douzaine d’autres endroits. Compte-tenu de cette incertitude, même si Gaymard et al. n’avaient pas fait des hypothèses qui se situent à l’extrémité haute des estimations publiées, il aurait été fondamentalement peu sérieux d’essayer seulement 2 versions différentes de la distribution du temps de génération. Malheureusement, Gaymard et al. ne sont pas exceptionnels à cet égard, puisque c’est plus ou moins ce que font la plupart des épidémiologistes pour modéliser la transmission. Mais le fait que la plupart des épidémiologistes le fassent n’implique pas pour autant que ce n’est pas un problème, cela signifie simplement que la littérature épidémiologique sur le SARS-CoV-2 sous-estime systématiquement la véritable incertitude.

Selon moi, étant donné l’incertitude sur la distribution du temps de génération qui prévalait en France au début de 2021, la seule approche raisonnable est de faire des analyses de sensibilité beaucoup plus systématiques que ne l’ont fait Gaymard et al. et d’essayer un large éventail de valeurs possibles pour les paramètres de cette distribution. J’ai donc estimé 3 x 41 x 16 = 1968 versions différentes de leur modèle. J’ai essayé toutes les valeurs entre 3 et 7 jours pour la moyenne de la distribution du temps de génération par incréments de 0,1 jour, toutes les valeurs entre 1,5 et 3 jours pour l’écart type de cette même distribution par incréments de 0,1 jour et chacune des 3 valeurs de R pour la souche historique que Gaymard et al. ont essayées. J’ai tracé un histogramme, sur lequel j’ai superposé une courbe de densité, qui résume les résultats :Comme vous pouvez le constater, sur la base de cette analyse, l’estimation de la transmissibilité du B.1.1.7 pourrait se situer entre 21% et 72%. C’est beaucoup plus large que la fourchette de 50% à 70% que Gaymard et al. ont rapportée, non seulement dans leur article mais également dans les médias. Si j’ai pu faire cela sur mon MacBook Pro de 2014, ils auraient certainement pu le faire sur les ordinateurs bien plus puissants dont ils disposent dans leurs laboratoires de recherche. Il n’y a donc absolument aucune excuse pour faire l’analyse de sensibilité bâclée dont eux, tout comme les relecteurs de leur article, se sont satisfaits.

Comme nous l’avons vu, Gaymard et al. ont utilisé un modèle simple de croissance exponentielle, ce qui revient à supposer que la souche historique et B.1.1.7 ont crû à un taux constant pendant toute la période de l’étude. Cela a été peut-être à peu près vrai en janvier, même si on peut en douter, mais ce n’est certainement pas le cas depuis. Une façon de s’en rendre compte est de tracer la prédiction du modèle pour la prévalence de B.1.1.7 dans le temps et d’utiliser les dernières données sur les variants pour comparer cette prédiction à ce qui s’est réellement passé : Comme vous pouvez le constater, la prédiction du modèle a collé étroitement à la réalité pendant un certain temps, mais cela a fini par cesser d’être le cas car la prévalence du B.1.1.7 n’a pas augmenté aussi vite que prévu par le modèle en mars.

C’est encore plus clair si on trace l’incidence prédite par le modèle et qu’on la compare à l’incidence réelle pendant la même période, c’est-à-dire au nombre total de cas en France. Voici ce que cela donne lorsque je fais les mêmes hypothèses que Gaymard et al. dans leur scénario central :Comme vous pouvez le constater, alors que le modèle prédisait assez bien l’augmentation de la prévalence du B.1.1.7 jusqu’en mars, l’incidence prédite a quant à elle commencé à s’écarter de la réalité dès le début du mois de février et a fini par être complètement à côté de la plaque. En effet, le modèle prévoyait que l’incidence augmenterait de manière exponentielle et qu’il y aurait 1er avril plus de 500 000 cas par jour, ce qui n’est clairement pas le cas.

Ceci est en partie dû au fait que Gaymard et al. ont supposé une valeur particulière pour le nombre de reproduction de la souche historique au lieu de l’estimer à partir des données et qu’ils ont de fait ajusté leur modèle à la prévalence du B.1.1.7 au lieu de son incidence. Mais c’est surtout dû au fait que ni B.1.1.7 ni la souche historique n’ont crû à un taux constant pendant cette période. Nous le savons parce qu’en utilisant une relation approximative entre le taux de croissance de l’incidence et le nombre de reproduction effectif de l’épidémie, il est possible d’estimer le nombre de reproduction effectif due B.1.1.7 à différents instants et de voir comment il a changé à mesure que la prévalence de cette souche augmentait :La valeur précise de R dépend de l’hypothèse qu’ont fait sur le temps moyen de génération, mais en admettant que la distribution du temps de génération soit restée approximativement inchangée en France depuis le début de l’année (une hypothèse raisonnable), nous trouverons toujours une tendance à la baisse quelle que soit l’hypothèse que nous faisons sur la distribution du temps de génération. En effet, même en tenant compte du fait que la qualité des données n’est pas excellente et que nous ne savons pas vraiment quel est le temps de génération moyen, il est clair que le nombre de reproduction effectif de B.1.1.7 a diminué de manière significative en France depuis le début de l’année.

Si cela n’avait pas été le cas, étant donné que la prévalence de B.1.1.7 est passée de 3% environ au début de l’année à plus de 80% maintenant, le nombre de reproduction effectif total (toutes souches confondues) aurait énormément augmenté. En effet, comme le montre le panneau E du graphique dans le papier de Gaymard et al. que j’ai reproduit plus haut, leur modèle prédisait qu’il devait augmenter de plus de 50% entre le début de l’année et maintenant. Mais comme vous pouvez le voir, ce n’est pas ce qui s’est passé :Au lieu d’augmenter de façon monotone au fur et à mesure que la prévalence du B.1.1.7 augmentait, le nombre de reproduction total a oscillé autour de 1 pendant la majeure partie de cette période. Et bien qu’il ait augmenté récemment, il n’est pas plus élevé qu’il ne l’était au début du mois de janvier, et il n’est certainement pas aussi élevé que ce que le modèle de Gaymard et al. avait prédit.

Malheureusement, parce qu’on leur a inculqué que les épidémies suivent toujours une croissance exponentielle, la plupart des gens n’ont pas conscience de ce fait et pensent que le B.1.1.7 se croît au même rythme depuis le début de l’année, ce qui aurait été masqué pendant un certain temps par la chute de la souche historique, mais serait sur le point d’entraîner une augmentation catastrophique de l’incidence. (Cette croyance n’est guère propre aux commentateurs français, mais est également répandue aux États-Unis, où le nombre d’articles comme celui-ci qui mettent en garde contre le malheur imminent que le B.1.1.7 et les autres variants vont apporter est sans doute la seule chose qui connaisse une croissance exponentielle en ce moment.) Ce qui est plus surprenant, c’est que même certains épidémiologistes professionnels, comme Dominique Costagliola, semblent le croire et sont en fait largement responsables de l’omniprésence de ce mythe dans les médias. (Costagliola n’est pas n’importe quel épidémiologiste, mais a reçu le Grand Prix de l’Inserm, la principale institution française de recherche médicale, en 2020. Il est intéressant de noter qu’elle n’a pas répondu lorsque je lui ai proposé de parier de l’argent sur la capacité de ce modèle à prédire l’incidence, donc elle n’est peut-être pas aussi à la ramasse qu’elle en a l’air. Néanmoins, il est incroyable qu’elle n’ait aucun scrupule à demander à ce que 67 millions de personnes soient enfermées chaque fois qu’elle parle aux médias, mais qu’elle ne veuille même pas parier quelques centaines d’euros que le modèle qu’elle semble utiliser pour faire cette recommandation n’est pas complètement faux). Pourtant, comme nous l’avons vu, non seulement ce récit est faux, mais il suffit de quelques minutes pour montrer qu’il est erroné, puisqu’il suffit de tracer le taux de croissance du B.1.1.7 dans le temps pour ce faire.

Ironiquement, si B.1.1.7 avait vraiment connu une croissance exponentielle en France depuis le début de l’année, cela signifierait qu’il a un avantage de transmissibilité beaucoup plus faible que celui estimé par Gaymard et al. en utilisant uniquement les données de janvier. En effet, si je pars d’un modèle simple de croissance exponentielle, mais que je le calibre avec les données d’incidence par variant jusqu’à fin mars et que j’estime R pour la souche historique à partir des données au lieu de faire une hypothèse gratuite à son sujet, je trouve que B.1.1.7 n’est que 27% plus transmissible que la souche historique avec un temps de génération moyen de 4,8 jours et un écart-type de 1,7. Encore une fois, nous ne savons pas exactement quelle est la distribution du temps de génération et cette estimation méta-analytique n’est elle-même pas très fiable, alors voici à quoi ressemble la fourchette d’estimations lorsque je fais tourner 41 x 16 = 656 versions différentes du modèle couvrant le même espace de paramètres que précédemment :Comme vous pouvez le constater, selon les hypothèses faites sur les paramètres de la distribution du temps de génération, l’avantage de transmissibilité de B.1.1.7 pourrait se situer entre 16% et 42% si nous supposons un modèle simple de croissance exponentielle. Ainsi, bien que les personnes qui insistent sur le fait que le B.1.1.7 a suivi une croissance exponentielle depuis le début de l’année ne s’en rendent manifestement pas compte, cette affirmation est en fait incompatible avec la valeur qu’ils ressassent également à longueur de journée, à savoir qu’il serait entre 50% et 70% plus transmissible que la souche historique. Bien sûr, ce modèle est faux, et aurait des performances très mauvaises s’il était utilisé pour prédire le cours de l’épidémie, mais c’est ce que vous devriez logiquement dire au sujet de l’avantage de transmissibilité du B.1.1.7 si vous pensiez vraiment qu’il a connu une croissance exponentielle depuis le début de l’année.

La plupart des épidémiologistes voient probablement bien que B.1.1.7 n’a pas crû exponentiellement, mais ils prétendent que la catastrophe qu’ils avaient prédite n’a été que reportée grâce au fait que le couvre-feu a été avancé de 20h à 18h le 16 janvier, à moins qu’ils attribuent la non-réalisation de leurs prédictions à un autre deus ex machina comme les vacances scolaires de février. Voici ce que Simon Cauchemez, l’un des co-auteurs de Gaymard et al. (2021), a déclaré au Monde lors de l’interview que j’ai mentionnée ci-dessus :

Comment expliquer le plateau épidémique actuel ?

Une des difficultés qui persistent pour les modélisateurs est d’anticiper les effets, sur les taux de transmission, de mesures qui n’ont jamais été prises avant, comme les couvre-feux actuels. Nous sommes obligés de raisonner par analogie avec des mesures prises précédemment, comme lors des premier et deuxième confinements et les effets qu’elles ont eus sur la transmissibilité. Et même ce raisonnement par analogie trouve ses limites, car l’adhésion de la population est un facteur important qui peut changer au cours du temps.

Par exemple, en janvier, avec la mise en place des premiers couvre-feux, les données que nous avions sur la mobilité montraient que ces mesures n’avaient pas l’air de changer grand-chose. En tout cas cela changeait moins que durant les couvre-feux d’octobre 2020. On s’inquiétait donc d’un faible impact. On voit maintenant que le couvre-feu démarré en janvier a permis de réduire de façon assez importante le taux de transmission du virus historique, conduisant à un plateau des hospitalisations dans la deuxième moitié de janvier. On a même vu une légère diminution des hospitalisations pendant la première quinzaine de février. Cela suggère une réduction encore plus importante des taux de transmission sur cette période, ce qui était une surprise, car les mesures de contrôle n’ont pas vraiment changé à ce moment.

Comment l’expliquer ?

Peut-être par l’effet combiné du couvre-feu, des vacances, d’un effet « grand froid » ou bien une reprise des précautions et un réajustement des comportements, car on parlait alors beaucoup de reconfinement « dur ». Malheureusement, les taux de transmission sont depuis repartis à la hausse.

Comme vous pouvez le constater, à aucun moment il ne remet en question la conclusion de leur étude, à savoir que B.1.1.7 a un avantage constant de transmissibilité de 50 à 70% par rapport à la souche historique. Il se contente de donner diverses explications ad hoc pour expliquer pourquoi l’explosion qu’ils avaient prédite ne s’est pas produite et suggère que l’augmentation actuelle de l’incidence, qui n’a rien à voir avec ce que les épidémiologistes prévoyaient à la fin du mois de janvier, prouve qu’ils avaient en fait raison.

Les épidémiologistes ne réservent pas ce genre d’arguments aux médias auxquels ils s’adressent, ils y ont aussi recours dans leurs publications scientifiques. Par exemple, dans un article dont les conclusions ont été présentées par l’un des auteurs lors d’une conférence de presse organisée par le gouvernement français le 18 février, une autre équipe de l’Inserm a soutenu que le couvre-feu de janvier et les vacances scolaires de février avaient empêché l’explosion, mais qu’il ne s’agissait que d’un répit temporaire, car le nombre de reproduction effectif allait rapidement augmenter avec la réouverture des écoles entre fin février et début mars :

Face au variant B.1.1.7, la distanciation sociale a été renforcée en France en janvier 2021. En utilisant un modèle mathématique à 2 souches calibré sur la surveillance génomique, nous avons estimé que les mesures de couvre-feu ont permis de stabiliser les hospitalisations, en diminuant la transmission de la souche historique tandis que B.1.1.7 continuait de progresser. Les vacances scolaires semblent avoir encore ralenti la progression en février. Sans un renforcement progressif de la distanciation sociale, on s’attend à une recrudescence rapide des hospitalisations, malgré l’augmentation prévue du rythme de vaccination.

Nombreux sont ceux qui vont penser que cet article montre que, même si l’avancement du couvre-feu à 18 heures le 16 janvier n’a pas été associé à une réduction soudaine du nombre de reproduction, il a malgré tout eu un effet très important sur la transmission, de même que les vacances scolaires de février. Mais il n’en est rien.

Il est difficile de savoir exactement ce qu’ils ont fait, puisque, une fois de plus, ils n’ont pas publié leur code et que, lorsque j’ai envoyé un courriel à l’auteur en charge de répondre aux question des lecteurs pour lui demander si elle pouvait me l’envoyer, elle n’a pas répondu. (Si cela commence à ressembler à une habitude chez les épidémiologistes français payés sur les deniers publics, c’est parce que ça l’est et c’est comme ça depuis le début de la pandémie). Cependant, le modèle est apparemment basé sur celui utilisé dans une autre publication de l’année dernière et dont le code est disponible. Il est donc possible d’avoir une idée approximative de ce qu’ils ont fait. Je ne discuterai pas des détails de leur modèle car cela n’a pas d’importance, mais voici ce que vous devez comprendre. Tout d’abord, le modèle suppose que le B.1.1.7 a un avantage de transmissibilité constant sur la souche historique de 60% (ils ont également essayé 50% et 70% pour évaluer la sensibilité), ce qu’ils justifient en citant Gaymard et al. (2021) et des études antérieures basées sur des données britanniques. Ainsi, l’avantage de transmissibilité de B.1.1.7 n’est pas estimé à partir des données, mais l’hypothèse de base est qu’il a une valeur particulière et constante. De plus, le modèle suppose que seuls le couvre-feu ou les vacances scolaires ont pu affecter la transmission. Donc, en gros, ce qu’ils ont fait, c’est utiliser un modèle qui repose sur ces hypothèses pour estimer l’effet que le couvre-feu et les vacances scolaires ont dû avoir pour que le modèle et les données observées correspondent au mieux. Comme l’explosion prévue par la même équipe à la fin du mois de janvier ne s’est pas produite, le modèle en a conclu que les vacances scolaires de février et, plus encore, l’avancement du couvre-feu à 18 heures le 16 janvier ont eu un effet très important sur la transmission, ce qui n’est pas surprenant puisque c’étaient les seuls paramètres ajustables dans le modèle pour s’adapter aux données !

J’ai pu reproduire ce résultat avec un modèle plus simple qui fait les mêmes hypothèses, mais au lieu de partir de l’hypothèse que le B.1.1.7 était 60% plus transmissible, j’ai demandé au modèle d’estimer cet avantage de transmissibilité à partir des données. (Je n’entrerai pas dans les détails du modèle, mais en gros j’ai utilisé une version discrète d’un modèle SIR dans lequel le couvre-feu et les vacances scolaires sont supposés modifier instantanément R, que j’ai estimé par MCMC avec des priors faiblement informatifs pour les paramètres qu’on cherche à estimer. Je n’ai pas essayé de modéliser l’impact de la vaccination sur la transmission, mais cela ne devrait pas changer grand-chose, car malheureusement la France a vacciné à un rythme très lent de toute façon. Je n’ai pas non plus modélisé l’effet de l’immunité induite par infection naturelle, mais cela n’aurait pas fait une grande différence dans un modèle avec un mélange homogène de populations. Si vous voulez en savoir plus, je vous invite à consulter le code). Voici une figure qui résume les résultats lorsque je suppose que la distribution du temps de génération a une moyenne de 4,8 jours et un écart type de 1,7 jours :Comme vous pouvez le constater, ce modèle trouve que l’avancement du couvre-feu à 18 heures a eu un impact énorme sur la transmission, tandis que les vacances scolaires ont eu un effet significatif bien que plus faible. (Les 3 zones scolaires ne sont pas en vacances en même temps, c’est pourquoi l’effet des vacances scolaires en février ne se produit pas en une seule fois). Le modèle estime que B.1.1.7 a un avantage de transmissibilité de 35%, ce qui est encore une fois nettement inférieur à l’estimation de 59% de Gaymard et al. Enfin, le modèle estime que le couvre-feu a réduit la transmission de 25%, tandis que les vacances scolaires de février l’auraient réduite de moins de 10% quand les écoles étaient fermées dans les 3 zones.

Pour être clair, bien que les épidémiologistes présentent couramment ce genre d’analyse comme si elles étaient très sérieuses, c’est complètement ridicule. Je ne me suis livré à cet exercice que pour montrer que, même en acceptant leurs hypothèses, l’évaluation de l’avantage de transmissibilité de B.1.1.7 est inférieure à ce que Gaymard et al. ont trouvé en calibrant un modèle simple de croissance exponentielle sur 2 points mesurés en janvier. Si vous croyez vraiment que le fait d’avancer le couvre-feu de 20h à 18h a réduit la transmission de 25%, j’espère que vous redescendrez bientôt sur terre, car vous nous manquez ici bas. Comme je l’ai expliqué dans ma critique de Flaxman et al. (2020) et plus récemment dans mon plaidoyer contre les confinements, le problème fondamental de ce type de modèle est qu’il suppose que, en sus de l’immunité, les seuls événements ayant une influence sur la transmission sont les mesures gouvernementales ou des événements identifiés tels que les vacances scolaires. Or nous savons pertinemment que c’est faux. La transmission est affectée par bien plus de facteurs que les interventions gouvernementales ou les vacances scolaires, notamment par les modifications volontaires du comportement des personnes en réponse aux changements des conditions épidémiques, qui comme je le dis depuis des mois nous avons toutes les raisons de penser ont un effet bien plus important que les interventions gouvernementales. Le résultat est que, si vous dites à un modèle que seules les interventions gouvernementales affectent la transmission et que, dans les faits, l’incidence ne continue pas à croître exponentiellement jusqu’au seuil d’immunité collective (ce qu’elle ne fait jamais), le modèle va attribuer l’interruption de la croissance aux interventions gouvernementales parce qu’il n’y a rien d’autre à quoi il pourrait l’attribuer, mais cela ne prouve évidemment rien. Le fait que les épidémiologistes prennent ce genre de résultats au sérieux en dit long sur la fumisterie que constitue leur discipline.

En outre, ce modèle suppose que l’avantage de transmissibilité de B.1.1.7 est constant, comme nous pouvons le voir en représentant l’évolution du nombre de reproduction effectif de B.1.1.7 et des autres variants d’après le modèle :Les courbes verte et rouge sont parallèles, ce qui indique que, dans ce modèle, B.1.1.7 a un avantage de transmissibilité constant sur les autres variants. Mais comme nous le verrons, ce n’est pas le cas.

Je n’ai pas fait d’analyse de sensibilité approfondie en essayant des centaines d’hypothèses sur la moyenne et l’écart type du temps de génération, parce que ce modèle est plus exigeant en termes de calcul qu’un modèle simple de croissance exponentielle. Cela aurait pris plusieurs jours sur mon ordinateur portable, mais je n’ai pas besoin de le faire pour déterminer la fourchette des estimations puisque l’avantage de transmissibilité du B.1.1.7 augmente de façon monotone avec la moyenne du temps de génération et diminue de façon monotone avec l’écart type. Ainsi, en estimant le modèle avec une moyenne de 3 jours et un écart-type de 3 jours pour la distribution du temps de génération d’une part, et une moyenne de 7 jours et un écart type de 1,5 jours d’autre part, je peux dire que si j’avais effectué une analyse de sensibilité couvrant le même espace de paramètres que précédemment, j’aurais trouvé que l’avantage de transmissibilité du B.1.1.7 se situe quelque part entre 22% et 53% selon ce modèle. Encore une fois, les hypothèses faites sur la distribution du temps de génération ont un effet substantiel sur l’estimation de l’avantage de transmissibilité du B.1.1.7, mais dans presque toutes les versions du modèle, l’estimation est nettement inférieure à la limite inférieure de la fourchette donnée par Gaymard et al.

Nous pourrions essayer d’estimer les paramètres de la distribution du temps de génération directement à partir des données au lieu de faire des hypothèses à leur sujet, mais ce serait un gaspillage d’électricité puisque, comme je vais le démontrer ci-après, tout cet exercice est complètement inutile car il repose sur l’hypothèse que B.1.1.7 a un avantage de transmissibilité constant sur la souche historique et cette hypothèse est fausse. Avant de montrer cela, cependant, je veux essayer une autre approche pour estimer l’avantage de transmissibilité de B.1.1.7 en supposant que celui-ci est constant. Comme nous venons de le voir, les épidémiologistes procède en modélisant la transmission, ce qui exige qu’ils fassent des hypothèses fortes au-delà de l’hypothèse d’un avantage de transmissibilité constant et des hypothèses sur la distribution du temps de génération. Mais une autre possibilité est d’utiliser des méthodes économétriques pour estimer l’avantage de transmissibilité du B.1.1.7 en regardant la corrélation entre la prévalence de B.1.1.7 dans un département et le nombre de reproduction effectif dans ce département. Il y a 96 départements en France métropolitaine et nous disposons de 6 semaines de données sur les variants. Nous connaissons donc la prévalence moyenne de B.1.1.7 par département pour chaque semaine et nous pouvons facilement calculer la croissance de l’incidence dans un département d’une semaine à l’autre. À partir de ces taux de croissance hebdomadaires, en supposant une valeur particulière pour la moyenne de la distribution du temps de génération, nous pouvons obtenir une approximation de R à chaque période de temps et dans chaque département.

Voici à quoi cela ressemble lorsqu’on représente R en fonction de la prévalence de B.1.1.7 :Comme vous pouvez le voir, la valeur de R dans un département est associée positivement à la prévalence de B.1.1.7 dans ce département, ce qui est bien ce que l’on attendrait si B.1.1.7 avait un avantage de transmissibilité par rapport aux autres variants.

Cependant, cela pourrait facilement être trompeur, donc on ne peut pas en tirer de conclusion. Par exemple, cette association pourrait être due au fait que R et la prévalence de B.1.1.7 aient augmenté en parallèle au cours du temps, même s’il n’y a aucune association, voire une association inverse, au cours des périodes considérées. De fait, en faisant la même chose que ci-dessus mais en examinant chaque période séparément, le résultat suggère que cette possibilité pourrait bien être une réalité :À l’exception de la période allant de la semaine 7 à la semaine 8, il ne semble pas y avoir d’association entre R et la prévalence de B.1.1.7. Ce n’est pas dû à un manque de variation dans les données, puisqu’il y a beaucoup de variation à chaque période.

Dans l’espoir de résoudre ce problème, nous pouvons estimer différentes versions du modèle suivant :

log(R_{i,t}) = \beta{}p_{i,t} + \Delta_t + \gamma_i + \epsilon_{i,t}

R_{i,t} est le nombre de reproduction effectif dans le département i pendant la période t, p_{i,t} est la prévalence de B.1.1.7 dans le département i pendant la période t, \Delta_t est un effet fixe de période, \gamma_i est un effet fixe de département et \epsilon_{i,t} est un terme d’erreur aléatoire. Ne vous inquiétez pas si vous ne comprenez pas ce que cela signifie, c’est moins compliqué qu’il n’y paraît. Tout d’abord, ce modèle suppose que R_{i,t} est une fonction linéaire de p_{i,t}, ce qui signifie que chaque fois que la prévalence de B.1.1.7 augmente d’un point de pourcentage dans un département, le nombre de reproduction effectif dans ce département devrait augmenter d’environ \beta% et cette relation ne change pas lorsque la prévalence de B.1.1.7 augmente. Cela revient en fait à supposer que B.1.1.7 a un avantage de transmissibilité constant par rapport à la souche historique. Quant à \Delta_t et \gamma_i, ils sont là pour capturer les effets spécifiques à une période ou à un département donnés. Par exemple, si le nombre de reproduction augmente dans tous les départements au cours d’une période parce qu’il faisait froid et que les gens passaient plus de temps à l’intérieur, cela sera capturé par \Delta_t. De même, si une caractéristique d’un département rend le nombre de reproduction plus élevé que dans les autres départements au même moment, à prévalence du B.1.1.7 égale, par exemple parce qu’il est plus densément peuplé, cela sera absorbé par \gamma_i. Enfin, le terme \epsilon_{i,t} sera en moyenne égal à zéro et est juste là pour capturer tout ce qui pourrait affecter R_{i,t}, du moment que cela n’est pas corrélé avec la prévalence de B.1.1.7 dans un département.

Sans entrer dans les détails, il n’est pas facile de déterminer s’il est préférable d’inclure \gamma_i et \Delta_t dans le modèle, seulement l’un d’entre eux ou encore aucun des deux. Par exemple, si nous incluons un effet fixe de période, nous supposons que tout choc du nombre effectif de reproduction associé à une semaine particulière est le même dans tous les départements, mais cela pourrait ne pas être vrai si ce choc est dû à la météo par exemple, car tous les départements ne sont pas soumis aux mêmes changements météorologiques. De même, si nous incluons un effet fixe de département, nous supposons que tout ce qui rend le nombre de reproduction effectif plus ou moins élevé dans un département est constant dans le temps. De toute évidence, cela sera vrai si le facteur en question est la densité de population, mais cela pourrait ne pas être vrai pour d’autres facteurs. Si l’une de ces hypothèses est fausse, notre estimation de l’effet de la prévalence de B.1.1.7 sera biaisée (pour être clair, le biais n’est pas le seul problème avec les effets fixes, qui entre autres choses réduisent également la puissance statistique), donc je pense qu’il est préférable d’essayer toutes les versions du modèle et de voir les résultats que nous obtenons avec chacune d’elles, parce que nous ne savons pas vraiment quelle version est la meilleure.

Voici un tableau qui résume les résultats de la calibration de chaque version de ce modèle économétrique simple :La prévalence de B.1.1.7 a un effet statistiquement significatif sur le nombre effectif de reproduction dans toutes les versions, sauf lorsque seul un effet fixe de période est inclus.

Nous pouvons convertir ces coefficients en estimations de l’avantage de transmissibilité de B.1.1.7 et ajouter des intervalles de confiance, ce qui les rend plus facilement interprétables :Les estimations ponctuelles varient de 10% à 41%, ce qui est bien en-dessous de la fourchette de 50% à 70% de Gaymard et al. Cependant, ces estimations sont très imprécises et, si vous regardez les intervalles de confiance, B.1.1.7 pourrait être entre 9% moins transmissible et 65% plus transmissible. Cet intervalle serait encore plus large quand on fait varier les hypothèses sur la distribution du temps de génération pour convertir le taux de croissance hebdomadaire en nombres de reproduction effectifs. Par exemple, si je suppose que la moyenne est de 6,5 jours (la valeur utilisée par Gaymard et al. dans leur scénario central), les estimations vont de 14% à 60% et les intervalles de confiance placent l’avantage de transmissibilité de B.1.1.7 quelque part entre -12% et 98%. Si je suppose une moyenne de 3,5 jours, les estimations ponctuelles vont de 7% à 29%, tandis que les intervalles de confiance impliquent que lB.1.1.7 pourrait être entre 7% moins transmissible et 44% plus transmissible.

Faisons maintenant le point et résumons ce que nous avons trouvé jusqu’à présent. Gaymard et al. utilisent un modèle simple de croissance exponentielle qu’ils calibrent avec les données sur les variants datant de janvier et estiment que le B.1.1.7 est de 50 à 70% plus transmissible que la souche historique. Cependant, même en utilisant le même type de modèle avec les mêmes données du début de l’année, nous trouvons que l’estimation de l’avantage de transmissibilité du B.1.1.7 pourrait se situer entre 21% et 72% suivant les hypothèses que nous faisons sur la distribution du temps de génération. Si nous continuons à employer un modèle simple de croissance exponentielle (ce qui, comme nous l’avons vu, est une erreur car, malgré ce que beaucoup pensent, B.1.1.7 n’a pas crû à taux constant depuis le début de l’année) mais en utilisant des données mises à jour, nous estimons que l’avantage de transmissibilité pourrait se situer entre 16% et 42%. Si nous essayons de modéliser l’effet sur la transmission de l’avancement du couvre-feu à 18 heures en janvier et des vacances scolaires en février, par une méthode semblable à celle qu’utilisent les épidémiologistes qui conseillent le gouvernement (sauf qu’au lieu de supposer que le B.1 .1.7 est 50% à 70% plus transmissible, j’estime cet avantage à partir des données), nous constatons que l’avantage de transmissibilité de B.1.1.7 pourrait se situer entre 22 % et 53 % selon les hypothèses que nous faisons sur la distribution du temps de génération, ce qui représente une large fourchette mais reste nettement en-dessous de la fourchette de Gaymard et al. de 50% à 70%.

Comme nous venons de le voir, les estimations de l’avantage de transmissibilité du B.1.1.7 sont encore plus disparates si, au lieu de faire de fortes hypothèses mécanistiques pour modéliser la transmission, nous utilisons une approche économétrique plus agnostique. En effet, suivant le modèle que vous utilisez et les hypothèses que vous faites sur la distribution du temps de génération pour convertir le taux de croissance hebdomadaire en nombres de reproduction effectifs, vous ne pouvez même pas exclure que le B.1.1.7 soit moins transmissible que la souche historique. (Pour être clair, je ne crois pas une seconde que ce soit le cas, je note simplement que les données sont suffisamment ambiguës pour qu’on ne puisse pas l’exclure formellement). En bref, même si nous supposons que B.1.1.7 a un avantage de transmissibilité constant par rapport à la souche historique, nous n’avons aucune idée de ce qu’est réellement cet avantage car les estimations varient énormément suivant le type de modèle utilisé et nous n’avons aucun moyen de savoir quel modèle est le plus adapté. Mais cela n’empêche pas les épidémiologistes d’aller dans les médias et de prétendre, comme s’il s’agissait d’un fait établi, que B.1.1.7 est de 50% à 70% plus transmissible que la souche historique, alors qu’en fait ils sont parvenus à cette conclusion en utilisant un modèle ridicule et en le calibrant à deux points de données mesurés en janvier. Je ne sais pas s’ils minimisent sciemment l’incertitude de leurs estimations ou s’ils sont simplement incompétents, mais je m’en moque parce que, dans tous les cas, il est clair que mes impôts ne devraient pas être utilisés pour les payer.

C’est déjà assez grave en soi, mais restez avec moi, parce que ça s’apprête à devenir encore pire. Chaque approche que nous avons utilisée jusqu’à présent pour estimer l’avantage de transmissibilité de B.1.1.7 reposait sur l’hypothèse qu’il est constant. Bien que les épidémiologistes le disent rarement de manière explicite, cette hypothèse sous-tend pratiquement toutes les études sur la transmissibilité de B.1.1.7. Cependant, malgré ce que beaucoup de gens semblent penser (ce qui n’est pas surprenant vu la façon dont les épidémiologistes présentent leurs résultats dans les médias), ce n’est pas un résultat qu’ils ont trouvé dans les données. Ils supposent simplement que c’est vrai et estiment l’avantage de la transmissibilité du B.1.1.7 en se fondant sur cette hypothèse. Mais cette hypothèse est-elle vraie ? Si elle ne l’est pas, même en mettant de côté le fait qu’elles ne sont pas robustes, les estimations telles que celles de Gaymard et al. (2021) n’ont en fait aucune valeur. En effet, les estimations de Gaymard et al. sont basées sur la croissance de B.1.1.7 en janvier alors meme qu’il ne représentait qu’une très faible proportion des cas. Elles sont donc forcément trompeuses si l’avantage de transmissibilité de B.1.1.7 a diminué depuis lors. Il se trouve qu’il est très facile de vérifier si les données sont cohérentes avec cette hypothese. On aurait donc pu espérer que les épidémiologistes l’auraient fait avant d’aller dans les médias et de prétendre que B.1.1.7 est 50 % à 70 % plus transmissible, mais apparemment ça ne leur ai pas venu à l’esprit.

Comme nous l’avons vu, le nombre de reproduction effectif de B.1.1.7 a beaucoup diminué en France depuis janvier. Cela n’implique pas nécessairement que son avantage de transmissibilité ne soit pas resté constant, car il se pourrait que le nombre de reproduction effectif de la souche historique ait diminué dans les mêmes proportions. Cependant, si vous calculez l’avantage de transmissibilité de B.1.1.7 à partir des données, ce n’est pas ce que vous observez :Comme vous pouvez le constater, au niveau national, l’avantage de transmissibilité de B.1.1.7 tel que mesuré directement à partir du taux de croissance des cas par variant est passé de 57% au plus haut à 11% aujourd’hui. Si vous faites différentes hypothèses sur la moyenne de la distribution du temps de génération, vous obtiendrez des résultats quelque peu différents, mais la tendance générale sera la même.

Cette tendance est également très claire si, au lieu d’agréger les données au niveau national, on examine l’avantage de transmissibilité de B.1.1.7 au niveau départemental :Elle serait probablement encore plus claire si nous avions des données sur les variants par département avant la semaine 7, mais malheureusement si elles existent les autorités sanitaires françaises ne les ont pas publiées. Dans de nombreux départements, comme à Paris (où l’incidence est plus élevée que presque partout ailleurs dans le pays), B.1.1.7 croît désormais moins rapidement que les autres variants et il y a pourtant beaucoup de cas, donc ce n’est pas dû à l’erreur d’échantillonnage. Comment les gens qui prétendent qu’il est 50 à 70% plus transmissible expliquent-ils cela ? Ils devraient au moins s’attaquer à ces données, mais au lieu de cela, ils les ignorent complètement.

Je ne sais pas pourquoi l’avantage de transmissibilité de B.1.1.7 a diminué au cours du temps, mais quel que soit le mécanisme sous-jacent, c’est clairement le cas. Par exemple, une explication potentielle qui a été proposée est que différents groupes dans la population ne sont pas tous également susceptibles à tous les variants et que certains groupes relativement moins susceptibles à la souche historique sont relativement plus susceptibles à B.1.1.7, de sorte que quand celui-ci est introduit dans la population il se propage plus facilement que la souche historique parce que les personnes qui y sont les plus susceptibles ont été relativement épargnées jusque-là, mais cela cesse progressivement d’être vrai au fur et à mesure que le nombre de personnes infectées dans ce groupe augmente. Ce n’est là qu’une des explications possibles qui ont été proposées, dont aucune ne me semble entièrement satisfaisante, mais encore une fois quel que soit le mécanisme sous-jacent, il est clair que l’avantage de transmissibilité de B.1.1.7 a diminué à mesure que sa prévalence augmentait. (Comme Stephen McIntyre l’a noté sur Twitter, la même chose est apparemment vraie au Royaume-Uni, un fait que les auteurs de l’analyse non publiée qu’il cite ne semblent pas pressés de faire connaître). C’est probablement la raison pour laquelle les projections qui prévoyaient à chaque fois une explosion catastrophique de l’incidence ne se sont jamais réalisées nulle part.

Les épidémiologistes devraient admettre ce fait et essayer de comprendre le mécanisme sous-jacent, mais au lieu de cela, ils font semblant de l’ignorer et continuent à pondre des prédictions apocalyptiques qu’ils utilisent pour demander des restrictions plus strictes. La façon dont les épidémiologistes français ont parlé de B.1.1.7 depuis le début de l’année est une parfaite illustration de ce type de comportement. Alors même que l’avantage de transmissibilité de B.1.1.7, mesuré à partir des taux de croissance hebdomadaires, est inférieur à 20 % depuis plus d’un mois et n’était que de 11 % sur la base de la dernière croissance hebdomadaire (encore une fois, le chiffre précis varie en fonction des hypothèses que vous faites sur la distribution du temps de génération), les épidémiologistes ont totalement ignoré les données récentes et continuent de supposer qu’il se situe entre 50 % et 70 % pour leurs projections, une fourchette qui a été obtenue en calibrant un modèle ridicule à partir de 2 points de données en janvier. Bien sûr, puisque B.1.1.7 n’est pas vraiment 50 % à 70 % plus transmissible que la souche historique, ou du moins plus maintenant, leurs projections se sont avérées complètement fausses à plusieurs reprises. Mais au lieu de l’admettre et d’essayer de comprendre pourquoi l’avantage de transmissibilité de B.1.1.7 a diminué, ils trouvent des explications ad hoc pour expliquer pourquoi leurs projections ne se sont pas réalisées alors qu’ils avaient raison.

C’est un exercice très facile car, comme je l’ai expliqué plus haut, il est toujours possible rétrospectivement de calibrer un modèle qui « montrera » que les politiques adoptées par le gouvernement après qu’il a fait ses projections initiales ont eu un effet considérable sur la transmission, car en supposant que B.1.1.7 est 50 à 70% plus transmissible que la souche historique, c’est la seule façon dont ce modèle peut expliquer pourquoi l’incidence n’a pas explosé, même si personne avec un cerveau en état de marche ne peut croire un instant que de telles politiques ont eu un effet aussi important. Bien sûr, les projections basées sur ce modèle s’avéreront aussi complètement fausses, mais ce ne sera pas un problème pour les épidémiologistes, car ils n’auront qu’à calibrer un autre modèle sur des données plus récentes et celui-ci confirmera que nous n’avons évité un désastre que grâce aux mesures adoptées par le gouvernement sur leurs conseils. Par exemple, le gouvernement français a récemment fermé la plupart des petits commerces où, selon les données de recherche des contacts, moins de 0,07 % de toutes les infections ont lieu. (En fait, ce chiffre concerne tous les commerces, y compris ceux qui ne sont pas concernés par cette décision, mais d’un autre côté il ne se base que sur les cas dont la source de contamination est connue et il ne concerne que les clients.) Cela va coûter beaucoup d’argent et cela n’aura évidemment aucun effet sur la transmission, mais vous pouvez être certain que dans un mois les épidémiologistes « montreront » que cela a eu un effet énorme, ce qui expliquera pourquoi il n’y a pas 500 000 cas par jour. En bref, les épidémiologistes sont très bons quand il s’agit de prédire le passé, mais ils ont plus de mal avec l’avenir.

Il est certainement très difficile de prédire l’évolution de l’épidémie, je ne leur reproche donc pas de ne pas pouvoir le faire. Je leur reproche de prétendre qu’ils le peuvent, de ne pas admettre qu’ils se sont trompés et, précisément parce qu’ils ne l’admettent pas, de ne pas tenir compte de ce que nous apprennent les nouvelles données. Encore une fois, il est vraiment stupéfiant que, même si celles-ci indiquent maintenant que B.1.1.7 n’est qu’environ 11% plus transmissible que les autres variants, les épidémiologistes continuent d’utiliser des estimations basées sur l’évolution initiale de cette souche en janvier et, par conséquent, de supposer qu’elle est 50% à 70% plus transmissible pour réaliser les projections qu’ils présentent au gouvernement. Comme je l’ai déjà dit, je ne sais pas si c’est parce qu’ils sont incompétents ou malhonnêtes, mais c’est probablement les deux. Ils sont clairement biaisés en faveur de prédictions pessimistes parce qu’ils soutiennent des restrictions plus strictes et qu’ils savent que des prédictions apocalyptiques feront pression sur le gouvernement pour qu’il durcisse les restrictions, mais je pense aussi qu’ils sont suffisamment ignorants pour croire à leur propre battage médiatique. Malheureusement, la plupart des gens ne comprennent pas comment fonctionnent les projections épidémiques et traitent les modèles épidémiologiques comme de la magie, de sorte que les épidémiologistes n’ont aucune difficulté à imposer leur récit dans les médias. Ils ont tellement bien réussi que maintenant, chaque fois qu’il y a une flambée de l’épidémie quelque part, tout le monde suppose que c’est à cause de B.1.1.7, même s’il est clair qu’il n’est pas aussi transmissible qu’on le pensait initialement.

Je me suis concentré sur la France mais, comme je l’ai noté plus haut, cette conclusion ne repose pas de manière cruciale sur les données françaises. B.1.1.7 domine maintenant partout en Europe, mais nulle part il n’a entraîné d’explosion apocalyptique de l’incidence. Les gens évoquent souvent la troisième vague au Royaume-Uni ou en Irlande comme preuve que B.1.1.7 est beaucoup plus transmissible que la souche historique, mais l’incidence a chuté encore plus rapidement que pendant le premier confinement là-bas, alors même que les données sur la mobilité suggèrent que le comportement des gens a beaucoup moins changé. Même en tenant compte de la vaccination et de l’immunité naturelle, ce n’est pas ce à quoi on s’attendrait si B.1.1.7 était réellement 50 à 70% plus transmissible. Entre-temps, l’Espagne a également connu une vague massive en janvier, alors que la prévalence de B.1.1.7 était encore très faible, mais l’incidence a chuté très rapidement par la suite malgré l’absence de confinement et reste très faible aujourd’hui, alors que B.1.1.7 est désormais la souche dominante dans toutes les régions et que le pays est encore plus ouvert qu’en janvier. Il est vrai que dans plusieurs pays, comme la France, l’incidence a recommencé à augmenter, mais il n’est pas nécessaire de supposer que B.1.1.7 est super-transmissible pour l’expliquer. En effet, les vagues précédentes ont été les pires dans la plupart d’entre eux et pourtant la prévalence de l’immunité, qu’elle ait été acquise par infection naturelle ou par vaccination, ne pourrait expliquer cela si B.1.1.7 était vraiment 50 à 70% plus transmissible. De telles résurgences de l’épidémie se sont produites plusieurs fois dans le passé avant que B.1.1.7 ne commence à se répandre et, tant que suffisamment de personnes n’ont pas acquis une immunité par la vaccination ou l’infection naturelle, il n’y a aucune raison pour que cela ne recommence pas.

ADDENDUM

Quand la version originale de cet article a été publié, les données s’arrêter au 4 avril, mais nous avons depuis accumulé une semaine de plus de données, qui n’ont fait que renforcer les conclusions que je tirais déjà à l’époque. Ainsi, le nombre de reproduction effectif de B.1.1.7 s’est effondré, comme vous pouvez le constater sur ce graphique mis à jour :On voit que l’épidémie de B.1.1.7 est désormais en train de refluer, même si ce résultat est à prendre avec des pincettes car la dernière semaine inclut le lundi de Pâques, qui est un jour férié et il y a donc eu beaucoup moins de tests réalisés ce jour-là.

Il n’y a cependant pas de raison de penser que cela a affecté davantage B.1.1.7 que les autres variants, donc il est intéressant de mettre à jour l’analyse économétrique :Comme vous le voyez, non seulement l’estimation centrale est plus basse dans tous les cas, mais l’effet est désormais non-significatif pour tous les modèles excepté celui avec des effets fixes de période et de département.

Cette évolution est aussi visible quand on met à jour le graphique qui montre le nombre effectif de reproduction en fonction de la prévalence de B.1.1.7 par département :On voit qu’il n’y a plus aucune association nette entre la prévalence de B.1.1.7 dans un département et le nombre de reproduction effectif dans ce département.

Si on met à jour le graphique qui montre l’évolution de l’avantage de transmissibilité de B.1.1.7 tel que mesuré à partir des taux de croissance au niveau national, voici ce qu’on obtient :On voit que celui-ci a continué à diminuer et qu’à ce rythme-là il sera bientôt inexistant.

On observe la même chose au niveau départemental :Comme vous pouvez le voir, au cours des 3 dernières semaines, B.1.1.7 s’est répandu moins vite que les autres variants dans beaucoup de départements.

Je profite également de cette traduction pour préciser que, dans cet article, j’ai mesuré l’avantage de transmissibilité de B.1.1.7 par rapport à tous les autres variants et pas seulement par rapport à la souche historique. Le problème est que ça peut biaiser vers le bas l’estimation de cet avantage si les autres variants sont plus transmissibles que la souche historique, car cette méthode va alors regrouper la souche historique avec des variants plus transmissibles pour comparer le nombre de reproduction de l’ensemble à celui de B.1.1.7. D’un autre côté, comme la souche historique disparaît peu à peu, l’estimation de son nombre de reproduction effectif et donc de l’avantage de B.1.1.7 par rapport à celle-ci devient de plus en plus difficile à mesurer précisément faute de cas. (Si les détails vous intéresse, je vous invite à lire ma discussion à ce sujet avec @touna14 sur Twitter, que je remercie au passage car il m’a forcé à m’intéresser de plus près aux données sur les variants.) Je pense donc que le mieux consiste à faire les deux : estimer l’avantage de transmissibilité de B.1.1.7 par rapport à tous les autres variants comme j’ai fait ci-dessus, mais aussi par rapport à la souche historique prise séparément, pour s’assurer que ça n’affecte pas nos conclusions. J’ai donc modifié le code pour faire ça.

De fait, même si les résultats sont légèrement moins dramatiques, on observe un effondrement similaire de l’avantage de transmissibilité de B.1.1.7 :Comme vous pouvez le voir, l’avantage de B.1.1.7 est tombé à 11% quand on restreint la comparaison à la souche historique, ce qui est tout à fait négligeable.

On observe la même chose au niveau départemental :Il y a davantage de bruit, ce qui n’est pas surprenant puisqu’encore une fois le nombre de cas dus à la souche historique est de plus en plus petit, mais on observe la même tendance à la baisse. Bref, peu importe comment on mesure l’avantage de B.1.1.7, il est parfaitement clair qu’il s’est effondré depuis le début de l’année, mais les épidémiologistes qui conseillent le gouvernement continuent de prétendre qu’il est 50% à 70% plus transmissible parce que ce sont des charlatans.

One thought

  1. Bonjour,

    Il me semble déceler plusieurs biais dans votre étude.
    Si vous retracez graphiquement les données Santé Public France à partir de mi Février (pas de données fiables avant cela), vous verrez que jusqu’à début Avril, le coefficient de croissance géométrique est bien autour de 1,6. Il descend progressivement ensuite en Avril (autour de 1,45). Votre graphique SPF est biaisé par le fait que vous démarrez tout début Janvier, date à laquelle les sérologies était trop disparates pour garantir la fiabilité des chiffres. Si vous démarrez mi février, le résultat est tout autre.

    Par ailleurs, vous ne prenez pas en compte les effets atténuateurs de la vaccination et de l’immunité naturelle (près de 20% d’atténuation dès le début Mars) ce qui explique la plupart de vos constatations ‘à la baisse’ sur la transmissibilité du variant UK.

    Enfin, prendre un interval seriel différent de 6,5j aurait un effet visible sur les courbes publiées en quotidien : en Février, le pic hebdo était les Jeudis, nous sommes désormais plutôt au Mercredi : ce qui montre une grande stabilité de l’intervalle seriel, à un peu moins de 7 jours. Votre hypothèse à 4,8j, par exemple, ne se traduit pas dans les faits (vous travaillez, et c’est normal, sur des courbes lissées donc ça n’est pas visible) : toutes les semaines, le pic hebdo serait décalé de 2 jours. Ce qui n’est absolument pas le cas ‘en vrai’.

Comments are closed.