Bienvenue sur le site du GDR « Statistiques et santé » !

Les brèves…

Journées « Statistiques & Santé » 2020 (2020-02-26 11:49:41)

Les journées « Statistiques & Santé » 2020, organisées conjointement par le GDR « Statistiques & Santé », la Société française de biométrie et le groupe « Biopharmacie » de la Société française de statistique, auront lieu les 1er et 2 octobre 2020, au CNAM à Paris.
Plus de détails
Appel à contribution

Modèles dynamiques en épidémiologie

Beaucoup d’études épidémiologiques recueillent des données relatives à un suivi de sujets dans le temps. En effet, les phénomènes biologiques évoluent dans le temps, comme tous les phénomènes physiques, et la causalité est étroitement liée au temps. Les modèles développés pour traiter ces données peuvent avoir une interprétation causale plus ou moins poussée. Dans la plupart des études épidémiologiques classiques, on se contente de parler de facteurs de risques : ce sont des facteurs qui pourraient avoir un rôle causal sans que l’on connaisse les détails du mécanisme. Dans les études d’observation, on ne peut que rarement être sûr de ce caractère causal ; dans les essais randomisés on peut parler de causalité avec plus d’assurance. Enfin on peut développer des modèles fondés sur la connaissance de mécanismes biologiques : on connaît par exemple les lois de diffusion de molécules dans le corps et cette connaissance est utilisée dans les modèles pharmacocinétiques ; on connaît pour certaines maladies les virus responsables et l’on peut modéliser l’interaction de ces virus et du système immunitaire de l’hôte. L’approche statistique consiste à élaborer un modèle qui est en fait une classe de modèles car des paramètres interviennent dans la loi du processus décrit. L’estimation de ces paramètres est un problème central de la statistique.

Modélisation en pharmacologie

Le développement de nouveaux médicaments est un processus long et coûteux. Il se divise en plusieurs étapes avec notamment la découverte d’une nouvelle entité chimique, les essais in vitro puis chez les animaux. Vient ensuite ce qu’on appelle le développement clinique, c’est-à-dire chez l’homme, avec ses différentes phases. Les statisticiens sont impliqués à tous les niveaux pour l’évaluation des données collectées au cours de ces essais et pour aider à planifier les études suivantes en fonction des résultats obtenus. Un de leurs rôles importants est l’analyse des essais thérapeutiques randomisés conduits en phase III qui visent à montrer la supériorité du nouveau produit par rapport à un traitement de référence ou un placebo. Plus récemment s’est développée une discipline appelée « pharmacométrie », qui vise à mieux analyser l’ensemble des données physiologiques (concentrations, biomarqueurs, effets pharmacologiques, effets indésirables) ainsi que leur évolution au cours du temps et leur variabilité entre les patients notamment à partir des données collectées lors des essais plus précoces de phases I et II. Il s’agit de mieux comprendre l’ensemble de la relation dose-réponse afin d’aider, notamment par simulation, à planifier les essais cliniques suivants en prenant mieux en compte les sources de variabilité et d’incertitude. Ces analyses reposent sur des modèles physiologiques plus ou moins simplifiés et nécessitent des outils statistiques plus complexes comme la modélisation non-linéaire à effets mixtes. De nombreux développements statistiques autour de ces méthodes et de leurs applications au cours du développement des médicaments mais aussi en pharmacologie clinique sont en cours. Ces approches nécessitent une collaboration étroite entre statisticiens, modélisateurs, pharmacologues et médecins. Elles font l’objet de recommandations récentes par l’agence de mise sur le marché des médicament aux États-Unis (FDA) afin de tenter de pallier les problèmes auxquels fait face l’industrie pharmaceutique pour le développement de nouvelles molécules, industrie qui a pendant longtemps utilisé les mêmes outils statistiques.

Statistique et génome

Les nouvelles technologies à haut débit (par exemple, la génomique, la transcriptomique ou la protéomique) ont conduit, au cours des dernières années, à une explosion de données sur le vivant. L’exploitation de cette masse de données est un des enjeux essentiels des années à venir, tant au niveau fondamental qu’appliqué. Une telle exploitation n’est possible que grâce au développement de nouveaux outils statistiques.

Ainsi, l’étude statistique des séquences génomiques participe à la caractérisation structurale et fonctionnelle des gènes et des protéines codés dans les génomes. La statistique intervient également pour l’analyse du transcriptome (puces à ADN), du protéome, pour l’analyse des données d’expression, pour l’analyse des réseaux d’interaction, des réseaux métaboliques, pour la phylogénie.

Imagerie cérébrale

Les images fonctionnelles du cerveau donnent une information cruciale pour des domaines tels que les sciences cognitives, la neurologie ou la psychiatrie. L’imagerie par résonance magnétique fonctionnelle (IRMf) est actuellement en plein essor vu les perspectives qu’elle a ouvertes dans l’étude du fonctionnement du cerveau : elle permet d’identifier de façon totalement non-invasive et avec une haute résolution spatiale les zones du cortex qui sont activées lors d’une stimulation donnée. L’IRMf mesure les perturbations des propriétés magnétiques locales, dues à l’augmentation du flux sanguin dans les zones du cortex impliquées dans une tâche cognitive donnée. Si l’IRMf est un outil technologique extraordinaire, les méthodes statistiques utilisées pour extraire l’information fonctionnelle restent généralement assez rudimentaires. En effet, le volume de données (des enregistrements de plusieurs centaines de données, mesurés sur plusieurs dizaines de milliers de voxels) est tel qu’une des priorités a toujours été d’utiliser des méthodes statistiques simples, permettant d’obtenir des résultats dans un temps raisonnable. On est donc amené à de nombreuses approximations sur le modèle, en négligeant par exemple les non-linéarités.

Traitement statistique de signaux médicaux

Les technologies d’acquisition de mesures dans le domaine biomédical ont fait d’énormes progrès ces dernières années et il existe une grande variété de signaux enregistrés à des fins de diagnostic ou de suivi médical. Malgré ces progrès technologiques récents, le traitement de ce type de données afin d’en extraire l’information utile pour le diagnostic et la discrimination reste un défi. À titre d’exemple :

  • la spectrométrie de masse est une technologie émergente qui permet en particulier une mesure directe de la signature de certaines protéines et promet des avancées considérables pour le diagnostic et le traitement de maladies. Elle a récemment été utilisée pour identifier des protéines qui sont différentiellement exprimées dans le cancer du colon. Les ondelettes s’avèrent être un outil très performant pour le débruitage et l’analyse de ces signaux  ;
  • la fibrillation auriculaire est le trouble soutenu du rythme cardiaque le plus fréquent. Le diagnostic de la fibrillation auriculaire repose sur l’analyse de l’électrocardiogramme obtenu soit par un enregistrement avec un Holter dans le cas d’épisodes fréquents de fibrillation auriculaire paroxystique, soit par un enregistrement de longue durée dans le cas de suspicion d’événements rares. Dans ce dernier cas, la fonction d’enregistrement automatique de l’enregistreur d’événements est cruciale pour enregistrer les événements de fibrillation auriculaire asymptomatiques et permet de palier les limites des enregistreurs manuels, en particulier chez les patients âgés. Une analyse statistique de ces signaux permet la détection automatique des épisodes de fibrillation auriculaire  ;
  • l’électroencéphalographie permet d’enregistrer les variations de potentiel engendrées par l’activité électrique des neurones. Un des points fort de cette technique est la résolution temporelle (de l’ordre de la milliseconde) alors qu’un des points faible en est la définition spatiale, puisque les mesures sont prises sur le cuir chevelu et non à l’intérieur du cerveau. La localisation des régions cérébrales (sources) à l’origine des signaux est un problème inverse difficile qui peut être abordé en considérant une modélisation statistique du phénomène. L’électroencéphalographie est un outil important pour la détection et le diagnostic d’activités particulières, comme l’épilepsie. Des algorithmes de segmentation et d’analyse spectrale de ces signaux permettent l’automatisation de ces tâches.

Modélisation stochastique en imagerie médicale

L’imagerie médicale subit, depuis déjà de nombreuses années, une très forte évolution technologique : les images sont maintenant le plus souvent numériques, il s’agit de plus en plus fréquemment de volumes de données tridimensionnels, des acquisition de séquences de données sont aussi possibles... De par leur nature, les images bio-médicales comportent des éléments reconnaissables (organes, tumeurs, cellules...) mais aussi une variabilité individuelle forte. Les mathématiques appliquées et en particulier la statistique et la modélisation stochastique peuvent alors intervenir à divers niveaux, par exemple pour donner des outils d’appréciation au radiologue, on parle alors d’aide au diagnostic ; pour donner des outils permettant de faire des mesures, par exemple de l’évolution de la taille d’une tumeur ; pour permettre une visualisation de la surface d’un organe ou de l’intérieur de cet organe d’une manière non invasive.

Modèles spatiaux

La modélisation des variations géographiques d’indicateurs de santé a pour principal objectif l’évaluation, au niveau des populations, des associations entre les variations géographiques d’indicateurs de santé et d’exposition à des facteurs de risque environnementaux.

Dans beaucoup de situations, les variables (indicateurs de santé et facteurs de risque) sont mesurées à l’échelon de groupes (unités géographiques), leurs analyses sont alors dites « écologiques ». Les mesures écologiques peuvent être de trois sortes :

  1. les données agrégées qui sont des « résumés » d’observations individuelles  ;
  2. les données environnementales qui sont des caractéristiques physiques comme, par exemple, le niveau de pollution, mais qui ont leur analogue en données individuelles comme, par exemple, la dose individuelle d’exposition à la pollution  ;
  3. les données globales qui sont des caractéristiques du groupe et qui n’ont pas d’analogue individuel comme, par exemple, la densité de population.

Le but d’une étude écologique est la recherche de contrastes entre les unités géographiques. La mise en évidence de tels contrastes permet de guider la recherche de caractéristiques des populations par rapport à ces variations. D’un point de vue étiologique, les études écologiques permettent de mettre en parallèle les variations de pathologies avec les variations géographiques de variables partagées par des groupes et, ainsi, d’examiner les éventuelles corrélations entre ces variations.

Des bases de données d’exposition sont élaborées à des échelles spatiales de plus en plus fines et fournissent un nouveau support intéressant à exploiter en association avec des indicateurs de santé (taux de mortalité, incidence...). En France et en Europe, l’existence ainsi que la création de nombreux registres portant sur des maladies rares (malformations congénitales, cancers...) montrent l’intérêt porté à ce sujet.

Néanmoins, la modélisation et l’analyse statistique de telles données posent un certain nombre de problèmes méthodologiques qui nécessitent la mise au point de nouveaux outils statistiques.

Métrologie médicale

Des mesures cliniques, biologiques ou d’imagerie, ou psychométriques sont quotidiennement utilisées en médecine pour le diagnostic, le pronostic, le dépistage ou la surveillance thérapeutique. Mais elles sont encore trop souvent insuffisamment validées, c’est-à-dire qu’elles ne disposent pas toutes des qualités minimales de fiabilité et de validité. De telles qualités sont particulièrement difficiles à obtenir pour les instruments d’évaluation des phénomènes complexes et multidimensionnels (échelles composites de dépression, d’incapacité fonctionnelle, de qualité de vie, etc.) mais elles font aussi défaut à bon nombre de mesures cliniques, biologiques ou radiologiques utilisées en pratique quotidienne. La validation de tous ces instruments de mesure comprend une dimension statistique importante et fait appel à des modélisations fines pour évaluer, par exemple, la dimensionnalité des phénomènes mesurés, l’invariance des mesures dans des groupes de sujets (par les modèles de réponse à l’item dérivés du modèle de Rasch) ou encore pour évaluer les composantes de la variabilité des mesures (requérant notamment des modèles complexes à effets fixes et aléatoires). Tant pour l’importance des développements de méthodes statistiques, que pour l’interaction croissante avec la médecine praticienne qui a progressivement pris conscience au cours des deux dernières décennies de la gravité de la « question métrologique », la métrologie médicale représente aujourd’hui un champ très actif de recherche statistique méthodologique et appliquée en médecine.

Épidémiologie

L’épidémiologie moderne est née après la seconde guerre mondiale. Les maladies infectieuses étaient alors vues comme étant sur le point d’être vaincues et les problèmes majeurs de santé publique concernaient les maladies chroniques, telles le cancer et les maladies cardiovasculaires. La recherche épidémiologique visait à identifier leurs facteurs de risque. La méthodologie de ces recherches était la statistique. Depuis les années 80, le retour au devant de la scène des maladies transmissibles, et en particulier le souci des maladies émergentes, a dynamisé l’usage de la modélisation mathématique, appliquée à la description et à la prévision de leur dynamique et à l’étude de stratégies de contrôle. Il serait cependant faux de penser que la mathématisation de l’épidémiologie (en tout cas de celle des maladies infectieuses) peut se dérouler sans un fort investissement en statistique, en particulier aux niveaux de l’estimation des paramètres, du test des modèles, ou encore de l’analyse de sensibilité aux hypothèses.

Recherche clinique

Aujourd’hui, tout ré­sultat de recherche médicale résulte d’une expérimentation (clinique ou biologique) qui s’appuie sur une méthodologie statistique rigoureuse et dont les résultats sont analysés en termes statisti­ques. L’outil et la démarche statistique sont incontournables pour aider à une meilleure connaissance médicale et améliorer la pratique médicale dans ses aspects décisionnels (choix du meilleur examen, optimisation de la thérapeutique, choix du traitement le mieux adapté).

La recherche clinique est devenue un enjeu majeur à l’hôpital. Elle est un moyen d’accéder aux innovations fournies par les fabricants de dispositifs médicaux et les industriels du médicament, à condition que la plate-forme de recherche soit parfaite sur le plan du recrutement, mais aussi sur la qualité du traitement des données. Elle est aussi une part normale, et aujourd’hui de plus en plus clairement identifiée (unités de recherche clinique, centres d’investigations cliniques) du fonctionnement de l’hôpital : elle vise à répondre à des questions importantes concernant le diagnostic, le traitement et le pronostic des patients. Elle est enfin le lien entre la recherche fondamentale (INSERM, CNRS) et les malades. Dans toutes ces composantes, les métiers consacrés au traitement statistique et informatique de l’information médicale sont de mieux en mieux identifiés.

Conception : équipe web du GDR « Statistiques et Santé » — Nous contacter — Site conçu avec SPIP, 2013 — Plan du site