Jean Cumps : Statistiques science ou science-fiction?


03 Mar 2012

(Revue CoÉvolution. No14. Automne 1983)

Prévoir l’avenir : un vieux rêve de l’humanité. Irréalisable, scientifiquement ? Voire. Les progrès des méthodes prévisionnelles, statistiques et autres, confondues dans un art appelé stochastique permettent à quelques-uns de jouer les prophètes.

Ainsi en est-il de Lew Nichols, spécialiste de l’art d’emmagasiner et de trier les informations, de dire ce qu’il faut faire pour réduire l’intervalle d’incertitude entre la prévision et la réalité (L’homme stochastique, R. Silverberg, Laffont, 1975).

Il s’agit (mais était-ce si évident ?) d’un extrait d’un roman de science-fiction. Vous voilà rassurés quant à votre liberté. Mais si la statistique peut devenir sujet à science-fiction, c’est qu’elle véhicule certaines idées qui, portées à la limite, peuvent susciter une panique concernant notre libre arbitre.

La statistique, science prévisionnelle, se trouve de par sa nature, située entre la science et la science-fiction. Il n’est pas facile de l’employer en la maintenant sur le terrain de la science. Mais c’est aussi ce qui en fait son charme à mes yeux et la raison de mon thème de réflexion.

Ce thème, j’aimerais le traiter à la façon de Dante dans sa Descente aux Enfers : une vision en différents cercles et, comme lui, j’introduirai l’exposé par ces mots « Laissez toute espérance (mathématique), vous qui entrez ».

Cercle premier ou cercle d’amis : quelques réflexions sur la statistique

— Il y a les mensonges, les fieffés mensonges, et la statistique.

— Les chiffres ne se contestent pas.

— On leur fait dire n’importe quoi.

— Ne dites pas : « Le nombre des chômeurs s’est encore accru ces derniers mois », mais dites : « Le rythme d’augmentation des chômeurs s’est ralenti ces derniers mois ».

— 69 % des gens meurent au lit. Ne vous couchez pas. !

Cercle deuxième ou spirale du temps : quelques repères historiques

Historiquement, la statistique n’est qu’une arithmétique d’Etat (dans statistique, il y a le terme latin Status : état). Elle fut utilisée (et l’est encore) pour permettre aux gouvernants de déterminer jusqu’où ils peuvent, sans risques, vider les poches de leurs sujets. Par exemple, le Domeday Book était l’état des terres que Guillaume le Conquérant fit établir en 1084 pour déterminer les redevances de ses vassaux (on n’a rien inventé).

Noël est la fête des statisticiens. On rappelle à cette occasion l’existence des anciens statisticiens qui, sous la direction de l’empereur Auguste, ordonnèrent un recensement général, ce qui permit à certain de naître dans une étable à Bethléem et non dans le confort d’une chaumière à Nazareth. La statistique, déjà science de l’inexactitude, s’est aperçue après quelques siècles que le dénommé J.-C. était, en fait, né en 5 av. J.-C. (ce qui pose déjà le problème de l’intervalle de confiance I. C.).

XVIIe siècle : Pascal et Fermat établissent les bases du calcul des probabilités très prisé des joueurs.

XIXe siècle : Quetelet (1846) rapproche le calcul des probabilités et la statistique.

XXe siècle : différentes notions se précisent, principalement :

— notion de régression et de corrélation par Galton en 1889 et Pearson en 1900 avec son test X2 ;

— méthode d’induction et d’inférence :

• Student (pseudonyme d’un statisticien qui avait peur du ridicule) en 1908 avec son test « t »,

• Fisher et Snedecor en 1925 avec leur test « F ».

— L’ordinateur (fin des années 50) modifie l’utilisation mais non les concepts de la statistique.

Cercle troisième ou cercle de jeux : les lois du hasard

« J’ai entendu de vieux et rusés routiers dire que les fous ont recours aux paris en guise de preuves« .

S. Butler

La probabilité est une notion difficile à définir. Le dictionnaire nous dit que probable signifie vraisemblable et en consultant davantage que vraisemblable signifie probable. Cela tourne rond dans ce cercle. Qu’en pense le statisticien ? Pas mieux que le commun des mortels. Il quantifie simplement les choses en y introduisant une échelle. Le barreau inférieur : 0 indique l’impossibilité absolue (par exemple, comprendre la statistique ou ne pas mourir). Le dernier échelon, appelé 1, indique la certitude absolue (par exemple, mourir un jour).

Si tout était aussi net, cet article pourrait s’arrêter là et les statisticiens seraient au chômage. Dieu merci, être ou ne pas être n’est pas la seule réponse à la question. L’échelle comportait plus de 2 barreaux. Avec cette incertitude, l’échelle devenait sociale pour plusieurs professions (Pythies, prophètes, sphinx, statisticiens…).

Mais l’incertitude est comme le ver dans le fruit et comme pour ceux-ci il y a des statisticiens plus véreux que d’autres. C’est à Crésus (Hérodote I, 46) qu’est attribué le premier test statistique de comparaison d’oracles (de là, sans doute, l’expression « Riche comme Crésus », car les tests statistiques ne sont pas gratuits). Il fit bouillir dans un chaudron fermé une tortue et un agneau coupés en morceaux. Des ambassadeurs envoyés à Abaï, Thèbes, Dodones, Milet et Delphes (principe de l’échantillonnage multiple) devaient interroger son occupation (essai en aveugle). Seule la Pythie de Delphes décrivit ce pot-au-feu improbable (d’où ce très mauvais calembour « La Pythie vient en mangeant« ).

La statistique entrait dans l’histoire mais pas la certitude. Les oracles et prophéties étaient toujours codés et l’interprétation était loin d’être univoque (notez qu’à la lecture, certains traités de statistique tiennent lieu d’oracles pythiens).

Dernière remarque sur les Pythies : pour éviter toute contamination venant de l’extérieur (souci d’avoir des données non biaisées), elles devaient être vierges et illettrées (ce n’est plus exigé des statisticiens).

Après cette digression mythique, revenons à nos probabilités : elles peuvent être de 2 types :

— probabilités à priori : calculées en divisant la probabilité totale par le nombre de possibilités (1/2 pour le jeu de pile ou face, 1/6 pour le jeu de dés),

— probabilités empiriques : notre expérience des événements nous porte à croire que de courtes séries peuvent être bouleversées par le hasard alors que ce dernier protège les longues séries. Pour les calculer :

Probabilité = Nbre total de manifestations / Nbre d’essais

Lorsque le nombre d’essais augmente, la probabilité empirique se rapproche de la probabilité à priori et l’atteint pour un nombre infini d’essais.

Remarque : ne pas mélanger les 2 probabilités.

Le fait d’avoir eu 5 piles d’affilées ne modifie en rien la probabilité théorique de 1/2 pour le côté pile au cours du 6e essai.

Cercle quatrième ou cercle vicieux : les lois de la probabilité ou la certitude exclue

« Le nombre 2,2 enfants par femme adulte parut absurde à certains égards et une Commission royale proposa que les classes moyennes soient mieux payées pour atteindre un chiffre rond et plus commode« .

Punch

Constat formel et déconcertant dans la quasi-totalité des problèmes posés en recherche médicale et en général dans les sciences de la vie : la réponse certaine est exclue. C’est dans cette situation d’impossible certitude que la statistique est intervenue. Pour illustrer cela, choisissons un exemple type : pour une race de souris, la fréquence des cancers spontanés est bien connue, mettons 40 %. Le résultat pour chaque souris dépend donc d’une loterie dont 40 % des billets sont « cancer »,

Le hasard a des caprices tels qu’aucun résultat n’est impossible mais seulement improbable. Nous avons vu dans le 3e cercle que lorsque le nombre d’expériences augmente, la probabilité empirique se rapproche de la probabilité a priori. La quantification de cet écart dépendra du nombre de souris étudiées.

Par exemple, pour 100 souris, il y a :

5/100 chances que cet écart dépasse 10 %

1/1000  chance que cet écart dépasse 17 %

Ces chiffres proviennent de la répartition mathématique d’une population dite « normale » étudiée par Student.

Un biochimiste administre une drogue à 100 souris. Si la drogue est inactive, on s’attend à observer 40 souris cancéreuses avec un écart connu qui dépendra du risque pris. Si le risque choisi est de 5 %, on peut déclarer le produit inactif entre 30 % et 50 % de cancers observés. Si le risque de 5 % vous paraît exorbitant, on peut opter pour celui de 0,1 % et déclarer inactif un produit pour lequel on observerait entre 23 et 57 % de cancers.

Cependant, à vouloir diminuer le risque, on augmente celui du manque à gagner : éliminer un produit qui serait actif. Il faut un juste milieu. Aussi 5 % sera en général le risque choisi pour les sciences de la vie.

A remarquer que si on avait travaillé sur 1000 souris, le produit aurait été déclaré inactif entre 37 et 43 % de cancers observés (la dispersion est en effet divisée par la racine carrée du nombre d’individus observés).

En statistique, au concept du paramètre de position est toujours associé un paramètre de dispersion suivant le type de distribution. Le paramètre de position le plus souvent choisi est celui de la moyenne arithmétique. Il faut cependant rappeler que celle-ci doit porter sur un groupe homogène de tendance centrale (pas d’agglomérations aux extrémités) et de dispersion normale.

Pour le paramètre de dispersion, nous choisirons l’intervalle de confiance I. C. qui quantifie les bornes du paramètre en fonction du risque choisi.

Cercle cinquième ou quadrature du cercle : l’interprétation des résultats

« Non, non — dit la Reine —, la condamnation d’abord, le verdict après« .

Lewis Caroll

L’erreur courante rencontrée dans beaucoup d’articles scientifiques est de généraliser la notion de cause. Par exemple, dans le domaine médical, il est admis que le tabac est cause du cancer bronchique. Or beaucoup de fumeurs y échappent alors que des non-fumeurs en sont atteints. Bizarre, non ? En fait, il ne faudrait pas parler en statistique de relation de cause à effet mais de cause à probabilité d’effet.

Les études statistiques ont montré que les fumeurs diffèrent des non-fumeurs par leurs traits sociaux, psychologiques, leur situation sociale, leur consommation d’alcool et de café et qu’ils mesurent 1 cm de plus. La cause du cancer, est-ce le tabac ou les autres facteurs ?

Autre erreur : confondre cause et effet. Par exemple, si je compare le sous-groupe des gens debouts et couchés à midi, ils diffèrent radicalement, le second comportant davantage de malades (à l’exception de quelques paresseux et veilleurs de nuit) que le premier. La conclusion qui consisterait à demander aux gens de ne pas se coucher inverserait cause et conséquence !

Ces deux exemples ont un point commun : il s’agit dans les deux cas d’observations et non d’expérimentations. On peut en retirer un grand principe : en cas d’observations, il y a impossibilité de prouver une relation de causalité. Le reste est mensonge.

Cercle sixième ou demi-cercle : normal ou anormal ?

« II est normal qu’il y ait des anormaux car une population qui ne comporte que des normaux n’est pas normale. Les normaux devraient remercier tous les anormaux grâce à qui ils sont normaux« .

Un Anormal Anonyme

La réflexion « Avec les statistiques on dit n’importe quoi » attribue aux statistiques ce qui revient en fait à des extrapolations abusives de résultats.

Par exemple, une enquête menée vers les années 50 montre une corrélation entre le risque cardio-vasculaire et le taux de cholestérol. D’où recommandation d’éviter les graisses. L’étude se complexifia et attribua la cause à certaines graisses ou à des proportions de graisses. Ce fut répercuté par les médias : médecins, presse, publicistes, margariniers, etc… Une autre enquête entre temps concluait que plus bas était le taux de cholestérol et plus fort était le risque de cancer. Belle récompense pour ceux qui se sont privés de crème, graisse, fromage… Pas plus girouette que la statistique. Alors, vérité ou mensonge ? Ni l’un ni l’autre car il s’agit encore d’extrapolations abusives. La statistique peut corréler mais non indiquer où est la cause et où est l’effet ou s’il s’agit de 2 effets ayant la même cause. Dans le dernier exemple, le faible taux de cholestérol était conséquence du cancer et non l’inverse. Notez cependant qu’une modification des idées en biochimie sera considérée comme une évolution normale mais en statistique cette position sera taxée de mensonge.

La statistique est une quantification du risque à dire quelque chose. Mais ce risque dépend aussi de la qualité de l’expérimentation et des hypothèses de travail.

Exemple 1 : un statisticien traite les données d’un biochimiste qui lui apporte les résultats de substances soi-disant anticancéreuses portant sur des souris. Le statisticien décide d’opter pour le risque de 5 % ce qui ne veut pas dire qu’il va se tromper 5 fois sur 100.

Voyons plus en détails. Supposons N drogues étudiées dont n sont inefficaces :

— pour les n : le risque de se tromper (c’est-à-dire de les trouver actives) est de 5 % ;

— pour les N – n actives : risque nul de se tromper (il déclare inactif ce qui est actif. C’est un manque à gagner) ;

— pour les N drogues, le risque de se tromper est de n/N. 5 %.

Plus n est faible (c’est-à-dire plus le biochimiste a du flair), plus faible est le risque d’erreur pour le statisticien. Comme quoi la statistique n’élimine pas l’intuition, au contraire.

Un seul problème : si on connaît n pourquoi faire des statistiques ? n est bien sûr une donnée inaccessible mais permet intuitivement de montrer que le statisticien a intérêt à travailler avec des biochimistes ayant de bonnes hypothèses de travail.

Exemple 2 : L’ordinateur, nouveau dieu Baal, remplace peu à peu le statisticien qui n’a plus qu’à le nourrir de toutes les données qu’il a recueillies. Le Tout-Puissant Ordinateur en quelques secondes fera toutes les corrélations possibles entre toutes les mesures et sortira celles qui sont significatives. Le grand-prêtre statisticien n’a plus qu’à couper le papier et le remettre à son client en contrepartie d’une offrande. Longue vie à l’ordinateur ! Voire. L’ordinateur, dans ces conditions, travaille comme un biochimiste sans intuition, décrit dans l’exemple 1. Le risque est donc celui maximum de 5 %. De plus, comme le nombre de corrélations est élevé, le nombre d’erreurs devient proprement insupportable.

Aussi cette façon de travailler ne peut être considérée que comme première approche, comme des suggestions à étayer par des études plus poussées.

Encore une réflexion en écho à la pensée de l’Anormal Anonyme. C’est la non-publication des résultats négatifs ou anormaux. Ainsi des résultats « normaux », seuls publiés, se confortent les uns les autres jusqu’à former une forteresse inexpugnable parfois bâtie sans beaucoup de fondements.

Critiques d’un râleur envieux qui crache dans la soupe me direz-vous. Poursuivons l’exemple 1 qui est loin d’être de la science-fiction. Notre brave biochimiste présente pour la n + 1e fois ses résultats au statisticien. Les n fois précédentes, le produit était inactif mais cette fois (le risque, pour mémoire, est de 5 %), le statisticien le trouve actif. Publication sur le champ dans une revue spécialisée avec preuves statistiques à l’appui. Comme les cosignataires sont connus et que souvent les revues ne publient que des résultats positifs, 4 autres articles viendront conforter ce résultat qu’il devient difficile de mettre en doute sans s’attirer les foudres d’une pléiade de cosignataires.

Les 96 résultats négatifs resteront dans l’ombre parce que soit communiqués, ils ont été refusés ; soit non communiqués, car c’est un résultat négatif (attribué au choix : au chimiste, technicien, souris ou produit).

Un mensonge par omission reste un mensonge mais la cause n’en incombe pas à la statistique.

Cercle septième ou cercle littéraire : la bibliographie

— Science-fiction :

L’homme Stochastique, R. Silverberg, Laffont, 1975.

— Réflexions sur la vérité et la probabilité

• Le genre humain 7-8, Editions Complexes, 1983 (numéro sur la vérité)

• Traverses n° 23 : Hasard, figures de la fortune Centre Georges Pompidou, 1981

• Traverses n° 24 : La géométrie du hasard Centre Georges Pompidou, 1982.

— Traités de Statistiques

• Mc Gee : Principes de Statistiques : approche traditionnelle et approche Bayésienne, Vuibert, 1975.

Les traités sont soit théoriques et l’expérimentateur décroche dès les premières pages. Il ne voit pas comment s’accomplit la démarche statistique. Soit il s’agit de recettes de cuisine : on ne sait quelle recette employer (ou plutôt si : celle qui donne le résultat escompté !). Ce livre tente de réunir les positions du statisticien et de l’expérimentateur.

Jean Cumps, docteur-ès-sciences, professeur émérite était chef de travaux à l’Université Catholique de Louvain et s’intéresse à l’intégration de la statistique et de l’informatique à l’étude des processus biophysiques.