Begin main content
Visionneuse de documents de l’ACMTS

Lignes directrices de l’évaluation économique des technologies de la santé au Canada, 4e édition

mars 2017

Remerciements

Groupe de travail sur les lignes directrices

Le groupe de travail a eu la tâche de relever et d’examiner les principaux aspects de chaque thème, de rédiger l’ébauche des diverses parties, de réviser chacune des parties et l’ensemble de la version préliminaire du rapport, de se pencher sur la rétroaction des pairs et des parties intéressées, et de réviser et d’entériner la version définitive des Lignes directrices.

Membres de l’ACMTS

Karen M. Lee, M.A.
Directrice, Économie de la santé
ACMTS
Ottawa (Ontario)

C. Elizabeth McCarron, M.A., M. Sc., Ph. D.
Économiste de la santé
ACMTS
Ottawa (Ontario)

Membres du monde universitaire

Stirling Bryan, Ph. D.
Professeur, École de la santé des populations et de santé publique
Université de la Colombie-Britannique
Vancouver (Colombie-Britannique)

Doug Coyle, M.A., M. Sc., Ph. D.
Professeur, École d’épidémiologie, de santé publique et de médecine préventive
Université d’Ottawa
Ottawa (Ontario)

Murray Krahn, M. Sc., M.D., FRCPC
Directeur, Toronto Health Economics and Technology Assessment (THETA) Collaborative
Université de Toronto
Toronto (Ontario)

Christopher McCabe, B.A., M. Sc., Ph. D.
Titulaire de la chaire de recherche fondée Capital Health
Université de l’Alberta
Edmonton (Alberta)

Collaborateurs

L’ACMTS tient à remercier les personnes dont le nom figure ci-dessous de leur contribution :

Sheena Gosain, BHSc, M. Sc., qui a participé à l’organisation du projet, a offert un soutien à la recherche sur des thèmes des Lignes directrices et a rédigé et révisé des parties thématiques du rapport.

Carlo Marra, B. Sc. (Pharm.), Pharm. D., Ph. D., membre du groupe de travail au début du projet, a participé à la rédaction de la partie sur la mesure et l’évaluation de la santé et a révisé les versions préliminaires de parties thématiques.

Sandra Milev, M. Sc., a contribué à la rédaction de la partie sur la modélisation et l’efficacité clinique.

David Kaunelis, MBSI, a effectué des recherches documentaires et offert des services d’information.

Kim Ghosh, B.A., PMP, a offert du soutien en gestion de projet et a participé à l’organisation du projet.

Examinateurs

Les examinateurs ont révisé soit l’entière version préliminaire soit certaines parties des Lignes directrices.

Nick Bansback, B. Sc., M. Sc., Ph. D.
Professeur adjoint, École de la santé des populations et de la santé publique
Université de la Colombie-Britannique
Vancouver (Colombie-Britannique)

Ahmed Bayoumi, M.D., M. Sc., FRCPC
Professeur, Département de médecine et Institute of Health Policy Management and Evaluation
Université de Toronto
Toronto (Ontario)

W.B.F Brouwer, Ph. D.
Professeur d’économie de la santé
Président de l’Institute of Health Policy & Management
Université Érasme de Rotterdam
Pays-Bas

Anthony Budden, BBHSc
Économiste de la santé
ACMTS

Andy Chuck, MPH, Ph. D.
Directeur de l’évaluation et de l’analyse économique
Institute of Health Economics
Edmonton (Alberta)

Lauren E. Cipriano, Ph. D.
Professeure adjointe
Ivey Business School, Université Western
London (Ontario)

Philip Jacobs, Ph. D., CMA
Professeur, Université de l’Alberta
Edmonton (Alberta)

Scott Klarenbach, M.D., M. Sc.
Professeur, Département de médecine
Université de l’Alberta
Edmonton (Alberta)

Vivian Ng, M. Sc., Ph. D.
Gestionnaire, Évaluation économique en santé
Qualité des services de santé Ontario
Toronto (Ontario)

Petros Pechlivanoglou, Ph. D.
Scientifique
The Hospital for Sick Children (SickKids) Research Institute
Toronto (Ontario)

Sheri Pohar, B. Sc. Pharm., M. Sc. Pharm., Ph. D.
Conseillère scientifique
ACMTS

Mohsen Sadatsafavi, M.D., Ph. D.
Professeur adjoint, Faculté des sciences pharmaceutiques
Université de la Colombie-Britannique
Vancouver (Colombie-Britannique)

Mark Sculpher, Ph. D.
Professeur d’économie de la santé, Centre d’économie de la santé
Université d’York
Heslington, York (Royaume-Uni)

Eldon Spackman, M.A., Ph. D.
Professeur adjoint
Université de Calgary
Calgary (Alberta)

Conflits d’intérêts

Anthony Budden est l’un des auteurs du Guide pour l’évaluation des couts des ressources en soins de santé dans le contexte canadien, publié par l’ACMTS et mentionné dans les Lignes directrices.

Murray Krahn a obtenu du financement pour la recherche de la Fondation canadienne du foie sous la forme d’une subvention sans restrictions de Gilead, de Cancer de la prostate Canada sous la forme d’une subvention sans restrictions de Janssen, Pfizer Canada, Sanofi Canada et d’Hépatite C – Règlement des recours collectifs.

Carlo Marra a offert des services d’expert-conseil à diverses entreprises pharmaceutiques et sociétés d’experts-conseils.

Christopher McCabe a obtenu du financement pour la recherche de Johnson & Johnson par l’entremise de la Fondation de l’Hôpital de l’Université de l’Alberta et a offert des services d’expert-conseil à diverses entreprises pharmaceutiques.

Mark Sculpher a offert des services d’expert-conseil à diverses entreprises pharmaceutiques et à des entreprises du domaine des sciences de la vie.

Eldon Spackman a offert des services d’expert-conseil à diverses entreprises pharmaceutiques.

 

Abréviations

ACB analyse cout/bénéfice
ACC analyse couts/conséquences
ACE analyse cout/efficacité
ACU analyse cout/utilité
AMC analyse de minimisation des couts
AVAQ année de vie ajustée en fonction de la qualité
CARCE courbe d’acceptabilité du rapport cout/efficacité
EQ‑5D questionnaire EuroQol 5‑Dimensions
FE frontière d’efficience
HUI® Health Utilities Index®
QVLS qualité de vie liée à la santé
RCED rapport cout/efficacité différentiel
SF‑6D système de classification des états de santé Short Form 6‑Dimensions

 

Conventions

Cheminement clinique

Tous les cheminements cliniques nécessaires pour modéliser les couts et les résultats pertinents eu égard au problème de décision.

Cohérence

Uniformité des sources de données pour tous les paramètres.

Crédibilité

Absence de biais apparent, où biais désigne l’écart systématique entre la valeur estimée et la valeur vraie.

Problème de décision

La décision qu’éclairera l’évaluation économique.

Analyse déterministe

Les paramètres du modèle sont représentés par la valeur attendue des éléments de données individuels (c.-à-d. estimation ponctuelle).

Sollicitation de l’avis d’experts

Méthode d’élicitation de l’avis d’experts pertinents sur la gamme des valeurs quantitatives et l’incertitude de paramètres en particulier.

Opinion d’experts

Une source de données parmi toutes les sources d’information, comprenant la sollicitation de l’avis d’experts et les études existantes rendant compte de l’opinion d’experts.

Jugement d’experts

Opinion qualitative d’experts.

Aptitude à l’emploi

Pertinence du point de vue du problème de décision.
Analyse complémentaire

Évaluation fondée sur des choix méthodologiques autres que ceux recommandés dans l’analyse de référence afin d’évaluer l’incertitude relative à la méthodologie. Peut accompagner l’analyse de référence et être transmise aux décideurs, mais il importe d’indiquer les conséquences de s’écarter de l’analyse de référence.

Analyse probabiliste

Les paramètres du modèle sont représentés par leur distribution de probabilité plutôt que par une estimation ponctuelle.

Analyse de référence

Évaluation fondée sur l’ensemble des méthodes recommandées par souci d’uniformité et de transparence, qui permet la comparaison des résultats de différentes technologies pour différentes décisions.

Analyse de scénarios

Analyse de scénarios établis pour examiner les sources d’incertitude (structurelle, par exemple) dans l’analyse de référence ou l’analyse complémentaire. On procède à l’analyse complète de chacun des scénarios.

Optique sociale de la prise de décisions

Principe voulant que le décideur en matière de soins et de services de santé, agissant au nom d’une instance supérieure légitime de la société, s’emploie à maximiser l’atteinte d’un objectif stratégique précis (p. ex., améliorer la santé globale de la population) dans les limites des ressources disponibles.

 

Préface de la quatrième édition

La quatrième édition des Lignes directrices de l’évaluation économique des technologies de la santé au Canada succède aux publications de novembre 1994 (première édition), d’octobre 1997 (deuxième édition) et de mars 2006 (troisième édition). Cette quatrième édition reflète l’expérience acquise avec les éditions précédentes et tient compte des progrès méthodologiques survenus dans le domaine de l’évaluation économique des technologies de la santé depuis 2006.

L’élaboration de la quatrième édition s’est effectuée comme suit :

  • Revue des thèmes de la troisième édition des lignes directrices pour déterminer les éléments pour lesquels la méthodologie a évolué.
  • Examen de la documentation sur la méthodologie de l’évaluation économique en santé et consultation d’experts en économie de la santé.
  • Relevé des lacunes sur les sujets abordés et commande d’études pour les combler.

Dans la préparation de la quatrième édition des Lignes directrices, voici les objectifs que nous poursuivions :

  • offrir un guide clair, concis et pratique de haute qualité aux chercheurs;
  • satisfaire les besoins des décideurs en information économique fiable, cohérente et pertinente;
  • souligner les aspects pour lesquels des questions d’ordre méthodologique demeurent irrésolues et que la recherche devra creuser;
  • s’ouvrir à des démarches souples, novatrices et différentes, en particulier là où des questions d’ordre méthodologiques restent entières.

Tout au long du processus, les tensions inhérentes à ces objectifs ont nécessité des compromis. Au nombre des considérations pratiques, mentionnons l’applicabilité des recommandations, à savoir leur propension à répondre aux besoins des décideurs, et le recours à des méthodes plus simples et plus compréhensibles lorsqu’il a été jugé inutile de complexifier davantage. Nonobstant de telles considérations, il y avait tout de même lieu de comparer le temps, les efforts et les couts inhérents à la production d’évaluations économiques conformes aux lignes directrices de l’évaluation économique avec les couts (souvent plus élevés) de mauvaises décisions d’allocation des ressources découlant de la mise en œuvre des résultats d’une évaluation de qualité médiocre.

Lors de la préparation de la quatrième édition des lignes directrices, nous avons étudié tous les commentaires reçus des examinateurs. Les décisions relatives aux questions d’ordre méthodologique ont été prises par consensus.

 

Introduction

Les présentes Lignes directrices visent à éclairer la conduite de l’évaluation économique des technologies de la santé au Canada en diffusant des pratiques exemplaires afin de produire de l’information économique crédible et normalisée, à la fois pertinente et utile pour les décideurs œuvrant dans le système public de soins de santé canadien. L’évaluation économique des technologies de la santé consiste en l’évaluation des couts et des effets d’interventions, de programmes ou de politiques ayant une incidence sur la santé. L’évaluation peut être exécutée en parallèle à des études entreprises à l’échelle individuelle ou dans le cadre de modèles analytiques décisionnels qui synthétisent les preuves issues de multiples sources. Les principes directeurs énoncés ici s’appliquent avant tout à l’évaluation fondée sur la modélisation, quoique nombre d’entre eux concernent également l’évaluation reposant sur des données individuelles.

L’évaluation économique en santé est destinée à éclairer la prise de décisions. Les vues quant à l’optique de la prise de décisions collectives sur l’allocation des ressources en santé sont diverses. De façon générale, elles s’inscrivent dans le courant du welfarisme, de l’extrawelfarisme ou dans celui de la théorie du schème de décision sociale1. Le welfarisme veut que les décisions collectives dans le domaine de la santé aient pour objectif la maximisation des gains nets en matière de bienêtre social. Au sens strict, le welfarisme définit le bienêtre social comme étant la satisfaction des préférences individuelles (exprimées ou révélées), tandis que l’extrawelfarisme prend en compte d’autres arguments sociaux1,2.

Le schème de décision sociale dont il est question ici repose sur le principe selon lequel le décideur du secteur de la santé, agissant au nom d’une instance supérieure légitime de la société, s’emploie à maximiser l’atteinte d’un objectif stratégique précis (p. ex., améliorer la santé globale de la population) dans les limites des ressources disponibles. Le rôle de l’évaluation économique dans cette optique est celui d’éclairer les décisions sociales relatives à la santé, non pas celui de prescrire des choix sociaux1,3. Au vu de l’approche choisie au pays dans les décisions collectives en santé et du rôle de l’évaluation économique dans le contexte canadien, les Lignes directrices adoptent ce point de vue du schème de décision sociale.

Ce point de vue englobe deux types de décisions collectives, que l’on peut classer selon qui prend la décision, selon qui est touché par la décision et selon que la décision débouche sur une règle générale ou un jugement4. Le premier type a trait à l’élection démocratique d’une instance supérieure légitime de la société. Le second type est représenté par les décideurs du secteur de la santé, agissant au nom de l’instance supérieure et éclairés par les résultats de l’évaluation économique, et leur jugement sur les couts et les effets comparatifs des interventions à l’étude. C’est la légitimité sociale de l’instance supérieure qui garantit que les décisions prises par le décideur reflètent ce que la population générale considère comme étant utile à la société. L’évaluation économique doit faire valoir ces valeurs sociales.

Les concepts de prise de décisions dans un contexte de rareté et d’allocation efficiente des ressources occupent une place centrale dans l’évaluation économique des technologies de la santé. Les recommandations présentées dans les Lignes directrices sont axées sur l’atteinte de l’efficience technique dans le cadre d’un budget restreint. L’efficience technique désigne l’amélioration maximale possible d’un résultat à l’aide d’un ensemble de ressources déterminé5. Tenant pour acquis que les décideurs doivent probablement composer avec des contraintes budgétaires exogènes6, le cout de renonciation d’un nouvel investissement relèvera du budget la santé, non pas d’autres secteurs de dépenses publiques ou du contribuable3. Par conséquent, les présentes Lignes directrices optent pour une estimation du seuil d’efficience « basée sur l’offre », sachant que le remboursement d’une nouvelle technologie aura pour effet de déplacer une autre technologie ou un autre service de santé. En ce sens, les recommandations contenues dans les Lignes directrices appuient la gestion des technologies tout au long de leur cycle de vie, des décisions à propos de l’adoption et du remboursement à celles concernant un éventuel remplacement ou désinvestissement.

L’évaluation économique produit une estimation des couts et des effets comparatifs de deux interventions ou plus, non pas une décision quant au rapport cout/efficacité d’une intervention par rapport à une autre. La question de savoir si une intervention représente une allocation des ressources efficiente est fonction du rapport cout/efficacité seuil du décideur. De plus, le rôle de l’évaluation économique s’agissant d’éclairer la prise de décisions éclairées sur l’allocation des ressources en santé est double. En premier lieu, l’évaluation économique éclaire la prise de décisions d’après les informations existantes. Conformément au schème de décision sociale qui sous-tend les présentes Lignes directrices, les décisions doivent être fondées sur le rapport cout/efficacité attendu selon l’information existante et non pas sur le rapport cout/efficacité déduit par inférence statistique. En second lieu, en cernant les zones d’incertitude, l’évaluation économique peut également contribuer à éclairer la prise de décisions sur la nécessité de poursuivre les recherches pour dissiper cette incertitude. Ces deux décisions tiendront compte de la nature évolutive des preuves sur la technologie durant son cycle de vie.

Pour faciliter le processus décisionnel, les Lignes directrices recommandent l’adoption d’une analyse de référence. Le but de l’analyse de référence est d’encourager la comparabilité des évaluations et d’offrir aux décideurs l’assurance qu’ils utilisent un cadre décisionnel uniforme dans toutes leurs décisions. L’adoption d’une analyse de référence n’exclut nullement le choix d’autres méthodes ou de recommandations propres à une sphère de compétence si cela est indiqué dans l’étude du problème de décision, mais tout écart par rapport à l’analyse de référence doit être justifié en fonction du problème en cause et présenté dans le cadre d’une analyse complémentaire. Dans le doute quant à la démarche méthodologique appropriée pour étudier un aspect précis du problème de décision, on peut comparer les résultats de l’analyse de référence à ceux d’une analyse complémentaire.

Les Lignes directrices recommandent des choix méthodologiques eu égard au problème de décision, au type d’évaluations, à la population cible, aux comparateurs, à la perspective, à l’horizon temporel, à l’actualisation, à la modélisation, à l’efficacité clinique, à la mesure et à l’évaluation de la santé, à l’utilisation et au cout des ressources, à l’analyse, à l’incertitude et à l’équité. Elles commencent par des énoncés et sont suivies par les lignes directrices détaillées. Elles renferment également des recommandations au sujet du compte rendu de l’évaluation économique. Elles s’adressent à un auditoire qui est au fait des méthodes d’évaluation économique de sorte qu’il est inutile de les décrire ou de les expliquer. Les Lignes directrices ne se veulent pas un manuel et ne sauraient être vues comme telles. Le lecteur souhaitant obtenir de l’information supplémentaire est prié de consulter les références.

Les présentes lignes directrices représentent les recommandations actuelles de l’ACMTS sur la conduite de l’évaluation économique des technologies de la santé. Ces recommandations s’appliquent à toute une gamme de technologies de la santé, notamment celles destinées à promouvoir la santé, à prévenir et à traiter des maladies ou à améliorer les soins de réadaptation et de longue durée. L’évaluation économique peut éclairer la prise de décisions sur des technologies de la santé, dont des vaccins, des dispositifs, des interventions médicales ou chirurgicales, des activités de prévention ou de dépistage de maladies, des initiatives de promotion de la santé ou de prestation de soins et de services de santé comme la télémédecine. Ces technologies ne comprennent pas seulement des produits, mais aussi des stratégies de prise en charge ou de traitement d’une maladie. Ainsi, les Lignes directrices entendent répondre aux besoins en information de ce vaste auditoire.

L’ACMTS et le groupe de travail en économie de la santé ont souhaité rendre compte ici des meilleures pratiques actuelles dans le domaine, sans perdre de vue que les recommandations évolueront au fur et à mesure des avancées scientifiques et méthodologiques. Les Lignes directrices recensent les aspects n’ayant pas encore recueilli de consensus, des questions sur lesquelles devra se pencher la recherche. Ainsi, elles décrivent non seulement les pratiques recommandées aux « exécutants », mais orientent également la recherche et le perfectionnement méthodologique qui contribueront à l’avancement du savoir et à la constitution d’une solide assise à la prise de décisions efficientes sur les soins et les services de santé.

 

Points saillants de la quatrième édition

Présentation : Chaque partie des lignes directrices économiques traite d’un aspect particulier de l’exécution ou du compte rendu de l’évaluation économique. Les énoncés résumant les principaux éléments des recommandations que devrait appliquer le chercheur précèdent les lignes directrices économiques comme telles. D’autres ressources sont présentées dans les annexes et en ligne.

Problème de décision : Le décideur doit disposer d’informations pertinentes sur les circonstances de la décision à prendre. Pour pouvoir répondre à ces besoins, on commence par formuler la question faisant l’objet de l’évaluation économique de façon à aborder directement le problème de décision ou la question de politique. Cela permettra de préciser la portée, le plan et le compte rendu de l’évaluation.

Analyse de référence : L’analyse de référence désigne l’ensemble des méthodes recommandées que le chercheur doit suivre dans le cadre d’une évaluation économique afin d’être en mesure de comparer les résultats de diverses évaluations. Le but de l’analyse de référence est de faciliter la prise de décisions en améliorant la cohérence et la transparence de l’évaluation et en permettant la comparaison des résultats pour différentes technologies et décisions. Dans certains cas, l’analyse conçue pour étudier le problème de décision sera différente de l’analyse de référence recommandé. Le recours à une analyse complémentaire sera justifié, et cette analyse accompagnera l’analyse de référence.

Évaluation des sources de données : Les sources de données qui renseignent sur l’estimation des paramètres de l’évaluation économique sont évaluées en fonction de leur aptitude à l’emploi (pertinence au regard du problème de décision), de leur crédibilité (absence de biais apparent) et de leur cohérence par rapport aux autres données du modèle.

Souplesse : Bien qu’un des objectifs premiers des lignes directrices de l’évaluation économique soit d’encourager des choix méthodologiques comparables pour l’analyse et le compte rendu des résultats des évaluations, il est entendu que les recommandations relatives à l’analyse de référence peuvent ne pas être optimales dans tous les cas. Par conséquent, le chercheur a la possibilité d’entreprendre une analyse complémentaire adaptée aux particularités de l’évaluation. Certaines parties des lignes directrices offrent des conseils lorsque des questions d’ordre méthodologique ne font pas l’unanimité. Ce qu’il importe d’établir, c’est si le recours à une méthode différente diminue la qualité de l’information apportée par l’évaluation. Le chercheur doit préciser si les méthodes appliquées dans l’évaluation sont conformes à celles recommandées dans l’analyse de référence et justifier tout écart.

Transparence : Le besoin de transparence dans la présentation des résultats d’une évaluation économique est l’un des concepts fondamentaux des lignes directrices. Le chercheur doit fournir des renseignements détaillés sur les méthodes, les intrants et les résultats d’une évaluation. La transparence permet à l’utilisateur d’évaluer la qualité méthodologique de l’évaluation et de vérifier par lui-même que les problèmes potentiels ont été traités comme il se doit. Il est aussi essentiel de présenter l’information sous une forme qui sera utile au décideur. Il y a donc lieu de décrire en détail les étapes de l’analyse avant d’agréger les données pour obtenir les résultats relatifs au rapport cout/efficacité. L’annexe 1 présente un modèle de rapport standard que le chercheur pourra utiliser pour produire un compte rendu détaillé et cohérent des résultats de l’évaluation économique.

Il est possible de télécharger la quatrième édition des Lignes directrices à partir du site Web de l’ACMTS (https://www.cadth.ca/fr)

 

Énoncés des lignes directrices

1. Problème de décision

1.1 Énoncer clairement le problème de décision devant faire l’objet de l’évaluation économique.
1.2 Dans l’énoncé du problème de décision, préciser les interventions à comparer, le cadre ou le contexte de la comparaison, la perspective de l’évaluation, la nature des couts et des résultats ou des paramètres pris en considération, l’horizon temporel et la population cible de l’évaluation.
1.3 L’interaction entre des éléments du problème de décision requiert un énoncé distinct pour chaque perspective et chaque analyse proposée se rapportant à un sous-groupe distinct.

2. Types d’évaluations

2.1 L’analyse de référence dans l’évaluation économique est une analyse cout/utilité (ACU), dans laquelle les résultats sont exprimés en années de vie gagnées ajustées en fonction de la qualité (AVAQ). Justifier clairement tout autre choix.
2.2 Une analyse cout/efficacité (ACE), avec expression des résultats en unités naturelles, n’est pas une analyse de référence appropriée. Si des données probantes démontrent que les résultats importants pour le patient sont équivalents pour tous les paramètres mesurés des interventions comparées, à l’exception de la survie ou de la qualité de vie, alors l’ACU demeure la méthode à privilégier. On peut ainsi établir la comparaison entre toutes les technologies à l’étude à l’aide de la même unité de mesure du bénéfice.
2.3 L’analyse de minimisation des couts (AMC) est un exercice d’établissement des couts, et non une évaluation économique en bonne et due forme. Pour ce motif, elle n’est pas une analyse de référence appropriée. L’ACU est encore la technique analytique à privilégier, même si des données probantes démontrent que les résultats importants pour le patient sont semblables, car elle permet d’analyser l’incertitude liée à l’effet différentiel (par l’analyse probabiliste), facilitant ainsi la comparaison nécessaire entre toutes les technologies.
2.4 L’analyse couts/conséquences (ACC) vient offrir un complément d’information à l’ACU, elle ne saurait la remplacer. La présence d’une ACC rehausse la transparence de l’évaluation économique en ce que ses résultats désagrégés sont présentés sous la forme de couts et de résultats ou conséquences (p. ex., incidents prévus, survie, gain de qualité de vie) pour chaque option.
2.5 Lorsque l’ACU ne peut rendre compte d’importants effets d’une technologie sur la santé, il y a lieu de présenter ceux-ci de manière distincte dans le cadre d’une ACC. S’il est possible de les évaluer en unités monétaires, une analyse cout/bénéfice (ACB) peut s’ajouter à titre d’analyse complémentaire; celle-ci précise tous les aspects du calcul de la valeur pécuniaire des paramètres d’intérêt de l’évaluation ou justifie l’exclusion de paramètres, le cas échéant.

3. Population cible

3.1 Préciser la population cible et l’usage prévu de l’intervention dans l’analyse de référence, conformément au problème de décision.
3.2 Indiquer les facteurs susceptibles de faire varier l’estimation des couts et des résultats (effets) des interventions dans des sous-groupes distincts de la population cible. Il peut s’agir de facteurs influant sur l’histoire naturelle de la maladie, l’efficacité clinique des traitements, ou l’utilité ou les couts associés à la maladie ou aux traitements.
3.3 L’analyse de référence comporte une analyse stratifiée et présente les résultats pour chacun des sous-groupes s’il s’avère judicieux d’étudier l’influence de tels facteurs dans des sous-groupes distincts. Sinon, l’analyse englobe toute la population cible.

4. Comparateurs

4.1 Prendre en compte le traitement ou les soins usuels (c.-à-d. les interventions d’usage courant dans le contexte canadien) dans l’analyse de référence. Dans bien des cas, le traitement usuel englobe plus d’un comparateur pertinent.
4.2 Choisir les comparateurs en fonction de la portée du problème de décision. Les comparateurs choisis sont ceux en usage pour la population d’intérêt et dans la région où la décision s’appliquera.

5. Perspective

5.1 Dans l’analyse de référence, la perspective est celle du payeur public des soins de santé. La perspective de l’évaluation économique est fonction du problème de décision.
5.2 Veiller à ce que les couts comme les résultats ou effets des interventions soient compatibles avec la perspective déterminée.
5.3 Lorsque d’autres perspectives que celle adoptée dans l’analyse de référence revêtent un intérêt pour le décideur et sont susceptibles d’avoir des effets importants sur les résultats de l’analyse, les intégrer à d’autres analyses. Si tel est le cas :
 
5.3.1 Présenter les résultats de manière distincte de ceux de l’analyse de référence.
5.3.2 Préciser clairement les couts et les résultats ou effets relevant de ces autres perspectives et quantifier et décrire les effets (c.-à-d. ampleur) des divers éléments sur les résultats de l’analyse comparativement à l’analyse de référence.

6. Horizon temporel

6.1 Dans l’analyse de référence, déterminer un horizon temporel suffisamment long pour détecter toutes les différences pertinentes entre les interventions quant à leurs couts et à leurs résultats (effets sur la santé) futurs. L’horizon temporel devrait être déterminé en fonction de la maladie et de l’effet probable de l’intervention.
6.2 Établir l’horizon temporel de l’évaluation en fonction du problème de décision.

7. Actualisation

7.1 Dans l’analyse de référence, actualiser les couts et les résultats (effets) des interventions pour une période dépassant la première année afin de présenter les valeurs selon un taux de 1,5 % par an.
7.2 Évaluer le retentissement de l’incertitude liée au taux d’actualisation en comparant les résultats de l’analyse de référence à ceux d’analyses complémentaires à l’aide des taux de 0 % et de 3 % par an.

8. Modélisation

8.1 Conceptualiser et élaborer le modèle en fonction du problème de décision.
8.2 Adapter le modèle au cheminement clinique courant à la maladie étudiée et aux interventions comparées. Décrire et justifier la portée, la structure et les hypothèses de la modélisation.
8.3 Dans la conceptualisation du modèle, prendre en considération tout modèle bien construit et validé qui incorpore adéquatement le cheminement clinique dans la maladie d’intérêt.
8.4 Justifier le choix de la technique de modélisation. Ne pas complexifier la démarche plus qu’il ne le faut pour s’attaquer au problème de décision.
8.5 S’assurer que l’histoire naturelle de la maladie, telle qu’intégrée au modèle, est représentative de la population cible concernée par le problème de décision.
8.6 Le modèle doit être validé, y compris l’évaluation de la validité apparente de la structure, des hypothèses, des données et des résultats.
8.7 Veiller à la validation interne rigoureuse du modèle. La validation contrôle la qualité de tous les calculs mathématiques et des estimations paramétriques. Rendre compte du processus de validation et de ses résultats. Évaluer également la validité externe du modèle.

9. Efficacité réelle

9.1 Effectuer une recherche documentaire exhaustive afin d’appuyer l’estimation de l’efficacité clinique et de l’innocuité des interventions à l’étude. Faire état des études retenues et des méthodes de sélection ou de regroupement des données.
9.2 Évaluer les sources de données selon leur aptitude à l’emploi, leur crédibilité et leur cohérence. Décrire les compromis consentis entre ces critères et justifier les sources choisies. Étudier l’effet possible des compromis dans l’analyse probabiliste de l’analyse de référence ou dans l’analyse d’autres scénarios.
9.3 Évaluer et justifier la validité de tout critère de substitution (indicateur intermédiaire) utilisé aux fins d’estimation d’un paramètre. L’analyse probabiliste de l’analyse de référence prend en compte l’incertitude quant au lien entre le critère de substitution et le critère clinique auquel il se substitue. L’analyse de scénarios appropriés permet également d’étudier cette incertitude. L’analyse de l’incertitude prend en compte l’existence de plusieurs critères de substitution, le cas échéant. Lorsqu’un biomarqueur est choisi à titre d’indicateur de substitution, évaluer et justifier sa validité et la mesure dans laquelle il répond aux critères d’un indicateur de substitution.
9.4 Appliquer une méthode d’extrapolation appropriée de l’efficacité estimée à l’effet à long terme. Étudier l’incertitude de l’estimation extrapolée dans l’analyse probabiliste de l’analyse de référence qui incorpore la corrélation des paramètres dans l’analyse de survie. Effectuer également l’analyse de scénarios pour étudier l’incertitude structurelle.

10. Mesure et évaluation de la santé

10.1 Dans l’analyse de référence, exprimer la valeur de l’effet de l’intervention par les années de vie gagnées ajustées en fonction de la qualité (AVAQ).
10.2 Veiller à ce que les préférences en matière de santé (c.-à-d. les coefficients d’utilité) concordent avec les états de santé prévus dans le modèle et les conceptualiser en fonction du problème de décision.
10.3 Prendre en compte les préférences en matière de santé qui correspondent à celles de la population canadienne en général.
10.4 Dans l’analyse de référence, incorporer des préférences en matière de santé obtenues par une méthode de mesure indirecte reposant sur un système de classification générique (p. ex., questionnaire EuroQol 5-Dimensions [EQ‑5D], Health Utilities Index [HUI], Short-Form 6-Dimensions [SF‑6D]). Si l’on n’opte pas pour une méthode indirecte, le justifier.
10.5 La sélection des sources de données à propos de la valeur d’utilité des états de santé est dictée par les motifs d’aptitude à l’emploi, de crédibilité et de cohérence. Décrire les compromis consentis entre ces critères et justifier le choix des sources d’information.

11. Utilisation et cout des ressources

11.1 Pour les besoins de l’analyse de référence, relever, mesurer et valoriser de manière systématique toutes les ressources pertinentes, et en faire état, conformément à la perspective du payeur public des soins de santé. Dans l’éventualité où diverses perspectives sont pertinentes au problème de décision, classer les ressources et leurs couts dans des catégories correspondant aux perspectives et présenter séparément les résultats pour la perspective de l’analyse de référence et les autres perspectives.
11.2 S’appuyer sur des sources d’information canadiennes pour déterminer l’utilisation et le cout des ressources, de préférence des sources d’information applicables dans les provinces ou territoires d’intérêt (tel qu’il est précisé dans le problème de décision).
11.3 En cas de variation importante des modes de pratique ou des couts entre les provinces ou territoires d’intérêt précisés dans le problème de décision, tenir compte de ces sources de variation dans l’exécution de l’évaluation.
11.4 Dans la valorisation des ressources, choisir les sources de données les plus exactes quant au cout de renonciation selon la perspective de l’analyse. Les honoraires et les prix figurant aux barèmes d’honoraires et aux listes de médicaments des ministères de la Santé au Canada sont les couts unitaires recommandés dans la perspective du payeur public, pourvu qu’ils reflètent la réalité. Dans d’autres cas, le cout moyen total (y compris le cout en capital et les couts indirects répartis) peut s’appliquer. Lorsque les couts sont calculés ou imputés directement, ils doivent correspondre au plein cout économique que doit envisager le décideur.
11.5 Lorsque la perspective sociétale revêt de l’intérêt pour le décideur, étudier l’effet de l’intervention sur le temps de travail perdu par le patient et les aidants pour cause de maladie, de traitement, d’incapacité ou de décès prématuré, que le travail soit rémunéré ou pas, dans le cadre d’une analyse complémentaire.

12. Analyse

12.1 Dans l’analyse de référence, estimer la valeur probable des couts et des résultats (effets) de chaque intervention (conformément à la perspective du payeur public des soins de santé).
12.2 Examiner l’évaluation économique sous l’angle du rapport cout/efficacité différentiel (RCED). On peut indiquer également l’estimation du bénéfice monétaire net.
12.3 Si l’analyse englobe plus de deux interventions, effectuer une analyse séquentielle du rapport cout/efficacité dans les règles standards de l’estimation du RCED, y compris l’exclusion des interventions dominées.
12.4 Dans l’analyse de référence, calculer la valeur probable des couts et des résultats dans le cadre d’une analyse probabiliste, où l’on précise les lois de probabilité des paramètres incertains :
 
12.4.1 Dans la plupart des cas, l’analyse probabiliste prend la forme d’une simulation de Monte Carlo.
12.4.2 Recourir à une forme appropriée de distribution des probabilités, fondée sur les règles standards en fonction de la nature de chaque variable.
12.4.3 Tenir compte de la corrélation entre les paramètres, car cela peut influer sur les valeurs probables et le degré d’incertitude.

13. Incertitude

13.1 Dans l’analyse de référence, examiner l’incertitude associée à la valeur de chaque paramètre par une analyse probabiliste.
13.2 Étudier l’incertitude méthodologique en comparant les résultats de l’analyse de référence à ceux d’une analyse complémentaire fondée sur d’autres choix méthodologiques que ceux recommandés pour examiner l’incidence des différences d’ordre méthodologique.
13.3 Rendre compte de l’incidence de l’incertitude sur l’estimation des couts et des résultats de chaque intervention par des courbes d’acceptabilité du rapport cout/efficacité (CARCE) et des frontières d’efficience (FE).
13.4 Lorsque le problème de décision comprend l’option de commander ou d’effectuer un projet de recherche, l’analyse de la valeur de l’information peut être utile dans l’attribution d’une valeur à ces options et dans la conception du projet de recherche; cette analyse est alors comprise dans l’analyse de référence.
13.5 Examiner l’incertitude structurelle par des analyses de scénarios. Présenter des analyses probabilistes pour chacun des scénarios.

14. Équité

14.1 Dans l’analyse de référence, accorder une importance égale à tous les résultats de l’intervention, sans égard aux caractéristiques des bénéficiaires ou des personnes touchées par l’intervention.
14.2 Pour favoriser la prise de décisions dans une optique sociale, décrire en détail les groupes de patients pertinents afin que le décideur puisse prendre en considération tout enjeu politique ayant trait à la répartition ou à l’équité. Aborder toute question d’équité en tenant compte de l’incidence possible sur le plan de l’équité horizontale (à personne égale, traitement égal) et sur le plan de l’équité verticale (à personne différente, traitement différent).
14.3 Préciser dans le problème de décision toute analyse stratifiée par sous-groupe motivée par des considérations d’équité verticale, les décrire en détail, les justifier et en rendre compte. Dans la justification d’analyses stratifiées, prêter une attention particulière au respect de l’équité horizontale dans tous les points de vue proposés sur l’équité verticale.

15. Compte rendu de l’évaluation

15.1 Présenter les résultats de l’évaluation économique de façon détaillée et transparente. Fournir suffisamment de renseignements pour que le lecteur ou l’utilisateur (le décideur, par exemple) puisse faire une analyse critique de l’évaluation. Utiliser une présentation bien structurée (voir l’annexe 1).
15.2 Prévoir un sommaire de l’évaluation dans un langage non technique.
15.3 Présenter les résultats de l’évaluation économique à l’aide d’éléments graphiques ou visuels en plus de tableaux.
15.4 Inclure des renseignements ou des documents sur les processus d’assurance de la qualité et les résultats de l’évaluation économique dans le compte rendu. Fournir une copie du modèle par voie électronique aux fins d’examen ainsi que de la documentation connexe afin de faciliter la compréhension du modèle, de son déroulement et de son fonctionnement.
15.5 Préciser les sources de financement et les liens hiérarchiques dans le cadre de l’évaluation et mentionner tout conflit d’intérêts éventuel.

 

1. Problème de décision

L’évaluation économique est destinée à éclairer les décisions. En ce sens, elle diffère des activités de recherche usuelles conçues pour mettre à l’épreuve des hypothèses. L’énoncé complet du problème de décision qui fera l’objet de l’évaluation économique est un préalable nécessaire à la conception d’une évaluation économique appropriée.

Dans l’énoncé du problème de décision figurent le choix de la perspective adoptée dans l’étude du problème et la mention des interventions (traitements médicamenteux, interventions chirurgicales, tests de diagnostic) à comparer ainsi que des aspects mesurés (p. ex., couts, résultats ou effets) en vertu desquels elles seront comparées.

Dans le contexte de l’évaluation économique, les aspects mesurés aux fins d’évaluation des interventions sont les « couts » et les « résultats » (effets). Les couts et les résultats à prendre en compte varient selon la perspective adoptée par le décideur à qui l’évaluation est destinée. C’est lui qui devrait déterminer cette perspective. Si l’évaluation économique est entreprise afin d’éclairer plusieurs décideurs, il peut être indiqué d’analyser plusieurs perspectives allant de la plus restrictive à la plus globale. La question de la perspective est abordée en profondeur à la partie portant sur la perspective.

La description des interventions comparées est exhaustive et précise quant à ce qui sera offert, à qui et par qui, dans quel milieu ou cadre et dans quel but. L’intervention de santé ne se résume pas toujours à la technologie que l’on souhaite voir rembourser; des composants des soins de santé connexes à la technologie peuvent influer, et influeront en fait dans bien des cas, sur les couts comme sur les résultats. La gamme des interventions à comparer doit représenter les diverses interventions pertinentes au problème de décision. À titre d’exemple, si le problème de décision a trait au remboursement d’une nouvelle technologie, les comparateurs seront les interventions susceptibles d’être remplacées par la nouvelle technologie. Lorsque le problème de décision est de nature plus générale et porte sur la pratique la plus efficiente pour une population en particulier, les comparateurs seront toutes les options thérapeutiques pertinentes offertes à l’heure actuelle. De plus, s’il y a des raisons de penser que les technologies d’usage courant sont de valeur médiocre ou incertaine par comparaison avec le traitement symptomatique optimal, celui-ci devrait être un comparateur dans l’évaluation. Le décideur sera alors à même de constater si la technologie apparait avantageuse à tort du fait qu’elle est comparée à une technologie en usage de piètre valeur. L’énoncé du but de l’intervention devrait être suffisamment clair pour que les chercheurs déterminent les critères d’efficacité à inclure dans l’évaluation économique.

L’énoncé du problème de décision devrait permettre de déterminer les couts à prendre en considération dans les analyses. Bien entendu, tous les couts supportés par le décideur doivent être pris en compte, mais d’autres couts (relevant d’autres budgets) peuvent être considérés selon les objectifs du décideur. Ces couts doivent être présentés séparément; il peut s’agir de dépenses encourues par le patient (ou le ménage), de couts relevant de budgets de santé hors du champ de responsabilité du décideur, de couts relevant de budgets publics d’autres secteurs que la santé (services sociaux, éducation, système judiciaire) ou de couts rattachés à des budgets du secteur privé (comme le cout de l’emploi). Le problème de décision précise les couts à prendre en compte dans l’analyse conformément à la perspective choisie.

Le problème de décision précise l’horizon temporel applicable aux couts et aux résultats, car la valeur estimée d’une intervention variera probablement en fonction de l’horizon temporel. La détermination de l’horizon temporel est particulièrement importante dans le cas d’interventions tels les traitements préventifs comme les vaccins dont l’effet souhaité dure longtemps. Elle l’est aussi si les effets néfastes (c.-à-d. les incidents indésirables) à long terme sont un aspect important de la technologie.

Souvent, la valeur d’une intervention variera d’un sous-groupe à un autre de la population cible. La question de savoir si cette valeur varie selon le sous-groupe et dans quelle mesure elle varie, le cas échéant, peut revêtir de l’intérêt pour le décideur. Lorsque cela est pertinent, il y a lieu de préciser la nature du problème de décision pour chacun des sous-groupes. Ainsi, l’analyse cernera toute différence dans les autres composantes du problème de décision ou confirmera l’hypothèse voulant que tous les autres facteurs du problème de décision demeurent inchangés.

Il est bon de définir le problème de décision de concert avec des cliniciens, des représentants de la population cible et le décideur de façon à prendre en compte tous les comparateurs et les résultats les plus pertinents pour chaque partie prenante et de fonder l’évaluation sur une connaissance approfondie de toutes les données probantes disponibles.

 

2. Types d’évaluations

Voici les principaux types d’analyses économiques :

  • a. L’analyse cout/utilité (ACU) : les résultats sont exprimés en années de vie ajustées en fonction de la qualité (AVAQ).
  • b. L’analyse cout/efficacité (ACE) : les résultats sont exprimés en unités naturelles (p. ex., années de vie gagnées; vies épargnées, incident clinique évité, résultat clinique obtenu).
  • c. L’analyse de minimisation des couts (AMC) : les interventions comparées sont considérées comme équivalentes du point de vue des résultats pertinents.
  • d. L’analyse couts/conséquences (ACC) : les couts et les résultats des interventions comparées sont présentés de façon séparée, sans regrouper les données.
  • e. L’analyse cout/bénéfice (ACB) : les résultats sont exprimés en unités monétaires.

L’ACU est le type d’évaluation économique recommandé, c’est-à-dire l’analyse de référence préconisé. Parce qu’elle fait appel à un indicateur de résultat générique, elle permet au décideur d’élargir les comparaisons à diverses affections et interventions. Cette caractéristique facilite l’allocation de ressources fondée sur la maximisation des gains en santé.

L’ACU n’est pas forcément parfaite, elle a ses limites. Ainsi, les méthodes et les instruments de mesure de la qualité de vie liée à la santé ou des préférences peuvent aboutir à des valeurs d’utilité différentes pour un même état de santé7. Même si ces limites soulignent la nécessité du perfectionnement méthodologique de l’évaluation économique, l’ACU demeure l’analyse de référence recommandé.

L’ACE est une évaluation économique où les résultats des interventions comparées sont mesurés en unités naturelles (santé) comme les années de vie gagnées, les vies épargnées, l’incident clinique évité ou le résultat clinique obtenu. Le désavantage de l’ACE tient à ce qu’elle ne peut être comparée qu’à des évaluations dont les résultats sont exprimés par le même indicateur ou la même mesure; cette analyse ne facilite pas de vastes comparaisons de technologies ni l’allocation de ressources pour diverses affections. Qui plus est, l’ACE, par définition, n’offre qu’un aperçu partiel des bénéfices d’une intervention et elle est susceptible de faire abstraction d’aspects importants (p. ex., les préférences pour des résultats cliniques). Même si les données probantes démontrent que les résultats importants sont équivalents pour la quasi-totalité des aspects mesurés, à l’exception de la survie ou de la qualité de vie, l’ACU demeure la démarche à privilégier. Elle permet d’établir une comparaison juste de toutes les technologies à l’étude grâce au recours à la même unité de mesure du bénéfice. Les résultats d’une ACE peuvent servir de complément d’information à ceux de l’ACU.

Dans l’AMC, les interventions comparées sont considérées comme équivalentes sur le plan de tous les résultats importants, de sorte que l’intervention la moins couteuse devient la technologie de choix. L’AMC peut être vue comme le prolongement d’une ACU ou d’une ACE lorsqu’il est démontré que les résultats sont équivalents, par conséquent, la comparaison ne porte que sur le cout des interventions. Le principal problème de l’AMC tient à ce qu’elle ne facilite pas la prise en compte de l’incertitude quant à des différences possibles entre les interventions sous l’angle d’importants résultats (y compris les incidents indésirables). L’incertitude quant à des différences du point de vue de résultats mesurés devrait être étudiée par une analyse probabiliste dans le cadre de l’ACU, ce qui faciliterait la comparaison nécessaire entre toutes les interventions.

Dans l’ACC, les couts et les résultats des interventions sont présentés de façon séparée, sans agrégation des données (p. ex., cout de l’intervention, couts hospitaliers, résultats cliniques, incidents indésirables). L’intérêt particulier de l’ACC réside dans la transparence accrue, le fait qu’elle peut être utilisée pour présenter les résultats d’analyses effectuées selon différentes perspectives. Ce type d’évaluation peut également être utile pour comprendre l’incidence à grande échelle d’une intervention. Ce peut être un mode de présentation judicieux des résultats d’interventions concernant la santé publique, d’interventions ayant des retombées sur des secteurs autres que celui de la santé (p. ex., la criminalité, les services sociaux, l’éducation) ou d’interventions ayant des répercussions sur les aidants. L’ACC peut apporter un complément d’information à l’ACU, mais elle ne saurait s’y substituer.

Dans l’ACB, les couts et les résultats sont exprimés en unités monétaires, et la valorisation des résultats se fait selon la méthode de la volonté de payer par évaluation contingente ou analyse conjointe. La difficulté que pose l’ACB dans le contexte de la santé relève principalement de la détermination de la valeur financière des résultats (effets sur la santé) et de la préoccupation éthique soulevée par des décisions d’allocation de ressources motivées par la volonté de payer8. Si l’ACU passe outre des bénéfices importants de l’intervention, il y a lieu alors de les présenter séparément. Si ces bénéfices peuvent s’exprimer en termes pécuniaires, on peut entreprendre une ACB à titre d’analyse complémentaire. Il est nécessaire d’indiquer tous les renseignements au sujet du calcul de la valeur financière des bénéfices, laquelle, conformément au schème social de la prise de décisions adopté dans les présentes Lignes directrices, devrait être déterminée par l’instance supérieure légitime de la société qui finance le système de santé et, de ce fait, refléter les valeurs pécuniaires de la société.

 

3. Population cible

Le rapport cout/efficacité d’une intervention est fonction de la population pour laquelle elle est évaluée. Le problème de décision mentionne la population cible à qui les interventions sont destinées. S’il y a lieu, il décrit le groupe de patients pour qui le traitement est autorisé par Santé Canada, ainsi que toute utilisation hors indication possible. Dans certains cas, la population cible comprend des patients ainsi que leurs aidants (soignants non rémunérés), ou l’évaluation peut être centrée sur l’incidence d’une intervention (p. ex., soins de relève) sur des aidants. Pour certaines interventions de santé de vaste portée (p. ex., programme de vaccination), la population canadienne en général constitue la population cible.

Selon la population cible précisée dans le problème de décision, les chercheurs devraient prendre en considération tout effet s’étendant à d’autres personnes que la population à qui sont destinées les interventions. Par exemple, une intervention destinée à des patients peut avoir des répercussions sur les aidants si le niveau de soins requis par les patients change. Toute retombée dépassant le cadre de la population cible telle que définie dans le problème de décision est étudiée sous l’angle des couts comme des effets dans une analyse complémentaire.

La description de la population cible est détaillée et comprend de l’information pertinente sur des facteurs comme la maladie et sa gravité (p. ex., s’il s’agit d’angine, ne pas s’en tenir à la mention de l’angine, mais indiquer également le stade selon la Société canadienne de cardiologie), sur les affections concomitantes présentes dans la population, ainsi que sur l’âge et le sexe.

L’évaluation économique porte sur la population cible en entier, telle qu’elle est établie dans le problème de décision. Cependant, les chercheurs devraient examiner toute source d’hétérogénéité potentielle susceptible de donner lieu à différentes valeurs d’éléments d’entrée entre des sous-groupes distincts9,10. L’hétérogénéité peut découler de différences sur le plan de l’histoire naturelle de la maladie, de l’efficacité clinique des interventions, des préférences à l’égard des états de santé ou des couts des interventions. Elle peut donner lieu à des décisions différentes quant à l’efficience de l’intervention d’un sous-groupe à un autre. Il incombe donc au chercheur d’établir s’il y a effectivement une importante hétérogénéité dans les paramètres. Une analyse stratifiée permettra au décideur de cerner les résultats différents dans les sous-groupes.

Pour les besoins de l’analyse stratifiée, la population à l’étude est répartie en petits sous-groupes homogènes, chacun d’eux faisant l’objet de l’analyse11,12. Les sous-groupes peuvent être formés en fonction de caractéristiques démographiques (p. ex., âge, sexe, statut socioéconomique), de la gravité ou du stade de la maladie, des comorbidités, des facteurs de risque, d’aspects du traitement (p. ex., milieu communautaire ou hospitalier), du lieu géographique, des taux habituels d’adhésion au traitement ou des schémas de traitement usuels au moment de référence. Si les données disponibles le permettent, les analyses par sous-groupe sont fondées sur des catégories mutuellement exclusives rassemblant toutes les caractéristiques jugées hétérogènes eu égard à un paramètre précis. Par exemple, si la gravité de la maladie est fonction de la présence de diabète (oui/non) et de tabagisme (oui/non), il y aurait quatre sous-groupes mutuellement exclusifs. S’il n’y a pas de données ou si les données disponibles ne sont pas fiables, on a recours à des estimations applicables à la population cible tout en faisant état des limites de cette méthode.

Dans une analyse stratifiée, il est nécessaire d’estimer les paramètres pertinents pour chacun des sous-groupes à l’étude. Vérifier si les données démontrent l’existence de différences entre les sous-groupes. Cela est particulièrement important pour éviter de torturer les données de manière rétrospective afin de leur faire dire ce que l’on souhaite. Par conséquent, il est conseillé d’évaluer la validité apparente des différences dans les données d’entrée sur des caractéristiques précises (sujet abordé plus longuement à la partie sur la modélisation).

Lorsqu’une analyse stratifiée est effectuée, mais que le décideur ne peut mettre en œuvre de décision distincte par sous-groupe, l’estimation appropriée du résultat global est déterminée en pondérant l’estimation dans chaque sous-groupe par la prévalence dans ce sous-groupe, plutôt qu’en calculant un résultat moyen (c.-à-d. le RCED) pour toute la population.

 

4. Comparateurs

L’évaluation économique est une démarche comparative qui examine au moins deux interventions; ces interventions sont les comparateurs. Seront abordés ci-après le relevé, le choix et la description des comparateurs retenus aux fins de l’évaluation économique.

Relevé des comparateurs

Le problème de décision dicte le choix des comparateurs, lesquels sont indiqués dans l’énoncé du problème de décision. Le relevé des comparateurs se fonde sur les composants déterminés dans le problème de décision. Il est primordial de cerner tous les comparateurs appropriés en prévision de l’analyse, car ce choix est déterminant dans l’évaluation du rapport cout/efficacité de l’intervention et dans la pertinence de l’étude économique pour les décideurs. La recension comprend les interventions d’usage courant et les interventions dont la place pourrait changer, en plus des interventions qui pourraient émerger dans un avenir proche. Le chercheur prend en considération tout le cheminement clinique pour le diagnostic en question dans le contexte du problème de décision et une vaste gamme de comparateurs possibles, y compris des interventions individuelles et des stratégies de gestion ou d’intervention. Le relevé des comparateurs ne se résume pas à un type ou une classe d’interventions en particulier (p. ex., dans l’étude d’un biomédicament, il faut déterminer si une intervention non pharmacologique comme un traitement médical figure parmi les options de prise en charge de la maladie).

Il est conseillé de déterminer le caractère approprié du traitement symptomatique optimal comme comparateur lorsqu’il y a des motifs de croire que les technologies courantes sont de valeur médiocre ou incertaine par comparaison avec celui-ci. Le décideur pourra ainsi savoir si la technologie à l’étude semble plus efficiente du fait qu’elle a été comparée à une technologie en usage de piètre valeur.

Sélection des comparateurs

Une fois dressée la liste de tous les comparateurs possibles, la sélection des comparateurs appropriés en vue de l’analyse peut s’amorcer par la détermination de ce que sont le traitement ou les soins courants ou par le relevé des technologies qui perdront leur place au profit de celle à l’étude. Il s’agit des technologies d’usage courant financées à l’heure actuelle par le décideur. De plus, il y a lieu d’envisager la possibilité d’inclure le traitement symptomatique optimal dans l’éventualité où le décideur n’a pas encore pleinement adopté les nouvelles technologies ou si les technologies les plus récentes présentent une valeur incertaine (ou médiocre). Le choix est dicté par des considérations théoriques, et non déterminé par les données disponibles. L’auteur de l’évaluation justifie sa sélection de comparateurs.

Dans certains cas, les comparateurs seront des stratégies de prise en charge (p. ex., technologies interdépendantes, interventions utilisées en appoint – soins destinés à optimiser l’efficacité du traitement principal), non pas des interventions individuelles (c.-à-d. un médicament ou un dispositif seul). S’il étudie des stratégies de prise en charge, le chercheur doit veiller à caractériser l’incertitude des données relatives à toutes les composantes de la stratégie. Ainsi, si celle-ci se compose d’un test et d’un traitement, il doit tenir compte des couts et des effets d’un résultat faux positif et d’un résultat faux négatif du test. Lorsque des interventions sont utilisées en concomitance, il y a lieu d’étudier les diverses combinaisons. Dans les cas où les interventions sont utilisées en séquence (p. ex., si échec thérapeutique ou intolérance, algorithmes de tests de diagnostic), les diverses possibilités de séquence sont à étudier, car les résultats de l’analyse varieront peut-être selon la séquence13. Lorsque le traitement est fonction de certaines manifestations au cours du cheminement clinique, il est conseillé de se pencher sur la séquence des manifestations. Il convient également d’étudier l’effet de l’incertitude quant au choix et à la séquence des comparateurs dans des analyses de scénarios.

La sélection des comparateurs n’est pas chose aisée parfois, notamment lorsque les comparateurs appropriés sont nombreux ou lorsqu’ils ne sont pas les mêmes dans les provinces et les territoires à qui est destinée l’analyse. Il s’agira alors de prendre en considération tous les comparateurs et de justifier le fait de passer outre certains de ces comparateurs le cas échéant. Si les données cliniques probantes appuyant l’évaluation de comparateurs sont rares, procéder à des analyses de scénarios ou en examiner les répercussions sur la prise de décisions.

Description des comparateurs

Décrire avec précision les comparateurs afin de répertorier tous les couts et les résultats (effets) pertinents. Dans cette description figure ce en quoi les interventions diffèrent (p. ex., posologie, voie et fréquence d’administration, utilisation en combinaison avec d’autres interventions, utilisation en séquence avec d’autres interventions, place dans le cheminement clinique et toute règle d’instauration ou d’arrêt de traitement pertinente).

Lorsque les comparateurs sont des stratégies de prise en charge (p. ex., technologies interdépendantes, interventions utilisées en appoint), le chercheur doit distinguer entre les situations où l’intervention constitue un élément supplémentaire de la stratégie, une séquence différente dans le traitement ou une option de rechange qui remplacerait un élément de la stratégie si elle était adoptée. Les stratégies sont à préciser (p. ex., à quel moment et dans quelles circonstances elles sont appliquées et la population à laquelle elles sont destinées), de même que leurs éléments.

 

5. Perspective

La perspective adoptée dans l’évaluation économique est reliée directement au problème de décision et est mentionnée dans l’énoncé de ce problème. La perspective choisie détermine les couts et les résultats qui feront l’objet de l’analyse, comme l’illustre le tableau 1. L’analyse de référence adopte la perspective du système public de soins de santé (voir l’annexe 2) et les couts à considérer sont ceux couverts par le payeur public canadien, tandis que les résultats à examiner sont les effets sur la santé importants pour les patients et leurs aidants.

La population cible étant connue, tout cout ou effet ne visant pas cette population doit faire l’objet d’une analyse complémentaire (voir la partie sur la population cible). À titre d’exemple, si les patients forment la population cible, alors l’incidence de tout effet sur la santé important pour les aidants est à évaluer dans une analyse complémentaire. Dans la prise en considération de couts ou d’effets ayant trait aux patients ou aux aidants, il importe d’être vigilant au sujet du risque de double comptage et d’éviter de valoriser les mêmes éléments au titre de couts et de résultats différentiels (p. ex., les sacrifices en temps consentis pris en compte dans la variation des résultats sur la santé)14,15.

Outre les effets sur la santé, tous les autres effets pertinents pour les patients ou les aidants s’inscrivent dans une perspective plus large que celle du système public de soins de santé et sont à examiner dans des analyses complémentaires dans le cadre desquelles le chercheur précise qui est le payeur ainsi que les couts et les résultats pertinents qui feront l’objet de l’analyse.

Lorsque la perspective est celle d’un payeur du secteur privé, il y a lieu de prêter une attention particulière à la recension des services de santé couverts par le payeur public. Par exemple, celui-ci couvrira sans doute le séjour hospitalier standard, alors que le payeur privé assumera les couts d’une chambre individuelle; dans la même veine, il se peut que la franchise annuelle payée par l’assuré au régime d’assurance médicaments public soit couverte par l’assureur privé, si le patient est assuré à la fois par le régime public et un régime privé. L’assureur privé peut en outre couvrir des services dont les frais ne sont pas remboursés par le payeur public (p. ex., services de santé parallèles, dont la chiropraxie, l’acuponcture, la massothérapie ou les soins dentaires). Lorsque la perspective choisie est celle du gouvernement payeur, où les services de santé ne sont pas les seuls pris en compte, les couts et les effets de programmes et de services relevant d’autres ministères comme l’éducation ou le logement à loyer modique, peuvent être pertinents.

S’il y a plusieurs décideurs et, par conséquent, plusieurs problèmes de décision, on précise la perspective choisie pour chacun des problèmes de décision, qui peuvent nécessiter d’envisager plusieurs perspectives. Cela peut être le cas lorsque l’intervention à l’étude est payée par différents payeurs ou par plus d’un payeur dans diverses mesures.

D’autres perspectives que celle de l’analyse de référence peuvent revêtir de l’intérêt si l’on compte qu’elles influeront sur les résultats. L’on précise alors ces perspectives et leur pertinence eu égard au problème de décision, et ce sont des analyses complémentaires qui examineront les couts et les résultats dans ces contextes. Les couts et les résultats ayant trait à ces perspectives sont présentés séparément. Lorsque la quantification est difficile, on étudie l’ampleur probable de ces couts et résultats et leur influence sur les résultats de l’analyse et les résultats décomposés peuvent être présentés dans le cadre de l’analyse. Voici un exemple où d’autres perspectives peuvent être envisagées : le problème de décision en est un pour le payeur public des soins de santé, mais grâce à l’intervention, des patients pourront reprendre le travail plus tôt que prévu, de sorte que les couts à prendre en considération ne se limitent pas à ceux relatifs au patient et à ses aidants. Dans un tel cas, une analyse complémentaire adoptera une perspective sociétale pour tenir compte de tous les couts et résultats de l’intervention.

Tableau 1 : Exemples de couts et de résultats selon la perspective

  Analyse de référence Analyse complémentaire Exemples
Système public de soins de santéa Payeur privéb Payeur public Société
Types de couts
Couts pour le payeur public de soins de santé  
  • Médicaments, dispositifs médicaux, interventions
  • Équipement, locaux, couts indirects connexes
  • Fournisseurs de soins de santé
  • Services hospitaliers
  • Services de diagnostic, d’évaluation et de dépistage
  • Couts liés aux soins de santé pour les aidants
  • Réadaptation en établissement ou à domicilec
  • Services communautaires comme les soins à domicile, le soutien socialc
  • Soins de longue durée en centre d’hébergement et de soins de longue duréec
Couts pour l’assureur privé    
  • Médicaments, dispositifs médicaux (non couverts par le payeur public)
  • Aides fonctionnelles et appareils
  • Soins parallèles (p. ex., chiropratique, massothérapie, homéopathie)
  • Réadaptation en établissement ou à domicilec
  • Services communautaires comme les soins à domicile, le soutien socialc
  • Soins de longue durée en centre d’hébergement et de soins de longue duréec
Couts pour le gouvernement (outre les soins de santé)    
  • Services sociaux comme l’aide familiale, les repas livrés à domicilec
  • Logement à loyer modique
  • Éducation
Couts pour les patients et les aidants      
  • Débours personnels (p. ex., la quotepart pour obtenir des médicaments, des soins dentaires, une aide de suppléance)
  • Cout des déplacements, rémunération des aidants
  • Primes versées à des assureurs privés
  • Temps du patient consacré aux déplacements et aux traitements
Couts liés à la productivité      
  • Perte de productivité en raison de la diminution de la capacité de travail ou d’une absence du travail de courte ou de longue durée
  • Temps de travail non rémunéré (p. ex., tâches ménagères) perdu par le patient ou les membres de sa famille lui prodiguant des soins
  • Couts d’embauche et de formation d’un remplaçant au travail
Types de résultats
Effets sur la santé pertinents pour les patients et les aidants
  • Qualité de vie liée à la santé
  • Années de vie gagnées
  • Morbidité clinique
Autres effets pertinents pour les patients et les aidants    
  • Information mise à la disposition des patients
  • Diminution du comportement criminel
  • Meilleur niveau de scolarité

aTout effet qui dépasse le cadre de cette perspective est à étudier à l’aide d’une analyse complémentaire.
bLes chercheurs devraient consulter le payeur privé pour déterminer les couts et les résultats pertinents.
cCertains de ces couts peuvent être couverts par le système public de soins de santé, selon leur nature et la province ou le territoire en question.

 

6. Horizon temporel

L’horizon temporel déterminé pour les besoins de l’analyse de référence est suffisamment long pour être en mesure de déceler toutes les différences entre les interventions comparées sur le plan des couts et des résultats16,17. Par souci de cohérence analytique, le même horizon temporel s’applique aux couts et aux résultats.

L’horizon temporel de l’analyse se fonde sur des considérations conceptuelles d’après l’histoire naturelle de la maladie ou l’effet escompté de l’intervention (p. ex., promotion de la santé publique) et il doit englober tous les états de santé caractéristiques de la maladie. Une analyse couvrant une longue période permet d’étudier les éléments d’incertitude; toutefois, il n’est pas nécessaire de collecter des données primaires auprès des patients ou des groupes touchés durant cette période. S’il s’agit d’une maladie chronique ou si les interventions n’ont pas le même effet sur la mortalité, l’horizon de la vie entière est celui à privilégier. Lorsque le problème de décision concerne un groupe à l’évolution dynamique (c.-à-d. dont la composition change avec le temps du fait que des personnes arrivent et que d’autres en partent), l’horizon temporel peut s’étendre au-delà de la vie d’une simple cohorte et devenir un horizon multigénérationnel pour englober l’espérance de vie maximale de patients futurs (p. ex., programmes de vaccination). Un horizon plus court est adapté si les différences notables de cout et de résultat entre les interventions ne sont plus observées au-delà de cette période (p. ex., convergence des cheminements cliniques pour le reste de la vie des patients) ou si la maladie est brève (p. ex., maladie aigüe). En tout état de cause, le choix de l’horizon temporel fait l’objet d’une justification en bonne et due forme.

Parfois, il peut être utile d’envisager plusieurs horizons temporels pour savoir si le rapport cout/efficacité des interventions varie au cours des diverses phases de la maladie ainsi que d’un point de vue global. En cas d’incertitude quant au choix de l’horizon temporel, il importe d’en évaluer les répercussions en comparant les résultats obtenus en vertu de l’horizon temporel de l’analyse de référence et de celui des analyses complémentaires. Il est particulièrement indiqué de procéder ainsi lorsque la plus grande partie des gains d’AVAQ dus au traitement se concrétisent longtemps après le traitement.

 

7. Actualisation

L’évaluation économique qui porte sur des couts et des résultats survenant au-delà d’une période d’un an doit appliquer un taux d’actualisation qui correspond aux préférences de la société pour le temps, c’est-à-dire un taux d’actualisation social. L’efficience économique veut que le taux d’actualisation social rende compte du cout de renonciation social marginal des ressources affectées à l’investissement gouvernemental, lequel peut être assimilé au taux d’intérêt des obligations d’État3,18.

Conformément au point de vue du schème de décision sociale adopté par les présentes Lignes directrices, ce taux doit correspondre au taux d’intérêt réel des obligations d’État applicable à l’instance supérieure (c.-à-d. l’ordre de gouvernement) qui finance le système de soins de santé. Au Canada, ce sont les administrations publiques provinciales, territoriales et fédérale qui sont les principaux bailleurs de fonds du système de soins de santé. Par conséquent, on peut estimer le taux d’intérêt réel en fonction des obligations publiques provinciales et fédérales. Tenant compte de la proportion relative des dépenses publiques en santé des provinces et territoires et du gouvernement fédéral19,20 et de l’uniformité des rendements historiques des obligations canadiennes provinciales et fédérales21, le taux recommandé pour l’analyse de référence est celui des obligations provinciales22.

Les couts engagés au-delà de la période d’un an devraient donc être actualisés en fonction du taux d’intérêt réel des obligations provinciales. En tenant pour acquis que les décideurs doivent probablement composer avec des contraintes budgétaires exogènes6, les résultats devraient être actualisés selon le même taux d’intérêt réel des obligations provinciales duquel est défalqué le taux de croissance du seuil cout/efficacité (c.-à-d. l’estimation de la santé sacrifiée en raison de tout nouveau cout à couvrir dans un système au budget limité)3. En pratique toutefois, au vu de l’incertitude quant à la valeur du seuil cout/efficacité et de son évolution escomptée avec le temps, les présentes Lignes directrices recommandent d’actualiser les couts et les résultats au même taux.

Le taux recommandé pour l’analyse de référence est fixé à 1,5 % par an et il s’applique aux couts comme aux résultats, conformément aux données empiriques récentes sur le cout d’emprunt à long terme dans les provinces canadiennes3. Le taux d’actualisation s’exprime en valeur réelle (c.-à-d. à valeur constante, indexée), ce qui s’inscrit dans le droit fil de la valorisation des ressources en dollars indexés. Le taux d’intérêt nominal provincial est indexé en fonction du taux d’inflation cible de la Banque du Canada (2 % par an à l’heure actuelle)23,24, et l’on calcule une moyenne pondérée des taux réels des obligations provinciales selon la proportion relative de la population représentée par les provinces25.

En principe, le taux d’actualisation qu’il convient d’utiliser est fonction de la distribution dans le temps des couts et des résultats dans l’horizon temporel de l’analyse. En l’absence de données empiriques robustes sur cette distribution, la présente recommandation se fonde sur le cout d’emprunt réel à long terme. On peut étudier l’effet de taux d’actualisation non constants (c.-à-d. taux qui varient selon le moment où les couts et les effets se concrétisent) dans une analyse complémentaire. L’ampleur de la différence observée entre les taux à court terme (moins de 10 ans) et les taux à long terme (10 ans ou plus), ainsi que le degré de divergence des moments où se réalisent les couts et les effets des interventions comparées sont les facteurs qui guident la décision d’étudier l’effet de taux d’actualisation non constants. Plus ces différences ou divergences sont légères, moins les taux d’actualisation non constants auront d’incidence sur les résultats26.

Pour tenir compte de l’incertitude possible et évaluer la robustesse des résultats devant des modifications du taux d’actualisation, il est conseillé d’effectuer une analyse complémentaire où le taux d’actualisation serait de 0 % pour déterminer l’incidence de l’actualisation. De plus, il convient de reprendre l’analyse au taux d’actualisation de 3 % (le double du taux recommandé dans l’analyse de référence) en tant que limite supérieure. À titre facultatif, on peut effectuer une autre analyse complémentaire appliquant un taux d’actualisation de 5 % afin d’établir des comparaisons avec des analyses antérieures.

 

8. Modélisation

La présente partie traite des principaux aspects qui président à l’élaboration du modèle. Il ne s’agit pas d’un guide étape par étape de la construction d’un modèle; des lignes directrices sur la modélisation et des pratiques exemplaires dans ce domaine guident la création ou la constitution du modèle à utiliser dans l’évaluation économique27-33.

Conceptualisation du modèle

La modélisation dans le cadre de l’évaluation économique en santé permet de structurer et de synthétiser les données disponibles et les hypothèses provenant de diverses sources pour estimer les couts et les résultats des interventions étudiées. Le modèle d’analyse décisionnelle a recours à des relations mathématiques pour définir les conséquences possibles de l’ensemble des interventions évaluées34.

La conceptualisation est une étape cruciale de l’élaboration du modèle. Il s’agit de concevoir la structure du modèle en fonction d’états ou d’évènements précis et de leurs interrelations formant le cheminement clinique relatif à l’affection d’intérêt et aux interventions comparées. Le cheminement clinique variera selon la maladie et les interventions qui font l’objet de la modélisation; il peut comprendre des consultations médicales, des hospitalisations, des tests de dépistage ou certains facteurs de risque et divers états de santé. Le modèle doit en outre incorporer la possibilité de changements au long du cheminement clinique (p. ex., pour refléter la régression ou la progression dans le passage d’un état de santé à un autre), et le modèle est structuré de manière à pouvoir s’adapter à ces changements.

La structure du modèle se doit d’être pertinente sur le plan clinique et, pour cette raison, la collaboration étroite avec des personnes possédant une expertise clinique et leur avis d’experts sont nécessaires. Le modèle doit concorder avec l’état actuel des connaissances sur la biologie de la maladie, les relations de cause à effet entre les variables du cheminement clinique et les effets attendus des interventions34. En outre, le modèle doit être conçu en fonction du problème de décision, y compris des milieux dans lesquels les interventions seront comparées, de la perspective de l’évaluation, des couts et des résultats à prendre en considération, de la sphère de compétence et de l’horizon temporel de l’évaluation.

La conceptualisation du modèle ne saurait dépendre de la disponibilité des données. En pratique cependant, cet aspect peut limiter les options dans l’élaboration du modèle, et il sera nécessaire de revoir la structure du modèle en conséquence et de la modifier au fil d’un processus itératif. S’il y a des modèles bien construits et validés qui rendent compte avec justesse du cheminement clinique et tiennent compte de tous les éléments du problème de décision, ils seront à considérer au moment de la conceptualisation de la structure du modèle. L’on pourra alors envisager de communiquer et de collaborer avec des chercheurs qui ont déjà conçu des modèles ou simplement poser des hypothèses structurelles semblables ou, si elles sont toujours pertinentes, reprendre les données sur l’histoire naturelle dans la structuration du modèle. Connaitre des modèles comparables, leurs similitudes, leurs différences, leurs atouts et leurs lacunes permettra d’éviter le chevauchement des tâches dans le traitement d’un problème de décision semblable, et pourra faciliter la validation du modèle (dont il est question plus loin).

L’une des tâches les plus difficiles dans la conceptualisation d’un modèle décisionnel consiste à déterminer le degré de précision de l’information sur les états ou les évènements et le cheminement clinique28. Il n’est pas nécessaire que le modèle reprenne les moindres aspects de l’affection ou du cheminement clinique en question, mais il devrait cerner tous les facteurs susceptibles d’être à l’origine de différences de cout ou de résultats entre les interventions comparées. Plus précisément, le modèle est conceptualisé de telle sorte qu’il permet une représentation de la réalité rendant compte des éléments et des relations essentiels à la résolution du problème de décision35, sans toutefois être plus complexe que nécessaire.

Techniques de modélisation

Le chercheur qui entreprend une évaluation économique a le choix de nombreuses techniques de modélisation décisionnelle, notamment l’arbre de décision28, le modèle d’une cohorte en transition entre des états de santé (modèle de Markov)29, le modèle d’un patient en transition entre des états de santé (microsimulation ou simulation de Monte Carlo du premier ordre)28,29, le modèle de la dynamique du système28,31,36, la simulation d’évènements discrets28,30,36 et le modèle multi-agents28,31,36. Des sources de référence offrent des conseils et des recommandations sur le choix de la technique de modélisation28,35,37,38.

On dispose d’une grande variété de techniques de modélisation pour étudier un problème de décision. Le type de modèle est choisi en fonction des caractéristiques du problème de décision, et ce choix est justifié. Quelle que soit la démarche de modélisation sélectionnée, le modèle est rigoureux et transparent sur le plan méthodologique, et il est recommandé de se conformer aux pratiques de modélisation exemplaires27. On doit opter pour une technique de modélisation adaptée au problème de décision, qui permet une représentation juste du cheminement clinique de la maladie en question et des interventions comparées39.

Il convient de réfléchir au fait de savoir si, pour le problème de décision en question, le modèle sera conçu pour traiter une seule question à une occasion ou s’il servira à aborder de multiples questions de manière continue35. D’autres aspects sont également à considérer, notamment l’hétérogénéité possible ou l’évolution dynamique de la population cible40. Aussi, on peut avoir à déterminer s’il faut modéliser le temps en continu (c.-à-d. la durée exacte) ou par périodes (c.-à-d. selon des intervalles précis). Il y a lieu également de prévoir la possibilité d’interactions entre les personnes ou l’effet possible de l’intervention sur la propagation de la maladie. Le problème de décision peut nécessiter en outre la prise en compte d’une concurrence pour l’accès à des ressources restreintes et la formation de listes ou files d’attente.

Intégration des données sur les paramètres

Quelle que soit la technique de modélisation choisie, des données devront être intégrées au modèle pour préciser les états et les évènements ainsi que le flux des personnes le long du cheminement clinique. La conceptualisation et l’incorporation des données dans le modèle varieront selon les caractéristiques du modèle choisi pour les diverses techniques de modélisation.

Histoire naturelle

En général, l’évaluation économique requiert des données estimatives sur l’effet clinique relatif des interventions (partie sur l’efficacité clinique) et des informations sur l’état de santé au moment de référence (c.-à-d. le début de l’horizon temporel de l’analyse)2,41. Cet état représente l’histoire naturelle de la maladie, tandis que l’effet des interventions est indiqué par rapport à un comparateur comme les soins usuels41,42. Divers paramètres peuvent être choisis pour illustrer l’histoire naturelle de la maladie au moment de référence, et le choix des paramètres sera dicté par le problème de décision41,42.

Si les données sur l’état initial, au moment de référence, et sur l’effet relatif des interventions sont estimées d’après la même source (p. ex., études faisant l’objet d’une métaanalyse en réseau), vérifier que ces données représentent avec justesse la population cible (voir la partie sur la population cible) dans les circonstances en question et justifier leur adaptation aux besoins de l’évaluation42. En particulier, les données fondamentales initiales doivent être applicables dans le contexte canadien dans la mesure du possible. Ainsi, lorsque des données sur l’histoire naturelle au moment de référence sont indépendantes des données sur l’effet relatif des interventions (p. ex., provenant de bases de données administratives ou d’études de cohorte observationnelles) et que ces données représentent mieux le contexte canadien que celles utilisées pour estimer l’effet relatif, il semble raisonnable de les utiliser de préférence aux autres dans l’estimation des paramètres sur l’état au début de l’horizon temporel41,42.

Dans tous les cas, il convient de déterminer les données pertinentes en fonction du problème de décision, puis de cerner les sources de données de façon méthodique, transparente et reproductible. Ensuite, il y a lieu de déterminer si la synthèse des sources de données est appropriée ou possible. Si elle est impossible, il revient au chercheur d’exercer son jugement dans l’évaluation de l’aptitude à l’emploi, de la crédibilité et de la cohérence des sources de données individuelles pour sélectionner celles qui correspondent le mieux à ces critères et justifier son choix (voir la partie sur l’efficacité).

Dans l’estimation et l’incorporation des paramètres de l’histoire naturelle, l’on calcule la distribution de probabilités et l’on propage l’incertitude connexe dans tout le modèle. Lorsque plusieurs sources de données sont jugées appropriées, il convient d’en tenir compte dans l’analyse probabiliste de référence ou dans l’analyse de scénarios prenant en considération les autres sources de données. En l’absence de données canadiennes et lorsqu’il y a lieu de penser que les données disponibles diffèrent considérablement de ce qui serait probablement observé dans la région d’intérêt, cette divergence devrait faire l’objet de l’analyse de l’incertitude qui examinera les effets de divers scénarios. Ces scénarios devraient incorporer d’autres estimations, jugées plus représentatives du contexte canadien. On doit décrire les sources de ces autres estimations (p. ex., sollicitation de l’avis d’experts) et justifier leur prise en compte.

Des données incomplètes sur l’histoire naturelle ou des connaissances peu concluantes sur la maladie en question seront à l’origine d’une incertitude structurelle dans la modélisation. Le cas échéant, il s’agit de documenter les limites des données sur l’histoire naturelle et de pallier ces limites par la création de structures plausibles et la détermination de l’incidence de ces nouvelles structures par l’analyse de scénarios. Dans l’éventualité où les résultats de ces analyses diffèrent suffisamment entre eux pour influer sur le rapport cout/efficacité, il convient de cerner et d’examiner de manière critique les motifs de ces différences et de recommander ensuite une structure de modèle en particulier (voir la partie sur l’incertitude).

Estimation de l’efficacité clinique

Dans la modélisation, les paramètres estimatifs de l’efficacité clinique, en plus des renseignements sur l’histoire naturelle au moment de référence, définissent le mouvement le long du cheminement clinique intégré au modèle. On peut combiner l’estimation de l’effet relatif et les données sur l’histoire naturelle au début de l’horizon temporel pour établir les tendances du modèle à long terme pour chaque intervention34,41. Le chercheur consultera l’article de Cooper et coll.42 pour en savoir plus sur le calcul d’estimations absolues de probabilités d’effet par la combinaison des effets relatifs estimatifs et des données de base. Les mesures de l’effet ne se limitent pas aux résultats binaires, elles peuvent comprendre d’autres types d’échelles de résultat (p. ex., variation de la QVLS). Le cas échéant, le modèle devrait tenir compte de la variation de l’efficacité de l’intervention avec le temps.

Estimation des effets indésirables

L’évaluation économique doit préciser la manière dont les incidents indésirables ont été cernés et la méthode de prise en compte. Si les incidents indésirables ont des répercussions négligeables sur les résultats relatifs à la santé ou s’ils n’ont aucune incidence sur les couts et les ressources, il est d’usage de les exclure de la modélisation. Dans ce cas, on doit justifier clairement cette exclusion.

L’incorporation des incidents indésirables dans la modélisation s’effectue en combinant le problème de santé et les incidents indésirables connexes. Quant à la valeur de l’utilité, le coefficient d’utilité de l’état de santé peut alors être ajusté en fonction du coefficient de désutilité attribué à l’incident indésirable pour estimer la valeur de l’utilité de l’état de santé accompagné de l’incident indésirable43.

Si les effets indésirables sont transitoires (c.-à-d. brefs), ils sont incorporés en modulant en conséquence les états de santé ou les évènements du modèle. Si les données sur la prévalence, les couts et le coefficient de désutilité de chaque incident indésirable de chacune des interventions sont disponibles, le modèle gagne en transparence.

Résultats et couts liés aux soins de santé non attribuables aux interventions ou à la maladie en question

La question de savoir s’il est pertinent de tenir compte de résultats cliniques et de couts liés aux soins de santé qui ne sont pas imputables à l’intervention étudiée ou à la maladie en question, mais qui découlent de l’effet de l’intervention sur la santé du patient fait l’objet d’un débat. Plus précisément, l’intervention qui prolonge la vie se traduira par la possibilité pour le patient de subir des incidents cliniques ou d’occasionner des couts en raison du vieillissement ou d’autres états de santé survenant dans cette durée de vie supplémentaire. Si les effets sur la santé sont projetés durant la vie entière, il devrait en être de même des couts2. La modélisation des résultats et des couts projetés fait toujours l’objet d’études et de débats44. Dans l’intervalle, le chercheur peut envisager l’analyse d’un scénario reposant sur des hypothèses voulant que des couts liés aux soins de santé et des effets ne soient pas directement imputables à l’intervention ou à la maladie faisant l’objet de l’évaluation, mais qu’ils se concrétisent probablement dans l’horizon temporel déterminé.

Sollicitation de l’avis d’experts

En l’absence de données suffisantes pour estimer un paramètre, il peut être utile de solliciter l’avis d’experts quant à la valeur quantitative du paramètre. Pour les besoins des présentes Lignes directrices, la sollicitation en bonne et due forme de l’avis d’experts pertinents quant aux aspects quantitatifs des intrants du modèle sur l’importance d’un paramètre et l’incertitude connexe (c.-à-d. sollicitation de l’avis d’experts) est différente de la consultation d’experts pour connaitre leur opinion éclairée sur des aspects comme la structure du modèle, la validité apparente des résultats ou la pertinence d’incidents cliniques.

La sollicitation de l’avis d’experts s’inscrit dans le cadre d’une démarche structurée à mettre en œuvre et à décrire précisément. Il s’agit de déterminer les informations recherchées, d’identifier le groupe d’experts représentatifs à interroger, d’appliquer des méthodes précises d’obtention des informations (qui cerneront l’incertitude de l’estimation propre à chacun des experts et entre les experts du groupe) et de synthétiser les informations obtenues de tous les experts. Pour en savoir plus sur la démarche, le chercheur est prié de consulter les sources de référence que voici45,46. Il convient de justifier le choix des experts interrogés en fonction des informations recherchées, de la perspective de l’analyse et de l’expertise établie des personnes choisies.

Il convient avant toute chose de s’employer à relever des sources de données appropriées pour estimer la valeur des paramètres et, au fur et à mesure du perfectionnement des méthodes d’obtention d’informations, de considérer la sollicitation de l’avis d’experts comme une source de données pouvant combler les lacunes dans les informations dont on dispose.

Calage

Le calage du modèle consiste en l’estimation de paramètres inconnus du modèle en établissant une concordance entre les données de sortie du modèle et des données externes qui n’ont pas servi à paramétrer le modèle47,48. Le calage peut être une méthode d’estimation des paramètres du modèle en cas d’insuffisance des données. Il y a lieu de distinguer le calage d’autres sources d’estimation des paramètres, qui reposent sur des processus étrangers au modèle comme tel et qui ne tiennent pas compte de la concordance générale entre les résultats de la modélisation et des données externes.

Le calage comme moyen de déterminer la valeur des paramètres n’est pas d’usage courant et, la méthodologie évoluant, il convient de s’employer avant tout à repérer des sources de données appropriées qui permettront d’estimer au mieux les paramètres et de ne s’en remettre au calage que pour combler les lacunes du corpus de données probantes.

Validation

Le modèle est dument validé pour déterminer son exactitude. La validation consiste en une mise à l’épreuve du modèle pour confirmer qu’il fait effectivement ce qu’on attend de lui. En principe, la validation est adaptée aux circonstances particulières de la modélisation, pas au modèle comme tel33; donc, le chercheur évalue la validité du modèle dans le contexte précis du problème de décision.

Il convient d’évaluer la validité apparente du modèle au moment de sa conception afin de s’assurer dès lors de la validité. Cette évaluation, de nature qualitative surtout, a pour objectif de déterminer si la structure, les hypothèses et les paramètres du modèle représentent avec précision le cheminement clinique d’intérêt et l’effet potentiel des interventions. Elle est effectuée à la lumière de l’opinion experte de spécialistes en la matière33,49, tôt dans le processus et de manière itérative tout au long de l’analyse.

La validation interne du modèle constitue une mesure d’assurance de la qualité des calculs mathématiques et de l’estimation des paramètres33. Cette validation devrait relever de chercheurs qui n’ont pas participé à l’élaboration du modèle. Elle met à l’épreuve la logique mathématique du modèle et détecte les erreurs. Plus précisément, la validation interne consiste en la vérification de chacune des équations et de leur mise en œuvre dans le code33 et des paramètres qui doivent illustrer avec justesse les sources utilisées. Des techniques permettent de valider l’exactitude du codage, dont la double programmation (c.-à-d. programmation indépendante de segments d’un modèle par deux programmeurs), la répétition du test qui fait prendre des valeurs extrêmes ou la valeur zéro aux différents paramètres et l’examen de scénarios qui produisent des résultats connus33,50,51. Le résultat contrintuitif de la validation interne, qui peut découler d’une erreur ou d’un nouvel éclairage, est analysé et expliqué.

Si d’autres modèles portent sur le même problème de décision ou sur un problème semblable, il est conseillé d’évaluer le degré d’adéquation des résultats des modèles (c.-à-d. validation croisée)33,52-56. Cependant, l’importance de ce type de validation est fonction du degré de similitude de la structure, des méthodes et des sources de données des modèles. S’il y a une grande dépendance entre les modèles, la validation croisée sera moins utile33.

La validation externe du modèle, à l’aide de données réelles, déterminera si les estimations de la modélisation sont conformes à d’autres données fiables et indépendantes de préférence (c.-à-d. données qui n’ont pas servi à documenter le modèle), comme les données sur l’évolution naturelle ou la mortalité. Ainsi, il s’agit de procéder à la modélisation et de déterminer dans quelle mesure les résultats modélisés correspondent aux sources de données indépendantes33. Toute divergence ou incohérence majeure est examinée et documentée. En cas de discordance, le chercheur justifie son choix de source de données qui représente le meilleur compromis pour ce qui est de l’aptitude à l’emploi, de la crédibilité et de la cohérence, et cette source de données devrait dicter la spécification technique du modèle définitif. Si l’analyse a pour objectif d’établir des prévisions, il convient d’évaluer la validité du modèle et de ses prévisions au fur et à mesure de la disponibilité des données.

Il convient de documenter les processus de validation et de présenter cette information dans la description technique du modèle. Les processus sont décrits à un niveau de détail qui permet de bien les comprendre de sorte que quiconque utilise ou examine le modèle peut déterminer que ses résultats sont dignes de confiance.

Transparence

La transparence et la clarté dans la présentation de la démarche sont essentielles à l’évaluation critique et à la reproduction du modèle. Le chercheur doit donc fournir des informations détaillées sur la conception de la structure du modèle. Une représentation graphique de la structure du modèle est fortement recommandée afin de mieux comprendre sa structure et son fonctionnement et de faire ressortir les hypothèses les plus importantes29-31. Il est recommandé de décrire avec précision le flux des données dans le modèle. 

Sur le plan technique, la transparence veut que le modèle, à savoir sa structure et tous ses éléments, soit décrit en détail, afin que ceux possédant l’expertise et les ressources nécessaires puissent le reproduire33. De plus, la structure du modèle, notamment les hypothèses et tout jugement subjectif, est justifiée précisément afin que le décideur puisse en évaluer l’acceptabilité. Les sources de données choisies, les méthodes d’analyse des données saisies et l’incorporation subséquente de données dans le modèle peuvent influer sur les résultats de l’évaluation; par conséquent, il est nécessaire de les énoncer clairement et de les justifier. Toutes les étapes de l’analyse doivent faire l’objet d’une présentation séparée avant l’agrégation des résultats sur le rapport cout/efficacité (efficience). Le chercheur doit également faire état des limites connues de la modélisation.

 

9. Efficacité clinique

L’efficacité désigne le rendement ou l’effet d’une intervention de santé dans des conditions optimales, contrôlées, habituellement dans le cadre d’un essai comparatif randomisé (ECR), alors que l’efficacité clinique correspond au rendement ou à l’effet de l’intervention dans le monde réel (c.-à-d. dans la pratique clinique courante)17. Les décideurs se soucient surtout des répercussions de l’intervention d’intérêt sur les patients dans la pratique courante. L’analyse de référence doit porter sur des paramètres cliniques instructifs quant au gain de durée et de qualité de vie.

La question fondamentale est de savoir si les données provenant d’un ECR rendent compte de l’efficacité dans la réalité (soit, la validité externe de l’essai clinique). Pour être pertinente aux yeux du décideur, l’évaluation économique devrait porter sur des effets et des couts qui correspondent à l’efficacité réelle de l’intervention, non pas à son efficacité théorique. Lors de l’estimation de l’efficacité réelle à partir des données sur l’efficacité théorique, le chercheur doit cerner les facteurs qui diffèrent selon que l’on est dans un contexte réel ou dans celui de l’essai clinique (p. ex., adhésion thérapeutique, mise en œuvre). L’aspect essentiel en vue de l’intégration à l’analyse de facteurs témoignant de la réalité est le poids des données probantes disponibles illustrant un lien entre les facteurs modifiant l’effet de l’intervention et l’évolution de l’état de santé du patient sous des aspects importants. Le cas échéant, le chercheur doit présenter ces liens de manière transparente et justifier la prise en compte des facteurs en question.

Les effets néfastes (incidents indésirables) des interventions de santé doivent également faire partie de l’évaluation. Il importe dans l’évaluation économique de prendre en considération les effets indésirables des interventions comparées, car ils peuvent influer sur les couts et les résultats. Par exemple, selon leur nature, leur fréquence, leur durée et leur gravité, ces évènements indésirables peuvent avoir une incidence sur l’observance du traitement, la mortalité, la morbidité, les préférences (valeurs d’utilité) ou l’utilisation de ressources. L’évaluation doit porter plus spécialement sur les effets néfastes qui revêtent une importance clinique et qui, de ce fait, auront sans doute une influence sur les couts et les effets escomptés des interventions comparées dans la pratique clinique courante.

Types d’estimations des paramètres

L’estimation des paramètres de l’efficacité clinique et de ceux des effets néfastes peut s’exprimer sous diverses formes. Dans la conceptualisation du cheminement clinique (voir la partie sur la modélisation), le modèle économique incorporera des estimations de l’effet relatif, dont le risque relatif, le rapport de cotes ou la différence de risque. L’estimation relative de l’efficacité clinique ou des effets néfastes peut passer également par la détermination du rapport des risques instantanés fondée sur les données relatives à la survenue de l’évènement en fonction du temps, extraites des analyses paramétriques ou non paramétriques de la survie42. Le recours au rapport des risques instantanés pour illustrer l’estimation de paramètres dans l’évaluation économique repose souvent sur l’hypothèse voulant que l’effet relatif soit constant durant la période couverte par les données de l’étude. Le chercheur doit déterminer si cela représente une approximation raisonnable du comportement probable des effets relatifs de l’intervention dans le contexte de l’analyse. Dans ce jugement du caractère raisonnable de l’approximation, les variables qui changent avec le temps et leur incidence possible sur le rapport des risques instantanés doivent être prises en compte. Il est de la toute première importance de savoir si cette simplification s’écarte de la réalité et si cela risque de produire des résultats trompeurs.

Lorsqu’il n’est pas pratique d’estimer l’effet comparatif ou que les fortes préférences envers un traitement (soit, absence d’incertitude absolue) posent un problème éthique à la tenue d’une étude comparative, le chercheur doit s’en remettre à des données mesurées en termes absolus (c.-à-d. estimations distinctes pour chacune des interventions d’intérêt), non pas en termes relatifs. Cela peut être le cas lorsque le chercheur est en quête d’information sur le risque d’un incident indésirable ou sur l’efficacité clinique d’une intervention dans le contexte d’une maladie mortelle d’évolution rapide57. De même, pour l’évaluation qui s’attarde à l’acquisition d’une nouvelle technologie (appareil d’imagerie par résonance magnétique, tomodensitomètre, par exemple), alors qu’aucune technologie comparative n’était offerte auparavant, l’effet d’intérêt peut être exprimé en termes absolus, comme le nombre de cas détectés.

Les données exprimées en termes absolus peuvent être présentées sous la forme de taux. Les termes « probabilité » et « taux » sont souvent utilisés de manière interchangeable. Lors de l’estimation de la probabilité dans un modèle décisionnel, le taux d’évènements instantané est transformé en une probabilité sur une période précise2,34,58. En l’absence de données pour établir cette probabilité de manière empirique, la conversion n’est possible que s’il y a lieu de penser que le taux est constant dans la période d’intérêt2,34. La probabilité peut servir à illustrer le passage d’un état de santé à un autre ou à connaitre l’exactitude d’un test de diagnostic (c.-à-d, sensibilité, spécificité).

Sources et évaluation des données

Les données utilisées dans l’estimation des paramètres d’efficacité clinique (effets cliniques, détection, effets néfastes, par exemple) peuvent provenir d’ECR, d’études observationnelles, de bases de données administratives, d’études non comparatives ou d’experts. Le chercheur doit déterminer les données pertinentes (applicables à la population cible, aux comparateurs et à l’instance en question) pour les besoins de l’évaluation économique en fonction du problème de décision. Il doit procéder à une recherche documentaire sur l’efficacité clinique et les effets néfastes, conçue selon le problème de décision. La recherche se doit d’être exhaustive et reproductible.

L’évaluation des sources de données doit tenir compte du contexte de l’évaluation. Il importe que les données qui éclairent l’estimation des paramètres soient pertinentes au problème de décision et que, par conséquent, elles conviennent à l’objectif poursuivi. L’aptitude à l’emploi est déterminée par l’examen des différences entre les sources de données et le problème de décision à l’étude. Il importe donc de considérer des aspects tels les patients à qui s’adresse l’intervention, ceux qui sont susceptibles d’éprouver un incident indésirable, les différences de dose ou de mode d’administration ou si les soins usuels ou standards sont les mêmes. Si une recherche ou une revue documentaire a déjà été entreprise sur le sujet, en déterminer la convenance eu égard au problème de décision en évaluant sa portée et les critères d’inclusion et d’exclusion. De même, l’aptitude à l’emploi d’une métaanalyse ou d’une métaanalyse en réseau est évaluée d’après sa portée et ses critères d’inclusion et d’exclusion dans le contexte du problème de décision à l’étude42.

La crédibilité de l’estimation des paramètres (qui s’entend, pour les besoins des présentes Lignes directrices, de l’absence de biais apparent, où biais désigne l’écart systématique de la valeur estimée par rapport à la juste valeur intrinsèque) est également à prendre en considération. L’évaluation de la crédibilité impose de déterminer si la rigueur méthodologique de la source de données est telle qu’elle permet d’estimer la valeur vraie des paramètres. Il y a donc lieu de juger des déséquilibres initiaux des caractéristiques des patients entre les groupes de l’étude et d’autres sources de biais, dont le biais dû aux co-interventions et le biais de détection.

La cohérence entre la source de données et les autres données utilisées dans le modèle est un autre critère à prendre en compte dans l’évaluation de la source de données59. L’évaluation de la cohérence repose sur l’aptitude à l’emploi et la crédibilité des sources de données utilisées pour estimer les divers paramètres, mais elle relève également du mode de collecte et de mesure des données comparativement aux autres paramètres.

Estimation des paramètres

Lors de l’estimation des paramètres d’efficacité clinique et des effets néfastes, le chercheur doit en principe procéder à la synthèse des données de toutes les sources en vertu de méthodes qui tiennent compte des différences d’aptitude à l’emploi, de crédibilité et de cohérence entre les diverses sources60-64, afin que l’estimation se fonde sur la totalité de l’information disponible. La distribution des probabilités pour ce qui est de l’efficacité clinique et des effets néfastes est calculée et l’incertitude connexe est propagée dans tout le modèle (voir les parties sur l’incertitude et la modélisation).

La conception de méthodes de synthèse des données probantes de toutes les sources disponibles demeure un sujet de recherche continue. En l’absence de méthodes appropriées de regroupement des sources de données, la synthèse des données de sources jugées aptes à l’emploi, crédibles et cohérentes peut se faire par la technique statistique de la métaanalyse ou de la métaanalyse en réseau. Le problème de décision faisant l’objet d’une évaluation économique afin d’éclairer la prise de décisions sur les soins et les services de santé peut englober plus de deux comparateurs ou encore deux interventions qui n’ont jamais été comparées entre elles directement; dans un tel cas, la métaanalyse en réseau, qui permet la comparaison simultanée de multiples interventions ainsi que la prise en compte de données issues de comparaisons indirectes, peut être préférable à la métaanalyse standard de comparaison par paire. Si l’on recense une revue systématique ou une synthèse pertinente sur le sujet, on peut envisager de l’actualiser par l’analyse complémentaire d’autres études, pourvu que celles-ci soient jugées pertinentes, crédibles et cohérentes. On pourra donc combiner les nouvelles études et l’estimation récapitulative de la synthèse antérieure ou inclure les estimations de chacune des études pour mettre à jour la synthèse antérieure. 

Lorsqu’une seule source de données est répertoriée ou lorsque les différences entre les sources de données soulèvent des préoccupations quant à la possibilité d’une synthèse de l’information, les sources individuelles font l’objet d’une évaluation de leur aptitude à l’emploi, de leur crédibilité et de leur cohérence par rapport aux données utilisées ailleurs dans le modèle. La sélection d’une source de données parmi d’autres requiert d’exercer son jugement pour déterminer laquelle représente le meilleur compromis du point de vue de ces critères. Par exemple, s’il s’agit d’éclairer des décisions à l’échelle de la population, la comparaison des données d’une étude observationnelle non randomisée ou d’une base de données administrative et celles d’un ECR se déroulant dans des conditions idéales, sur un horizon temporel court et selon des critères d’inclusion et d’exclusion restrictifs de sélection des participants peut nécessiter un compromis entre l’aptitude à l’emploi et la crédibilité relatives des sources de données respectives. De même, le chercheur peut être incertain de la crédibilité des estimations des paramètres de l’efficacité clinique ou des effets néfastes provenant d’une étude non comparative à un seul groupe, même si les caractéristiques des patients de l’étude sont semblables à celles des patients dont il est question dans les sources de données utilisées pour estimer d’autres paramètres du modèle. Il y aura lieu alors d’établir un compromis entre cette étude et une étude reposant sur la sollicitation méthodologiquement rigoureuse de l’avis expert de médecins, considérée comme étant crédible, mais pas adaptée à l’usage, si le problème de décision nécessite des estimations des incidents indésirables rapportés par les patients. Le raisonnement qui intervient dans le choix des sources de données qui représente le meilleur compromis pour ce qui est de l’aptitude à l’emploi, de la crédibilité et de la cohérence ainsi que ce choix et l’estimation des paramètres sont décrits en détail et justifiés dans le rapport de l’évaluation économique.

Il convient d’examiner les répercussions de ces compromis dans l’analyse probabiliste de l’analyse de référence ou dans l’analyse d’autres scénarios. Autrement dit, l’estimation jugée crédible, mais dont l’aptitude à l’emploi est incertaine (p. ex., estimations de l’efficacité) sera prise en compte dans l’analyse probabiliste en déplaçant l’estimation de l’effet et de l’intervalle en conséquence. Des experts (en principe dans le cadre d’une démarche de sollicitation de l’avis d’experts) ou des données empiriques peuvent permettre de préciser l’ampleur de l’incidence estimée de la non-aptitude à l’emploi sur l’estimation du paramètre62. Il est conseillé d’élargir l’intervalle qui comprend la valeur estimée pour tenir compte de l’incertitude associée à l’ampleur de l’effet. Une autre méthode consiste à utiliser la source de données représentant le meilleur compromis du point de vue des trois critères dans l’analyse initiale de l’analyse de référence, et d’étudier la sensibilité des résultats à d’autres sources d’estimation des paramètres dans des analyses de scénarios ultérieures.

Lorsqu’on dispose de peu d’informations pour procéder à l’estimation des paramètres, l’analyse de l’incertitude occupe une place importante. Par leur largeur et leur forme, les distributions incorporées dans l’analyse probabiliste de référence illustrent la rareté des données et l’incertitude qui en découle, des aspects évalués dans des analyses de scénarios reposant sur d’autres hypothèses structurelles ou sources d’estimations. Pour en savoir plus au sujet de la synthèse de données restreintes (p. ex., traitement de données sur des groupes d’étude sans évènement), le lecteur est prié de consulter l’article de Cooper et coll.42.

Autres considérations importantes

Indicateurs de substitution et biomarqueurs

Dans l’essai clinique, l’indicateur de substitution remplace la mesure directe des préférences, de l’état et de la survie des patients65. En l’absence de données sur le paramètre d’intérêt, l’indicateur de substitution se révèle un indicateur prévisionnel de l’efficacité clinique ou des effets néfastes des interventions comparées65.

Il convient d’évaluer et de justifier la validité des indicateurs de substitution utilisés pour estimer des paramètres dans l’évaluation économique66. Avant de choisir la source de données parmi celles proposant des candidats à titre d’indicateurs de substitution, évaluer ces indicateurs en fonction des critères susmentionnés que sont l’aptitude à l’emploi, la crédibilité et la cohérence. Ici aussi, il convient d’exercer son jugement pour déterminer la source de données (c.-à-d. indicateur candidat) qui représente le meilleur compromis du point de vue de ces critères pour étayer l’estimation des paramètres. Dans l’analyse de référence, la véritable relation entre l’indicateur de substitution et le résultat final est considérée comme étant inconnue et l’analyse probabiliste tient compte de cette incertitude. Celle-ci peut également être étudiée dans le cadre de l’analyse de scénarios. S’il y a plusieurs indicateurs de substitution valides, l’analyse de l’incertitude devrait en tenir compte.

Bien que des chercheurs s’en remettent à des biomarqueurs dans l’analyse par sous-groupe pour cerner les patients les plus susceptibles de bénéficier de l’intervention à l’étude (voir la partie sur la population cible), il peut être difficile de justifier leur utilité comme indicateurs de substitution valides. Il s’ensuit que le biomarqueur capable de départager les patients les plus susceptibles de bénéficier de l’intervention des patients les moins susceptibles d’en tirer avantage ne pourra pas forcément tenir lieu d’indicateur de substitution valide pour mesurer l’efficacité clinique65. Pour s’assurer que l’intervention produit l’effet escompté, évaluer et justifier la validité du biomarqueur, et sa conformité au critère d’indicateur de substitution. Pour ce faire, déterminer si les données de fond sont appuyées par un raisonnement mécaniste clair et si elles prouvent que l’effet observé sur l’indicateur de substitution est révélateur de l’effet sur l’indicateur clinique65.

En définitive, la justesse de la démarche de transposition du comportement d’un indicateur de substitution en un résultat clinique ne sera établie qu’à l’aide de données réelles qui permettront de vérifier les résultats. Dans l’intervalle, il est recommandé de respecter les directives ci-dessus pour réduire au minimum le risque de produire des résultats trompeurs. Lorsque la collecte d’autres données réelles revêt de l’intérêt pour le décideur, cette possibilité devrait être étudiée dans l’analyse de l’incertitude du analyse de référence à l’aide d’une analyse de la valeur de l’information (voir la partie sur l’incertitude).

Extrapolation

Selon la nature des données dont on dispose pour étayer l’estimation des paramètres et l’étendue des censures (c.-à-d. l’évènement d’intérêt ne s’est pas produit avant la fin de la période d’observation), il peut être nécessaire d’extrapoler les données pour estimer les effets à long terme (p. ex., lorsque seulement des données d’efficacité à court terme sont disponibles). Pour ce faire, il est nécessaire d’estimer l’histoire naturelle de la maladie à long terme et l’efficacité de l’intervention au-delà de l’horizon temporel couvert par les données.

On peut extrapoler à long terme les estimations de paramètres à court terme par l’analyse du délai de survenue de l’évènement (temps écoulé jusqu’à la survenue) ou analyse de survie à l’aide d’un modèle paramétrique67. Des méthodes systématiques d’analyse de la survie à partir de données individuelles ont vu le jour. L’analyse devrait se conformer à l’algorithme (Survival Model Selection Process Algorithm) conçu par l’Unité de soutien décisionnel à la demande du National Institute for Health and Care Excellence (NICE)68.

Les hypothèses relatives aux effets du traitement au-delà de la période couverte par les données d’observation et aux effets du traitement au-delà de la période de traitement ont une importance centrale dans la détermination de la justesse de la méthode d’extrapolation. Le chercheur fait état du pourcentage de l’effet estimé qui survient au-delà de la période couverte par les données d’observation et le justifie. Il peut l’exprimer par le rapport entre le nombre d’AVAQ différentiel estimé durant la période couverte par les données sur l’efficacité clinique et le nombre d’AVAQ différentiel estimé pendant l’horizon temporel du modèle. Il mentionne également le pourcentage du bénéfice différentiel estimé qui se produira après l’arrêt du traitement. Il peut l’exprimer par le rapport entre le gain d’AVAQ différentiel durant la période de traitement et le gain d’AVAQ différentiel estimé pendant l’horizon temporel du modèle. L’examen du bienfondé de ces deux valeurs sur le plan clinique permettra de déterminer la justesse et la pertinence de la méthode d’extrapolation. Le jugement d’experts pourra être utile à ce sujet.

Dans tous les cas, il importe de préciser le poids des données probantes qui appuient l’extrapolation des estimations de paramètres. Si des données individuelles sur les patients sont accessibles, il convient d’adopter les techniques appropriées conformément à l’algorithme Survival Model Selection Process68, de justifier les méthodes et les hypothèses. L’incertitude sera pleinement prise en considération par une analyse probabiliste incorporant la corrélation entre les paramètres dans la fonction de survie. On doit également analyser l’incertitude structurelle selon d’autres structures paramétriques plausibles et comparer les résultats avec et sans une hypothèse de régression à effet proportionnel pour évaluer dans quelle mesure les distributions concordent avec les données observées.

Lorsque seules des données agrégées sont accessibles, on peut envisager de recréer les données individuelles sur les patients à l’aide de certaines méthodes69,70, plutôt que de s’en tenir aux données sommaires. Pour obtenir des informations complémentaires sur les méthodes de synthèse de données sur le temps écoulé avant la survenue de l’évènement d’intérêt (survie) d’après des données agrégées ou des données individuelles de patients, le lecteur est prié de consulter l’article de Cooper et coll.42.

S’agissant de l’extrapolation, la durée et l’ampleur de l’effet clinique au-delà de la période d’observation des études constituent un jugement crucial. Pour justifier la plausibilité de l’extrapolation, on peut avoir à s’appuyer sur des sources de données externes ou sur le jugement d’experts en biologie ou en pratique clinique67. L’analyse de référence repose sur la meilleure estimation possible de la durée et de l’ampleur de l’effet clinique au-delà de la période couverte par les données disponibles. Il n’est pas acceptable de postuler que l’efficacité clinique relative demeurera inchangée pendant l’intervention, à moins de présenter une justification raisonnable à cet égard. Dans tous les cas, des analyses de scénarios mettront à l’épreuve des hypothèses supposant que l’efficacité clinique diminue. Il ne s’agit pas d’une liste exhaustive, mais les hypothèses raisonnables quant à l’effet de l’intervention sont celles voulant que celui-ci ne dure que le temps de la période couverte par les données disponibles, qu’il diminue avec le temps ou qu’il se maintienne durant l’intervention. En ce qui a trait à la deuxième hypothèse, l’on peut envisager que la réduction relative du risque d’évènements diminue après un certain temps soit pour se stabiliser au même point que l’efficacité clinique réduite, soit pour décliner jusqu’à ce que l’intervention ne soit plus efficace. Il convient tout particulièrement d’être prudent dans l’extrapolation d’estimations de paramètres établies au début du cycle de vie de la technologie71, en raison notamment des extrapolations importantes qui pourraient s’avérer nécessaires pour estimer le délai moyen de survenue de l’incident au cours du cycle de vie de la technologie.

Nouveaux plans d’essai clinique

Pour l’heure, la méthodologie adaptative est la nouvelle approche la plus répandue dans les essais cliniques. Le plan d’essai clinique adaptatif se fonde sur une méthodologie statistique autorisant la modification d’un ou de plusieurs aspects de l’essai (p. ex., taille de l’échantillon, rapport de randomisation, nombre de groupes d’intervention) et une analyse intermédiaire avec contrôle rigoureux des erreurs de type I72. Lors de la sélection des sources de données, il convient d’évaluer le devis des essais cliniques pour cerner les aspects pouvant compliquer l’utilisation ou l’interprétation des données en examinant les questions de l’aptitude à l’emploi, de la crédibilité et de la cohérence. Étant donné la nature évolutive de ce plan d’étude clinique, il est recommandé d’utiliser d’autres sources de données, le cas échéant, pour étayer l’estimation des paramètres dans l’analyse de référence et étudier l’incidence des résultats obtenus à partir de nouveaux plans d’essais cliniques dans l’analyse de scénarios.

 

10. Mesure et évaluation de la santé

La qualité de vie liée à la santé (QVLS) est une mesure multidimensionnelle des effets d’une maladie ou d’une intervention sur le bienêtre général de la personne; elle englobe la capacité fonctionnelle physique et professionnelle, l’état psychologique, les interactions sociales et les manifestations somatiques73. Il existe de nombreuses méthodes de mesure de la QVLS ou d’aspects de celle-ci; toutefois, les mesures fondées sur les préférences, qui débouchent sur un coefficient sommaire global représentant la valeur numérique d’un état de QVLS particulier, sont les seules qui conviennent dans l’ACU.

Dans les présentes Lignes directrices, les termes « préférence » et « utilité » sont considérés en général comme des synonymes quand il s’agit de la mesure de la QVLS. Cependant, techniquement, le terme « utilité » désigne les préférences obtenues par des méthodes de choix faisant intervenir l’incertitude (c.-à-d. le pari standard)2. Pour les besoins des présentes Lignes directrices, le terme « utilité » s’applique au coefficient de pondération numérique qui quantifie la valeur d’états précis de la QVLS. Le coefficient d’utilité reflète la préférence à l’égard d’un état de santé particulier; ainsi, plus il est élevé, plus l’état de santé est préférable et meilleure est la QVLS74. Un coefficient d’utilité de 1 représente une santé parfaite, alors qu’un coefficient de 0 représente la mort ou un état de santé qui y correspond. Il est possible que l’utilité soit inférieure à 0 lorsque l’état de santé est considéré comme étant pire que la mort. Par définition, l’utilité est cotée selon une échelle cardinale (échelle d’intervalles) de sorte que les changements peuvent être comparés (c.-à-d. l’augmentation de l’utilité et l’ampleur de l’augmentation reflètent les préférences).

Dans l’optique sociale de la prise de décisions adoptée par les présentes Lignes directrices, l’analyse de référence incorpore les indices d’utilité qui reflètent les préférences de la population générale (se reporter à l’introduction). Comme il est établi que les préférences diffèrent d’un pays à un autre75, il convient d’opter pour les préférences de la population canadienne. S’il y a une variation des préférences au sein du pays (d’une province ou d’une région à une autre), les préférences dans la province ou la région d’intérêt, si ces données sont accessibles, sont celles à prendre en compte.

Sources des données

Lors de la conceptualisation du modèle (voir la partie sur la modélisation), il convient de cerner les états de santé pour lesquels on déterminera le coefficient d’utilité. L’estimation des indices d’utilité peut faire appel à des méthodes de mesure directes ou indirectes. Les méthodes de mesure directes sont celles qui traduisent les préférences en une échelle d’utilité sans autre opération, alors que les méthodes indirectes font appel à une échelle de conversion pour obtenir les coefficients d’utilité. L’arbitrage temporel, le pari standard et la méthode des choix discrets sont les méthodes directes les plus courantes. La mesure directe est complexe dans sa conception et sa mise en application, et, à moins que la personne ne mesure ses propres états de santé, elle aboutit le plus souvent à des estimations largement dépendantes de la validité de la description des états de santé76,77.

Au vu de la complexité et du cout de la mesure directe des coefficients d’utilité en santé, des systèmes de classification des états de santé à attributs multiples dotés d’un système de notation ont vu le jour2. Il existe des systèmes génériques, qui ne sont pas centrés sur les répercussions d’une maladie donnée sur la santé, et des systèmes spécifiques, adaptés à la maladie à l’étude. Les systèmes de classification génériques les plus répandus sont l’EQ‑5D, le Health Utilities Index (HUI) et le SF‑6D78-80. Chacun est unique, mais tous portent sur divers domaines (p. ex., mobilité, autonomie, capacité fonctionnelle physique ou sociale) et chaque domaine comporte un certain nombre de niveaux correspondant à des degrés d’incapacité75. Des ensembles de préférences établis ou algorithmes permettent de traduire les scores obtenus par la mesure indirecte des préférences en un score d’utilité valable. Ces ensembles sont générés à partir des préférences de représentants de la population générale à l’égard d’états de santé précis du système de classification, révélées par la mesure directe (p. ex., arbitrage temporel, pari standard). Les préférences pour tous les états de santé décrits par l’instrument sont obtenues par l’extrapolation de ces résultats. Dans l’interprétation de ces préférences, le chercheur doit savoir que, bien qu’elles correspondent aux préférences du grand public pour un état de santé, elles ne représentent pas forcément celles d’une personne en particulier dans cet état de santé. À titre d’exemple d’ensembles de préférences adaptés au Canada, mentionnons l’EQ‑5D, où la mesure des préférences fait appel à la technique de l’arbitrage temporel et à la méthode des choix discrets pour l’EQ‑5D‑3L et l’EQ‑5D‑5L (version à trois niveaux et version à cinq niveaux)86,87 et les questionnaires HUI Mark 2 et Mark 3, où la mesure des préférences d’un groupe d’adultes de Hamilton en Ontario fait intervenir le pari standard et une échelle analogique visuelle2.

Pour utiliser un instrument générique indirect, la personne ou l’intervieweur selon la version (questionnaire que remplit la personne elle-même ou interrogation de la personne par un intervieweur) classe l’état de santé en répondant au questionnaire pour déterminer la capacité fonctionnelle dans chaque domaine. La fonction de notation est ensuite appliquée à l’état de santé afin de calculer l’indice d’utilité connexe. Si la fonction de notation est établie d’après un échantillon aléatoire de personnes de la population générale, l’indice d’utilité produit représente une estimation de l’utilité moyenne de l’état de santé en question attribuée par l’échantillon aléatoire de la population.

Pour des motifs de facilité d’utilisation, de comparabilité et de possibilité d’interprétation, il est recommandé de recourir, pour l’analyse de référence, à des indices d’utilité obtenus selon une méthode de mesure indirecte en vertu d’un système de classification générique. Le choix d’un instrument générique indirect dépend de l’adaptation de ses conditions d’utilisation aux états de santé d’intérêt et à leurs attributs et de la possibilité de cerner les changements importants dans les états de santé et d’un état de santé à un autre. Il convient également d’évaluer la crédibilité de l’instrument, autrement dit de savoir s’il s’agit d’un instrument établi aux qualités psychométriques démontrées, dont la faisabilité, la fiabilité et la validité83. Il est fortement recommandé de veiller à la cohérence des données utilisées pour estimer les valeurs d’utilité; plus précisément, il est recommandé d’utiliser les données sur les préférences tirées du même instrument et de la même population pour estimer tous les indices d’utilité de l’évaluation économique. Avant de choisir un ensemble de préférences adapté au contexte canadien, il y a lieu d’évaluer son aptitude à l’emploi en fonction des aspects de la crédibilité et de la cohérence des données utilisées pour étayer l’estimation d’autres paramètres et s’assurer que l’instrument en question est celui qui convient au traitement du problème de décision.

Il se peut que les coefficients d’utilité des états de santé d’intérêt aient déjà été estimés selon une méthode de mesure générique indirecte. Ils peuvent faire partie d’ensembles de données rassemblées couramment, avoir été publiés ou produits dans le cadre d’une étude. Pour les reprendre, il est nécessaire de les évaluer d’un œil critique en fonction des critères mentionnés ici, à savoir l’aptitude à l’emploi, la crédibilité et la cohérence, pour s’assurer qu’ils correspondent aux états de santé d’intérêt dans le modèle et que les préférences sont celles de la population générale. Dans la quête de coefficients d’utilité, il importe que la méthode de recherche soit systématique et présentée avec transparence pour qu’elle puisse être reprise par d’autres (c.-à-d. de la même manière que la recherche de données sur les effets cliniques; voir la partie sur l’efficacité clinique).

Dans bien des cas, il y aura de multiples coefficients d’utilité pour un même état de santé2. Il est vrai que la métaanalyse est un moyen de combiner des estimations d’utilité84, mais, comme la méthodologie de la synthèse des indices d’utilité de santé est en constante évolution, la méthode est à revoir au fil de l’avancement des connaissances et de la mise en application des méthodes43. Comme pour la sélection d’autres données, il importe d’exercer son jugement dans le choix des estimations d’utilité parmi divers instruments génériques de mesure indirecte pour déterminer la source de données qui offrira les meilleures estimations et qui représente le meilleur compromis du point de vue des critères d’aptitude à l’emploi, de crédibilité et de cohérence. De plus, il y a lieu de justifier le choix des indices d’utilité incorporés à l’analyse de référence. Quelle que soit la source de données qui renseigne l’estimation de l’utilité, déterminer la distribution des probabilités de chaque valeur d’utilité, et analyser la propagation de l’incertitude associée aux paramètres du modèle. Les répercussions de tout compromis dans le choix des estimations d’utilité sont examinées dans le cadre de l’analyse probabiliste ou de l’analyse de scénarios.

Si les données provenant d’un instrument générique de mesure indirecte de l’utilité ne sont pas optimales, notamment parce qu’elles ne permettent pas de cerner les changements des aspects de la santé importants eu égard à la maladie en question85, documenter l’inadéquation de ces mesures dans l’optique de la résolution du problème de décision. Si l’on envisage alors de recourir à un instrument spécifique, il est nécessaire d’évaluer ses propriétés de mesure, dont la validité de contenu, la validité de construit, la fiabilité et la sensibilité comparativement à l’instrument générique86. Il convient de vérifier que l’instrument de mesure spécifique, adapté à la maladie en question, offre une mesure des états de santé fondée sur les préférences. Pour évaluer l’incidence du recours à un instrument spécifique, comparer les résultats de l’analyse de référence où les coefficients d’utilité proviennent d’un instrument générique de mesure indirecte aux résultats d’une analyse complémentaire où les indices d’utilité proviennent d’un instrument spécifique de mesure indirecte.

Dans l’optique sociale de la prise de décisions adoptée par les présentes Lignes directrices, l’attribution d’une valeur à l’utilité des états de santé devrait se fonder sur les préférences de la population générale. Lorsqu’il y a lieu de penser que les préférences de la population ne représentent pas dans une juste mesure l’expérience ou l’évolution de l’état de santé des personnes touchées par l’intervention (que ce soit une nouvelle intervention financée ou une intervention dans laquelle on désinvestit), on peut prendre en considération d’autres sources de préférences. Ces préférences, qui ne sont pas celles de la population générale, sont incorporées à une analyse complémentaire. Il est nécessaire de justifier le recours à ces préférences et de décrire clairement les méthodes de mesure et de valorisation de l’utilité afin de pouvoir en évaluer l’incidence comparativement aux résultats de l’analyse de référence. Cela est particulièrement important lorsque les résultats de l’analyse sont sensibles aux préférences.

Des fonctions statistiques d’établissement de correspondances permettent de traduire une mesure en une autre (p. ex., HUI en EQ‑5D) comme moyen de maintenir la cohérence, mais il n’est pas recommandé de procéder à la mise en correspondance pour obtenir des coefficients d’utilité. La mise en correspondance désigne l’élaboration d’algorithmes pour prévoir les indices d’utilité à l’aide de données sur d’autres indicateurs ou mesures de santé87. La principale préoccupation qu’elle soulève a trait à la capacité d’explication des mesures de QVLS « cibles » obtenues des mesures de QVLS « sources ». La corrélation entre les indices d’utilité produits sera meilleure si des correspondances sont établies entre deux instruments génériques de mesure des préférences, plutôt qu’entre un instrument spécifique et un instrument générique, probablement parce que les dimensions de la QVLS mesurées par l’instrument spécifique et celles mesurées par l’instrument générique se recoupent moins88. Ainsi, la valeur prédictive peut varier considérablement selon les instruments mis en correspondance, l’algorithme utilisé et la gravité des états de santé d’intérêt, et, par conséquent, il est fort probable que la mise en correspondance ne saisisse pas vraiment la relation avec l’utilité88. Pour ajouter à la complexité, plusieurs algorithmes de correspondance transforment les données des mêmes instruments de mesure de la QVLS et aboutissent à différentes estimations89. S’il n’y a pas d’autres options que la mise en correspondance pour obtenir des estimations de l’utilité, des données empiriques sont nécessaires. La mise en correspondance n’est alors entreprise qu’en vertu d’un algorithme validé. L’évaluation incorpore l’incertitude globale liée aux estimations mises en correspondance, à savoir l’incertitude des paramètres de l’algorithme source, l’incertitude des paramètres de l’algorithme de mise en correspondance et l’incertitude quant à savoir quels états de QVLS représentent les états de santé clinique inclus dans le modèle.

Combiner des coefficients d’utilité

Le modèle économique peut intégrer des états de santé formés de la combinaison d’états de santé (c.-à-d. états de santé amalgamés). En théorie, il est possible d’y associer un coefficient d’utilité, bien qu’il soit difficile d’établir le coefficient d’utilité qui représente avec justesse un état de santé amalgamé. Il y a trois méthodes standards de regroupement d’informations sur l’utilité en santé : le processus additif, le processus multiplicatif et la méthode de la valeur minimale43. Aucune d’elles n’a été validée43.

Au coefficient d’utilité d’un état de santé, la méthode additive applique la désutilité marginale de chaque autre état de santé. La désutilité marginale désigne la différence d’utilité entre des patients présentant un même état de santé et des patients qui ne sont pas dans cet état de santé. Pour utiliser cette méthode, on doit tenir pour acquis qu’il n’y a pas d’interactions entre les états de santé. La méthode multiplicative propose de multiplier le coefficient d’utilité propre à chaque état de santé pour obtenir un seul indice d’utilité. Selon l’hypothèse sous-jacente, le coefficient d’utilité de chacun des états de santé s’applique et un indice d’utilité inférieur à tous les autres correspond au regroupement de multiples états de santé en un état de santé amalgamé. La méthode de la valeur minimale passe par la détermination du coefficient d’utilité de chacun des états de santé et par l’attribution de l’indice le plus faible à l’état de santé amalgamé90.

Les trois méthodes produisent une approximation de l’utilité commune des états de santé regroupés, mais aucune n’est exempte de biais ou ne saisit forcément la juste valeur de l’utilité. Des études devront renforcer et valider ces méthodes et examiner les méthodes émergentes90-92. Les méthodes dont il est question ici comportant une part d’incertitude, il y a lieu de justifier le choix de la méthode et d’analyser des scénarios reposant sur d’autres hypothèses plausibles pour en évaluer l’incidence.

États de santé difficiles à estimer

Il peut être particulièrement difficile d’estimer le coefficient d’utilité d’états de santé en raison à la fois de la quantité limitée de données et de l’absence de méthodes faisant l’objet d’un consensus (p. ex., états de santé de personnes ayant des incapacités, états de santé de groupes vulnérables de la population, états de santé temporaires, états ayant des effets sur les aidants)14,15,93-95. Comme l’information permettant d’estimer le coefficient d’utilité de tels états de santé est rare, l’analyse de l’incertitude sera particulièrement importante. Il y a lieu de préciser la nature de l’incertitude de l’estimation, à savoir l’incertitude paramétrique et l’incertitude méthodologique. L’incertitude paramétrique due à l’absence de données est traitée dans l’analyse de référence par une analyse probabiliste qui étudie l’élargissement de l’intervalle des estimations. Ce sont des analyses complémentaires accompagnant l’analyse de référence qui étudient les sources d’incertitude méthodologique (c.-à-d. choix méthodologiques qui diffèrent de ceux recommandés pour l’analyse de référence), et dont les résultats seront comparés à ceux de l’analyse de référence.

Année de vie ajustée en fonction de la qualité

L’année de vie ajustée en fonction de la qualité (AVAQ) est l’indicateur de résultat recommandé dans l’évaluation des effets sur la santé dans le cadre de l’ACU. L’AVAQ tient compte de l’effet de l’intervention des points de vue de la durée de vie (p. ex., années de vie gagnées) et de la qualité de vie.

Le nombre d’AVAQ est calculé en pondérant le nombre d’années de vie dans un état de santé par le coefficient d’utilité qui caractérise la QVLS dans cet état de santé et en regroupant les divers états de santé compris dans l’analyse. Pour des motifs de transparence, les coefficients d’utilité et de la durée actualisée de chaque état de santé sont présentés séparément, puis combinés pour produire le nombre d’AVAQ, tel qu’il est décrit à la partie sur le compte rendu de l’évaluation économique.

L’intégration du coefficient d’utilité à l’effet sur la santé permet de réunir en une seule mesure métrique les préférences à l’égard des états de santé et les mesures de l’efficacité clinique. Cette mesure reflète la valorisation des différents effets sur la santé et permet de comparer les interventions de santé.

Évaluation d’autres effets

Lorsque le problème de décision est étudié dans une perspective différente de celle du système public de soins de santé (c.-à-d. gouvernement payeur ou société), l’évaluation peut prendre en considération d’autres effets que ceux sur la santé (voir le tableau 1 à la partie sur la perspective). Ces effets devraient être étudiés dans le cadre d’une ACC qui viendra offrir un complément d’information à l’ACU qui elle prend en compte les effets sur la santé. La prise en compte des autres effets peut également s’effectuer dans une ACB. On peut recourir à d’autres techniques pour évaluer ces effets, dont l’arbitrage temporel ou le pari standard. Dans les présentes Lignes directrices, qui adoptent le point de vue du schème de décision sociale, la valeur des autres effets (p. ex., activité criminelle, niveau de scolarité) doit être vue comme le résultat d’un arbitrage avec la santé pour être incorporée dans l’évaluation économique. Comme il est mentionné à la partie sur les types d’évaluations, la valorisation illustre les valeurs de la société.

 

11. Utilisation et cout des ressources

La présente partie aborde les questions du relevé, de la mesure et de l’évaluation des ressources utilisées, étapes nécessaires en général dans l’évaluation économique fondée sur la modélisation. L’information qu’elle renferme devrait être lue en parallèle à la deuxième édition du Guide pour l’évaluation des couts des ressources en soins de santé dans le contexte canadien publié par l’ACMTS96.

Relevé des ressources

Il convient de cerner toutes les activités et les ressources qui entrent en jeu dans le contexte du problème de décision (p. ex., en fonction de la population cible, de la perspective et de l’horizon temporel). La conceptualisation du cheminement clinique de la maladie d’intérêt guidera le relevé des ressources pertinentes. La structure du cheminement dictera les modalités d’inclusion des ressources utilisées et des couts connexes dans le modèle (p. ex., selon qu’ils sont déterminés par l’état de santé ou l’évènement). Toutes les ressources entrant en jeu qui sont attribuables aux interventions comparées sont à prendre en considération. Par exemple, l’utilisation future de ressources est à prendre en compte lorsqu’il est entendu que le cheminement clinique comprend des états de santé qui nécessitent des ressources considérables ou des évènements qui s’étendent sur de longues périodes. Si l’on adopte diverses perspectives dans l’étude du problème de décision, il convient de répertorier toutes les ressources pertinentes dans le contexte de ces perspectives et de les présenter séparément selon la perspective de référence et la perspective des analyses complémentaires97,98.

La nature des ressources peut varier selon le type d’interventions évaluées (p. ex., selon que l’intervention est destinée à prévenir, à diagnostiquer ou à traiter la maladie). L’analyse portera sur les ressources utilisées dans la mise en œuvre, le fonctionnement, l’entretien et la réparation, la dotation, la formation, ainsi que les couts indirects2. Par exemple, s’il s’agit d’une nouvelle intervention qui nécessite une infrastructure (exigences relatives au bâtiment), la formation du personnel avant sa mise en application (ou un recyclage ou une courbe d’apprentissage pour en maitriser l’application), un programme d’entretien précis pour garantir le rendement ou un schéma d’adaptation posologique précis jusqu’à la dose thérapeutique, tous ces aspects sont pris en compte dans la détermination des ressources entrant en jeu dans l’intervention. Les répercussions d’un nouveau programme sur l’infrastructure en place sont également à prendre en considération, par exemple si le programme de par son échelle ou sa portée pose des problèmes de capacité.

Les ressources utilisées pendant l’horizon temporel de l’analyse qui sont les mêmes pour les interventions évaluées peuvent être exclues99, mais cette exclusion doit être justifiée. Il n’est pas nécessaire de tenir compte des ressources utilisées pour un évènement jugé non pertinent à l’intervention évaluée (c.-à-d. pas de relation de cause à effet entre le résultat d’intérêt et l’évènement, autrement dit l’évènement serait survenu et les ressources auraient été utilisées que l’on ait recours ou non à l’intervention; ainsi, le cout d’une fracture à la jambe ne serait pas pris en compte normalement dans l’évaluation d’un médicament contre l’acné). Un examen approfondi permettra d’établir la distinction entre une manifestation ou un évènement pertinent et une manifestation ou un évènement non pertinent. Cela est particulièrement vrai dans le cas des maladies chroniques où la présence et le traitement de la maladie peuvent diminuer la probabilité d’être traité pour d’autres troubles100.

On peut confier la tâche de déterminer les manifestations cliniques pertinentes à un groupe de spécialistes (qui ne connaissent pas l’affectation des traitements). Il est alors possible d’écarter de manière impartiale les manifestations non pertinentes. Ou bien, on peut effectuer une analyse de scénario pour évaluer l’incidence sur les résultats couts/effets de tous les évènements et des évènements jugés pertinents. Si l’incidence est la même, les évènements exclus ne sont pas pertinents.

Mesure des ressources

La mesure et la quantification des ressources utilisées se font de manière distincte pour chaque type de ressources conformément aux besoins de l’évaluation économique. Le degré de précision requis dans la quantification déterminera la nature des données sur les ressources prises en compte dans l’évaluation économique. Si une grande précision est nécessaire, l’établissement des couts par personne peut se révéler approprié; toutefois, s’il est peu probable que les ressources utilisées varient selon les caractéristiques individuelles, la quantification des ressources par évènement ou cas peut suffire96.

Pour étayer l’estimation des paramètres de l’utilisation des ressources, de la même façon que dans l’estimation d’autres paramètres du modèle (p. ex., efficacité clinique ou effets néfastes), il convient de déterminer quelles sont les données pertinentes pour le problème de décision. Sur cette question de l’utilisation des ressources, la région d’intérêt est un élément particulièrement important dans la recherche de sources de données applicables2. Ainsi, la recherche d’information sur l’utilisation des ressources peut être circonscrite plus étroitement que la recherche d’information sur d’autres paramètres du modèle, comme l’efficacité clinique, mais elle se doit d’être transparente et étayée par une solide argumentation.

Au vu de l’importance du caractère applicable des estimations ayant trait aux ressources dans la région d’intérêt selon le problème de décision (préoccupations soulevées par la possibilité de généraliser l’information d’une province ou d’un territoire à un autre ou dans une même province ou un même territoire), la synthèse des données sur l’utilisation des ressources provenant de différents lieux n’est pas recommandée, alors que la synthèse des données provenant d’une seule région peut être envisagée. Il convient de prendre en considération la possibilité que les ressources utilisées varient selon la province ou le territoire ou dans une même province ou un même territoire.

Lorsque les données sur l’utilisation des ressources s’appliquent à divers lieux, il convient de choisir une seule source de données après avoir évalué toutes les sources d’information et déterminé les compromis acceptables en fonction des critères déjà mentionnés que sont l’aptitude à l’emploi, la crédibilité et la cohérence. Le critère de l’aptitude à l’emploi prime ici étant donné l’importance du caractère applicable des données dans la région d’intérêt.

Les bases de données administratives peuvent être des sources d’information utiles pour estimer les ressources utilisées101. Elles renferment des informations concrètes sur l’utilisation des ressources dans les régions, les provinces ou les territoires102-105. Lorsqu’il est possible de retrouver des informations sur les mêmes personnes dans diverses bases de données, on peut avoir un aperçu de l’utilisation d’autres ressources que celles relevant des interventions ou de la maladie d’intérêt. On peut s’en servir notamment pour estimer les ressources utilisées au fil du temps par des cohortes de patients précises. Dans la mesure où les bases de données administratives rendent compte de la pratique courante dans la province ou le territoire, elles peuvent servir à actualiser les résultats d’évaluations fondées sur la modélisation par leurs données illustrant les conditions réelles d’utilisation. Malgré leurs atouts, ces bases de données ne sont pas forcément conçues pour répondre à un problème de décision précis; il y a lieu de se montrer prudent et de vérifier leur aptitude à l’emploi, leur crédibilité et leur cohérence par rapport aux sources d’information utilisées pour estimer d’autres paramètres du modèle.

Lorsque les informations sont rassemblées dans le cadre d’une étude, il faut savoir que le protocole dicte l’utilisation des ressources106. Pour déterminer dans quelle mesure cela s’applique, on peut comparer l’utilisation des ressources à ce qui se fait en pratique clinique au Canada. Dans l’éventualité où l’utilisation des ressources dans les études cliniques est largement fonction du protocole et ne semble pas correspondre à la pratique au Canada2,106,107 ou à la population cible, il y a lieu de se tourner vers d’autres sources d’information.

Il importe d’éviter le double comptage lors de la mesure des ressources; par exemple, éviter les situations où l’utilisation des ressources est estimée de manière distincte pour chaque type de ressources et où elle est estimée de manière globale pour produire une indication du niveau d’intensité des ressources utilisées (p. ex., dispositifs médicaux). Dans un tel cas, il faut se garder de surestimer l’utilisation d’une ressource en particulier.

Au moment d’incorporer les ressources utilisées dans l’évaluation économique, le chercheur doit estimer la valeur moyenne et l’incertitude connexe (c.-à-d. la distribution des probabilités) (voir la partie sur l’incertitude). Lorsqu’il appert judicieux de puiser dans plus d’une source de données, l’analyse de l’incertitude prend en compte l’incidence potentielle des compromis effectués dans le choix des sources en fonction des critères de l’aptitude à l’emploi, de la crédibilité et de la cohérence. De plus, en l’absence de données suffisamment pertinentes pour la région d’intérêt, lorsque l’on doit s’en remettre à des hypothèses ou à des méthodes d’ajustement (p. ex., modalités d’ajustement simples d’après les différences de facteurs comme le mode et le milieu de pratique108), il convient de décrire clairement ces hypothèses et méthodes, de les justifier et de les évaluer dans l’analyse probabiliste de l’analyse de référence ou dans des analyses de scénario qui étudient l’incidence des autres hypothèses.

Évaluation des ressources

Le cout de renonciation est un concept central en économie de la santé. En théorie, le juste prix d’une ressource est déterminé par son cout de renonciation (c.-à-d. la valeur des ressources utilisées dans la meilleure option à laquelle on renonce en choisissant une option donnée)2,96,109-113. La détermination du cout de renonciation sera fonction de la perspective de l’analyse choisie selon le problème de décision.

En principe, le prix de la ressource correspond au cout de renonciation; toutefois, en pratique, les honoraires versés ou les frais encourus dans le système de santé canadien pour obtenir les services peuvent servir pour estimer le cout de renonciation dans l’analyse qui s’inscrit dans la perspective du payeur public canadien96. Si l’on s’en remet à un barème d’honoraires ou à une grille tarifaire, il faut connaitre les cas où l’on s’écarte de ces barèmes ou grilles dans la pratique. Ainsi, en psychologie et dans d’autres disciplines non médicales ainsi que dans le cas des soins infirmiers à domicile, les honoraires établis ne correspondent pas nécessairement aux paiements réels et, en conséquence, ils ne seront pas une bonne indication du cout. Il y a lieu alors d’étudier d’autres sources de données. Il faut également déterminer si une quotepart est exigée lorsque les ressources sont évaluées dans la perspective du payeur public. La quotepart dont s’acquitte le particulier ou l’assureur privé doit être défalquée du paiement estimatif du payeur public. La quotepart peut avoir une incidence sur l’efficacité clinique de l’intervention (p. ex., en influant sur l’adhésion ou l’observance thérapeutique), dont il faudra tenir compte.

Là où la perspective est plus vaste que celle du payeur public, il y a lieu de tenir compte des honoraires ou des frais en sus de ceux couverts par le payeur public. Par exemple, l’évaluation qui s’inscrit dans la perspective d’un payeur privé inclut d’autres couts que ceux couverts par le payeur public. Dans la perspective sociétale, l’analyse incorporera les frais remboursables, les tarifs et les honoraires qui correspondent aux paiements réels effectués par le particulier (p. ex., quotepart). La perspective (voir la partie sur la perspective) est à prendre en compte dans le choix des sources de données et l’argumentation à l’appui de ce choix.

À l’instar de la sélection des sources de données qui serviront à estimer les ressources utilisées, la sélection des sources de données sur les couts se fonde sur l’évaluation des sources disponibles en fonction des critères de l’aptitude à l’emploi, de la crédibilité et de la cohérence. De même que pour les ressources utilisées, la question de la possibilité de généraliser les données sur les couts dans les provinces et les territoires ou d’une province ou d’un territoire à un autre nécessite que l’on prête une attention particulière au critère de l’aptitude à l’emploi dans l’estimation des couts pertinents pour la région d’intérêt circonscrite dans le problème de décision. Par conséquent, l’application au contexte canadien de couts provenant de sources étrangères n’est pas recommandée. En l’absence de couts canadiens, on peut consulter des experts ou s’inspirer d’honoraires ou de tarifs courants pour des technologies semblables pour estimer les couts, et voir les sources de données étrangères comme des guides dans l’estimation des couts (p. ex., estimer le cout d’un médicament par rapport à un autre). Si l’évaluation économique est destinée à soutenir la prise de décisions à l’échelle régionale, les sources d’information sur les couts doivent porter sur la région en question. Pour ce qui est de l’analyse dans une perspective pancanadienne, les sources d’information seront applicables à la grandeur du pays. En l’absence d’information applicable, on peut recourir à une moyenne pondérée des couts (les couts dans les provinces et les territoires pondérés par la proportion relative d’utilisation au Canada dans la province ou le territoire en question) ou aux couts applicables dans une région représentative de la région d’intérêt. L’analyse probabiliste de l’analyse de référence prend en compte l’incertitude liée à la valeur estimative. Une analyse de scénario étudiera en profondeur la sensibilité des résultats aux couts estimés en fonction d’autres sources d’information96.

Dans l’estimation des couts à l’aide de données d’une étude ou d’une base de données administrative, l’on utilise la valeur moyenne et l’on tient compte de l’incertitude inhérente à cette valeur (c.-à-d. distribution des probabilités). Comme c’est le cas avec les données de survie, le cout moyen estimé en présence de censures est ajusté en conséquence114. Avec la base de données administrative, il est plus facile d’estimer les couts courants liés aux soins de santé, notamment le cout du décès, pour n’importe quelle maladie ou combinaison de covariables. La recherche et le perfectionnement continu des sources de données administratives en vue d’estimer tous les couts liés aux soins de santé faciliteront l’inclusion de ces couts dans les modèles économiques.

Dans l’estimation des couts en fonction des ressources utilisées et des couts unitaires, la période couverte par les données sur les couts unitaires est à prendre en considération. Si on ne dispose des couts unitaires que pour une période antérieure, ils sont à évaluer pour savoir s’ils s’appliquent dans la pratique courante, et à actualiser pour refléter l’année en cours. Comme il n’y a pas d’indice de prix au Canada pour les services offerts par les hôpitaux ou les médecins, on pourra faire appel à un indice général, tel l’indice des prix à la consommation96.

Pour évaluer avec justesse les ressources, il convient d’étudier la relation entre la quantité de ressources utilisées et le cout unitaire estimé, laquelle peut changer avec le temps. Autrement dit, on doit déterminer si l’efficience obtenue grâce à l’expérience acquise ou avec l’administration d’une dose plus faible, par exemple, peut permettre de réaliser des économies. Toute hypothèse ou démarche entreprise à ce propos est à documenter. Les hypothèses et les méthodes d’attribution des couts indirects, des couts de main-d’œuvre partagés et des couts administratifs le cas échéant sont à décrire avec précision et à justifier. Une analyse de scénario étudiera l’incidence d’autres hypothèses ou méthodes sur les résultats.

Prise en compte du temps du patient et des aidants

Si le problème de décision s’inscrit dans la perspective sociétale, il peut être opportun de tenir compte des répercussions sur le temps du patient ou des aidants115 (p. ex., en raison de la maladie, le patient ou des aidants doivent abandonner certaines de leurs activités habituelles, ce qui aura des répercussions sur le cout et le temps)116 dans une analyse complémentaire. Les couts du temps perdu relèvent de l’incapacité à accomplir un travail rémunéré (p. ex., absentéisme, présentéisme) ou des tâches non rémunérées (p. ex., prestation de soins à un proche) en raison de la maladie, du traitement, de l’incapacité ou du décès prématuré115. Il faut se garder de compter en double le cout du temps perdu à un travail rémunéré et à des tâches non rémunérées.

Le choix de la méthode d’estimation du temps perdu pour les besoins de l’évaluation économique demeure controversé. Les deux principales méthodes d’évaluation du temps de travail rémunéré perdu sont celles du capital humain et du cout de friction2,17,117-123.

La méthode du capital humain est la plus simple pour déterminer la valeur du temps de travail rémunéré perdu. Selon cette méthode, la valeur du temps perdu se calcule en multipliant la durée de l’absence au travail par le taux de rémunération (ajusté en fonction de l’âge et du sexe)118 plus les avantages sociaux (p. ex., régime de retraite, assurance maladie et assurance vie). La méthode présume qu’il s’agit d’un emploi à temps plein (ou presque); toutefois, elle peut surestimer la valeur de la perte de production124.

La méthode du cout de friction veut que la perte de production pour la société engendrée par l’absence d’un employé se limite à la période nécessaire à l’organisation pour le remplacer et retrouver le niveau de productivité initiale (période de friction)125-127. En vertu de cette méthode, la perte de productivité due au décès prématuré ne s’étend pas au-delà de la période de friction. Pour ce qui est de l’absence de courte durée, la perte de productivité du patient ou de l’aidant peut être récupérée en partie lors du retour au travail ou compensée par l’effectif de l’entreprise.

Lorsque la période de travail rémunéré perdue est courte, l’estimation établie selon l’une ou l’autre des méthodes peut être sensiblement la même. Si la période est longue, la méthode du cout de friction produira une estimation de cout plus basse que celle établie par la méthode du capital humain2.

Puisque la perspective sociétale est centrée sur la perte de productivité, la méthode du cout de friction est recommandée pour estimer la perte de productivité due à l’absence d’un travail rémunéré. Toute autre méthode devrait faire l’objet d’une analyse complémentaire, et les résultats comparés entre les analyses.

Il peut y avoir une perte de productivité même si le patient ou l’aidant continue de travailler (c.-à-d. présentéisme)2. Selon la nature de la maladie à l’étude dans l’évaluation, le présentéisme peut être la source d’une grande part de la perte de productivité (p. ex., troubles de l’humeur, migraines)2,115. Des questionnaires permettent d’estimer la perte de productivité due au présentéisme, à l’absentéisme ou au temps de travail non rémunéré perdu119, mais aucun ne fait l’unanimité comme instrument de prédilection119 et l’instrument le plus indiqué peut varier selon l’utilisation. Le but, la perspective, la population, les qualités psychométriques et l’aspect pratique sont des critères d’ordre général à considérer dans le choix de l’instrument de mesure du rendement au travail à utiliser dans l’évaluation économique119.

Deux méthodes sont proposées pour déterminer la valeur du temps de travail non rémunéré perdu par le patient ou l’aidant : la méthode du cout de renonciation et la méthode du cout de remplacement96. La première repose sur le manque à gagner, alors que la seconde évalue le cout d’acquisition de la ressource (travailleur) qui fournirait le service (p. ex., entretien ménager) que ne peut plus exécuter l’aidant ou le patient96. La méthode du cout de renonciation est la méthode recommandée pour estimer le cout de productivité relatif au travail non rémunéré, car elle évalue le temps consacré à des tâches non rémunérées en fonction de la valeur de ce temps consacré à une autre fonction (p. ex., travail rémunéré) plutôt qu’en fonction du cout de remplacement par le marché (p. ex., services d’une aide ménagère). Au moment de déterminer le cout de renonciation, le chercheur devrait s’en remettre à ce que le décideur privilégie dans l’estimation de ce cout (p. ex., taux de salaire canadien moyen). En outre, il doit être au fait de toute question d’équité et en faire état avec transparence, mais, en dernier ressort, le cout de renonciation estimé devrait refléter la position du décideur au sujet de l’équité.

Il est recommandé de faire abstraction du temps de loisirs perdu en tant qu’élément de cout dans l’évaluation128-131. Cet aspect est pris en compte en partie par l’AVAQ dans la détermination des préférences pour un état de santé. À cet égard, les personnes qui participent à l’exercice de mesure des préférences doivent savoir qu’elles ont à préciser la valeur de tout changement du temps de loisirs (et que les couts liés aux soins de santé et les pertes de revenu sont entièrement remboursés/compensés).

 

12. Analyse

La présente partie aborde les techniques analytiques des éléments de données saisis dans le modèle économique (p. ex., effets cliniques, effets néfastes, ressources utilisées, coefficients d’utilité) en vue d’estimer les données de sortie du modèle relativement aux couts, aux résultats/effets et aux RCED attendus.

Analyse probabiliste

Les résultats définitifs doivent se fonder sur les couts et les résultats escomptés. Ces couts et résultats sont estimés dans le cadre d’une analyse probabiliste qui produira une estimation plus objective des couts et des résultats que ce à quoi aboutirait une analyse déterministe (voir la partie sur l’incertitude pour plus de renseignements). Dans l’analyse probabiliste, la valeur des paramètres est représentée par une distribution statistique plutôt que par une estimation ponctuelle. Cela permet de caractériser l’incertitude sous-jacente (due à l’incertitude dans le corpus de données probantes) relative aux couts et aux résultats estimés des paramètres faisant l’objet de l’ACU.

Le principal argument favorable au choix de techniques probabilistes dans l’analyse de référence tient au risque que l’analyse déterministe débouche sur des décisions sous-optimales dues à la relation non linéaire entre les variables d’entrée et de sortie du modèle132. Au vu des caractéristiques des modèles d’analyse décisionnelle dans le secteur de la santé, en particulier le modèle de Markov, le modèle probabiliste et le modèle déterministe produiront probablement des résultats discordants133. L’analyse déterministe, qui prend en compte seulement les valeurs attendues des éléments de données individuels, aboutit fréquemment à une estimation erronée des couts et des résultats. L’analyse probabiliste, qui tient compte de la probabilité que chacun des paramètres ait différentes valeurs, produit une estimation plus objective des couts et des résultats.

La plupart du temps, l’analyse probabiliste prend la forme d’une simulation de Monte Carlo. La simulation de Monte Carlo est une technique d’analyse qui convient pour cerner la propagation de l’incertitude des paramètres d’entrée aux résultats du modèle134. Dans le cadre de la simulation de Monte Carlo, les couts et les résultats/effets relatifs à chaque intervention sont obtenus par l’exécution répétée de la modélisation où, à chaque reprise, une valeur choisie au hasard est attribuée aux paramètres d’entrée : chaque ensemble de valeurs d’entrée et de couts et de résultats connexes constitue une répétition ou itération. On répète la procédure plusieurs fois, et la valeur escomptée des couts et des résultats correspond à la valeur moyenne de toutes les répétitions. Le nombre de répétitions doit être suffisamment grand pour que la valeur des couts et des résultats attendus demeure stable (c.-à-d. peu probable qu’elle change radicalement si l’on augmente le nombre de répétitions), non sujette à une erreur de Monte Carlo importante. Dans la plupart des cas, 5 000 répétitions seront nécessaires, mais il convient de déterminer si un plus grand nombre est nécessaire pour obtenir une valeur stable.

Les valeurs des paramètres d’entrée qui font l’objet de la simulation sont tirées au hasard de la distribution des probabilités précisée pour chacun de ces paramètres. Ainsi, la simulation de Monte Carlo nécessite au préalable de préciser la distribution des probabilités des paramètres d’entrée qui comportent une incertitude; en général, les paramètres incertains sont ceux provenant de données-échantillons ou de groupes d’experts. Lorsque l’analyse des données et la propagation de l’incertitude sont effectuées selon une méthode bayésienne, l’incertitude des paramètres est tirée de la distribution postérieure bayésienne combinant la première distribution et une fonction de vraisemblance. De cette manière, la distribution des probabilités incorpore des informations provenant des données-échantillons (fonction de vraisemblance) et de groupes d’experts (première distribution)135. Pour des données d’entrée comme le taux de mortalité dans la population générale, qui correspond au taux de base et qui est traité comme une quantité connue, la distribution des probabilités n’est sans doute pas nécessaire. La distribution des probabilités illustre la plage des valeurs plausibles d’un paramètre d’entrée et la probabilité de chaque valeur. Comme l’analyse est axée sur l’incertitude des paramètres, la gamme des valeurs reflète les valeurs moyennes du paramètre dans la population d’intérêt, non pas les valeurs possibles pour une personne136.

Le modèle de simulation sur le plan individuel doit tenir compte de la variabilité chez le patient et de l’incertitude dans la cohorte. Il rend compte de la variabilité chez le patient par l’écart type. Cependant, il est nécessaire avec ces modèles d’exécuter une analyse probabiliste où l’incertitude à l’échelle de la population d’intérêt est caractérisée par l’erreur type.

Le choix de la forme de la distribution est fonction de la nature du paramètre d’entrée et s’effectue selon une technique statistique normalisée34. Il est essentiel que la distribution choisie se conforme aux bornes des valeurs de chaque paramètre; c’est-à-dire que le coefficient d’utilité ne peut être supérieur à 1, que le cout ne peut être inférieur à 0 et que la probabilité de transition s’échelonne de 0 à 1. La distribution bêta est le choix naturel pour les probabilités de transition : dans certains cas, la distribution de Dirichlet (généralisation multinomiale de la loi bêta) s’impose. Pour des données qui, dans leur distribution, marquent un fort déport à droite, notamment les couts et les coefficients de désutilité, on peut recourir à une distribution gamma ou log-normale. La distribution log-normale peut être utilisée pour les effets relatifs. Il n’est pas conseillé de faire appel aux distributions qui imposent des bornes artificielles aux valeurs estimatives des paramètres, comme les distributions triangulaire et uniforme34.

Le degré d’incertitude des paramètres d’entrée est illustré par la moyenne et l’erreur type provenant de la source de données pertinente. Si on ne dispose pas de données sur le degré d’incertitude, adopter une démarche prudente pour l’estimation de l’erreur type qui indiquera une plage de valeurs plausibles du paramètre. Il y a lieu alors de décrire le traitement de l’incertitude et de justifier la méthode choisie, y compris la plausibilité des valeurs du paramètre prises en compte. L’insuffisance des données ne saurait justifier de passer outre l’incidence de l’incertitude sur un paramètre. La sollicitation de l’avis d’experts est une stratégie acceptable pour composer avec l’incertitude en l’absence de données137.

La corrélation entre les paramètres est à examiner, car elle peut influer sur les valeurs attendues et leur degré d’incertitude34. Si l’on a recours à l’analyse de régression pour définir les valeurs des paramètres d’entrée, il est nécessaire d’incorporer la corrélation entre les coefficients par une décomposition de Cholesky pour une matrice de covariance34. De telles méthodes sont à envisager dans d’autres cas où la corrélation entre les paramètres d’entrée peut être forte. Pour l’incorporation des résultats d’une synthèse des données probantes dans une analyse probabiliste, quatre méthodes de propagation correcte de l’incertitude et de la structure de corrélation sont proposées138.

Les hypothèses au sujet de l’incertitude des valeurs des paramètres, la forme des distributions de probabilités, le nombre de répétitions de la simulation de Monte Carlo et l’examen des corrélations sont à énoncer et à justifier.

Valeurs estimées

Les résultats sont présentés sous la forme de rapports cout/efficacité différentiels (RCED) (c.-à-d. la différence entre les couts escomptés de deux interventions, divisée par la différence entre les résultats/effets escomptés de ces deux interventions). La mesure du bénéfice pécuniaire net peut offrir un complément d’information au RCED, mais ne peut s’y substituer139. Dans l’interprétation du RCED, il faut savoir que l’intervention au plus bas RCED n’est pas toujours l’intervention la plus efficiente et que dans l’évaluation de plusieurs comparateurs, le bénéfice pécuniaire net peut être particulièrement utile dans l’interprétation des résultats sur le rapport cout/efficacité. Lors du calcul du bénéfice net en termes pécuniaires, indiquer le seuil d’efficience (rapport cout/efficacité) du décideur pour chaque bénéfice net estimé.

Si plus de deux interventions sont comparées, on estime les couts et les résultats escomptés des interventions et l’on calcule les rapports cout/efficacité différentiels de manière séquentielle140. Dans l’analyse de référence, l’analyse séquentielle calcule d’abord le RCED du comparateur le moins couteux puis celui du comparateur plus cher suivant, en excluant tous les comparateurs dominés au sens de la dominance stricte ou de la dominance généralisée. Cette méthode exige de recenser les interventions qui résident à la frontière d’efficience et celles qui s’en éloignent, soit les interventions dominées au sens de la dominance stricte ou généralisée.

L’intervention dominée est celle qui est plus couteuse et moins efficace qu’au moins une autre intervention. L’intervention est dominée au sens de la dominance généralisée si elle n’est jamais l’intervention optimale, quelle que soit la valeur seuil du rapport cout/efficacité. La dominance généralisée survient lorsque le RCED d’une intervention comparativement à une option à moindre cout est plus élevé que le RCED d’une intervention plus couteuse comparativement à cette même option à moindre cout. Le tableau 2 présente cette situation. L’intervention B est dominée au sens de la dominance généralisée, car il n’y a aucune valeur seuil d’AVAQ où elle pourrait être préférable à l’intervention A ou à l’intervention C. Soulignons que le RCED de l’intervention B comparativement à l’intervention A est supérieur à celui de l’intervention C, comparativement à l’intervention A. Si la valeur seuil du décideur était supérieure à 2 000 $, l’intervention C représenterait l’intervention la plus efficiente des trois (toutes choses étant égales par ailleurs). Ainsi, le RCED séquentiel de 2 000 $ peut être vu comme une valeur critique où pour des valeurs seuils supérieures à 2 000 $, l’intervention C serait l’intervention la plus efficiente et pour des valeurs seuils inférieures à 2 000 $, l’intervention A serait l’intervention la plus efficiente (voir le tableau 2).

Tableau 2 : Comparaison du rapport cout/efficacité différentiel des interventions

  Cout AVAQ Cout différentiel par AVAQ gagnée (RCED)
Par rapport à l’intervention A RCED séquentiel
Intervention A 3 000 $ 4    
Intervention B 4 500 $ 4,1 15 000 $ Dominée au sens de la dominance généralisée
Intervention C 5 000 $ 5 2 000 $ 2 000 $

RCED = rapport cout/efficacité différentiel; AVAQ = année de vie ajustée en fonction de la qualité.

L’analyse séquentielle est présentée dans un tableau énumérant chacune des interventions à la frontière d’efficience par ordre croissant de cout. Le RCED de chaque intervention désigne le rapport de la différence de couts avec la différence de résultats par comparaison avec l’intervention à la frontière d’efficience qui la précède sur le plan du cout (cout moindre). On voit fréquemment la présentation du RCED de chaque traitement seulement par comparaison avec l’option la moins couteuse; cependant, il ne faut pas s’en tenir à cela, mais bien présenter également l’analyse séquentielle des RCED.

Le tableau fait ensuite état des interventions qui ne se situent pas à la frontière d’efficience et indique si elles sont dominées au sens de la dominance stricte ou de la dominance généralisée. Vous en trouverez un exemple au tableau 3. Dans cet exemple, il y a trois valeurs critiques du seuil d’efficience (c.-à-d. 2 000 $, 3 000 $ et 80 000 $) où le rapport cout/efficacité relatif des interventions change.

Il convient de présenter les couts et les résultats attendus des interventions de manière distincte pour chacun des sous-groupes de la population cible déterminés au préalable, et d’effectuer une analyse séquentielle pour chacune des strates. L’estimation globale pour la population cible, s’il y a lieu de la produire afin d’éclairer le problème de décision, provient de la pondération des résultats par sous-groupe.

Tableau 3 : Analyse de la dominance selon l’intervention

  Cout AVAQ Cout différentiel par AVAQ gagnée (RCED)
Par rapport à l’option A RCED séquentiel
Intervention A 3 000 $ 4    
Intervention C 5 000 $ 5 2 000 $ 2 000 $
Intervention E 8 000 $ 6 2 500 $ 3 000 $
Intervention F 12 000 $ 6,05 4 390 $ 80 000 $
Intervention B 4 500 $ 4,1 15 000 $ Dominée au sens de la dominance généralisée par les interventions A et C
Intervention D $7,900 4,3 16 333 $ Dominée par l’intervention C et dominée au sens de la dominance généralisée par les interventions A et E et les interventions A et F
Intervention G 50 000 $ 6,01 23 383 $ Dominée par l’intervention F

RCED = rapport cout/efficacité différentiel; AVAQ = année de vie ajustée en fonction de la qualité.

 

13. Incertitude

L’évaluation économique a pour objectif d’éclairer les décideurs au sujet des couts et des résultats escomptés de divers plans d’action. Les décideurs doivent obtenir de l’information sur toute incertitude relative aux résultats de l’évaluation économique. À ce titre, il revient au chercheur de cerner et d’analyser l’incertitude de manière méthodique et cohérente dans l’évaluation économique. L’incertitude à évaluer porte sur la méthodologie, les paramètres et la structure du modèle2,32,141.

L’incertitude méthodologique s’intéresse aux questions de méthodologie irrésolues; par exemple, le choix du taux d’actualisation applicable aux couts et aux résultats et le choix de l’algorithme d’utilité en vue d’estimer les AVAQ. L’incertitude paramétrique relève de la question de savoir si la valeur estimée des paramètres de l’analyse correspond à leur valeur « vraie ». Enfin, l’incertitude structurelle désigne l’incertitude liée à l’aptitude du modèle choisi à rendre compte avec justesse de tous les aspects pertinents de la maladie et des interventions comparées.

À l’instar d’autres guides sur les pratiques exemplaires en matière d’évaluation économique, les présentes Lignes directrices recommandent la prise en compte de l’incertitude méthodologique par la comparaison des résultats de l’analyse de référence et des résultats d’une analyse complémentaire. Bien que la méthodologie de l’évaluation économique se soit grandement perfectionnée dans les vingt dernières années, il y a encore des aspects pour lesquels le choix de la technique correcte ne fait pas l’unanimité. L’analyse de référence représente l’ensemble de méthodes à appliquer de manière à favoriser l’uniformité, la transparence et la comparabilité des résultats de l’évaluation de diverses technologies pour différentes décisions. Les énoncés des lignes directrices précisent le contenu de l’analyse de référence en ce qui a trait au problème de décision, aux types d’évaluations, à la population cible, aux comparateurs, à la perspective, à l’horizon temporel, à l’actualisation, à la mesure et à l’évaluation de la santé, à l’utilisation et au cout des ressources, à l’analyse, à l’incertitude et à l’équité.

Les analyses complémentaires peuvent accompagner l’analyse de référence, mais il convient d’énoncer précisément l’incidence du fait de s’écarter de l’analyse de référence. Par exemple, l’incertitude liée au choix du taux d’actualisation peut être évaluée par la comparaison avec une analyse complémentaire où le taux d’actualisation est différent de celui de l’analyse de référence. Les analyses complémentaires sont des analyses probabilistes permettant d’offrir au décideur des estimations objectives des couts et des résultats des technologies évaluées.

L’incertitude paramétrique est évaluée également dans le cadre d’une analyse probabiliste; c’est-à-dire que l’incertitude quant à la valeur vraie des paramètres de l’évaluation économique (données d’entrée) s’exprime par la distribution des probabilités, et elle se propage le long de l’analyse afin de pouvoir quantifier l’incertitude des résultats (couts et résultats escomptés) par une méthode de simulation. Dans la mesure du possible, l’analyse de l’incertitude paramétrique tient compte de la corrélation entre les paramètres pour éviter de sous-estimer ou de surestimer la véritable incertitude au sujet des couts et des résultats (voir la partie sur l’analyse). À l’instar de la méthode dont il est question à la partie sur l’analyse, l’incertitude des paramètres peut être abordée sous l’angle de valeurs critiques en vertu desquelles une intervention est jugée efficiente ou non. Ici, les valeurs critiques désigneraient les valeurs des paramètres où, pour un seuil d’efficience précis, la décision pourrait changer. Outre la précision des valeurs critiques des paramètres, il y a lieu également d’évaluer la probabilité que les paramètres aient ces valeurs. Le jugement d’experts peut être utile à cet égard.

Comme l’estimation correcte des couts et des résultats escomptés passe par une analyse probabiliste, l’analyse de l’incertitude paramétrique se fait en parallèle à l’estimation des valeurs escomptées. De ce fait, le terme d’analyse de sensibilité probabiliste est redondant. L’analyse déterministe de l’incertitude paramétrique (p. ex., unidirectionnelle, multidirectionnelle, analyse de seuil) n’est pas recommandée, car ses résultats seront trompeurs si le modèle n’est pas linéaire et si des paramètres sont corrélés. L’incidence de la modification de paramètres déterministes (p. ex., prix de nouveaux médicaments), pour lesquels il n’y a pas d’incertitude parce qu’ils sont connus supposément, est évaluée dans une analyse de scénario. La comparaison des résultats cout/efficacité (valeurs précises du seuil d’efficience) des divers scénarios peut permettre de cerner les valeurs critiques de paramètres déterministes.

L’incertitude quant à la décision (soit, le risque de prendre une mauvaise décision) est illustrée par des courbes d’acceptabilité du rapport cout/efficacité (CARCE). Si l’évaluation de la valeur d’une technologie se fonde sur la valeur escomptée des couts et résultats différentiels, il y a lieu de faire appel à la CARCE dès lors que l’évaluation porte sur trois technologies ou plus. Le diagramme de dispersion par rapport au plan cout/efficacité est une option, mais il n’est pas inclus dans l’analyse de référence parce qu’il est difficile à interpréter. De même, l’ellipse de confiance sur le plan cout/efficacité n’est pas recommandée, car elle n’apporte pas plus d’information que la CARCE ou la frontière d’efficience.

Pour faciliter la poursuite de la recherche sur la technologie afin d’éclairer des décisions futures, les décideurs envisagent de plus en plus des formules de remboursement à un certain degré d’adoption. Plusieurs appellations coiffent ces schémas de remboursement, que ce soit une couverture sous réserve de la production de données probantes supplémentaires, une répartition ou un partage du risque, un accès autorisé sous réserve de la production de données probantes supplémentaires. Ces schémas diffèrent sur un point important : d’une part, les schémas selon lesquels la technologie est offerte à tous les patients (qu’ils participent ou non aux études destinées à générer des données probantes) et, d’autre part, les schémas en vertu desquels la technologie n’est accessible qu’à ceux qui contribuent à la production de données.

Lorsque le problème de décision envisage la poursuite de la recherche pour éclairer les décisions futures, il y a lieu de procéder à l’analyse de la valeur de l’information dans le cadre de l’analyse de référence. Cette analyse examine les valeurs critiques où la décision quant à savoir si une intervention est efficiente peut changer. Pour cerner ces valeurs critiques et quantifier correctement l’incidence du paramètre à une valeur précise (à la fois sur la probabilité que l’intervention soit efficiente et sur le bénéfice net escompté), une étude méthodologique récente143 suggère une analyse en deux temps de la valeur attendue de l’information parfaite sur les paramètres142. Si le décideur souhaite déterminer la valeur de la collecte d’information supplémentaire pour réduire l’incertitude de certains paramètres, il pourrait être utile de présenter l’analyse probabiliste unidirectionnelle de ces paramètres dans un graphique143. Comme l’analyse probabiliste unidirectionnelle est une méthode émergente, elle ne fait pas partie des recommandations visant l’analyse de référence; elle est vue comme un complément d’information.

Il y a lieu de déterminer la valeur escomptée de l’information parfaite pour tous les paramètres d’importance critique dans la décision afin que le décideur puisse étudier la contribution de chacun des paramètres ou, si cela est indiqué, de groupes de paramètres (p. ex. lorsque des paramètres sont corrélés) à l’incertitude décisionnelle globale. L’on devrait indiquer également la valeur attendue de l’information parfaite sur la population, précisant la taille probable de la population et la durée de l’intervention. Lorsque certains paramètres ou groupes de paramètres sont à l’origine d’une grande partie de l’incertitude décisionnelle globale, l’analyse de la valeur de données-échantillons et l’avantage net de l’analyse d’échantillons appuieront le décideur dans son évaluation du rendement de l’investissement dans la poursuite de la recherche.

L’incertitude structurelle porte sur les éléments du problème de décision qui ne sont pas représentés par les paramètres (p. ex., le cheminement clinique avec et sans traitement, la structure du modèle, la dépendance temporelle et la forme fonctionnelle choisie pour les données d’entrée du modèle, comme le temps écoulé avant la survenue de l’évènement). L’incertitude structurelle sous certains aspects peut s’exprimer sous la forme d’une incertitude de paramètres, mais ce n’est pas toujours possible. Le cas échéant, l’on doit évaluer l’incertitude structurelle dans le cadre d’analyses de scénario (c.-à-d. l’analyse complète de chaque option); par exemple, une analyse avec une courbe gompertzienne et une autre avec une courbe de Weibull pour les données de survie. À tous les autres égards, ces analyses demeurent inchangées afin que le décideur puisse déterminer l’incidence de ces options structurelles sur les résultats. Dans le but d’éclairer les décideurs, il convient d’opter pour une méthode structurelle recommandée dans l’analyse de référence.

 

14. Équité

Avant toute chose, l’évaluation économique doit tenir compte à la fois de l’équité horizontale et de l’équité verticale. En vertu de la première, les personnes aux caractéristiques (d’importance éthique) semblables doivent être traitées de la même façon, alors que dans le second cas, les personnes aux caractéristiques (d’importance éthique) différentes sont traitées différemment144,145. Comme les présentes Lignes directrices s’inscrivent dans le droit fil du schème de décision sociale, le respect et de l’équité verticale et de l’équité horizontale est essentiel. Pour toute question d’équité verticale prise en considération par le chercheur ou le décideur, qui envisageront alors des analyses de sous-groupe, il est essentiel de veiller également à l’équité horizontale.

La mesure des AVAQ est compatible avec le but de maximiser la valeur des effets sur la santé lorsque cette valeur est indépendante des caractéristiques des personnes qui bénéficient de ces effets, de la maladie traitée et de la technologie qui produit ces effets. Toutefois, il est généralement admis que ce but n’est probablement pas le seul objectif du décideur ou de la population desservie. À titre d’exemple d’autres objectifs en matière de politiques, mentionnons la lutte contre les inégalités en santé et les préoccupations relatives à l’équité.

L’équité dont il est question ici relève en général de la notion de justice, et elle est vue sous l’angle de la santé et celui des soins de santé144,145. La plupart des définitions de l’équité en santé ont en commun l’idée que certaines disparités (ou inégalités) en matière de santé ou de soins de santé sont injustes. Dans le contexte de la santé, l’équité porte sur le caractère juste de la répartition des résultats sur la santé et des expériences dans une population. Sous l’angle des soins de santé, l’équité a trait à l’allocation juste des ressources, que ce soit des interventions ou des technologies, entre des personnes ou des groupes.

Pour ce qui est de l’évaluation économique en santé, la question de l’équité a été axée principalement sur les résultats en matière de santé; la pratique dominante voulant que l’on attribue la même valeur sociale à une unité d’amélioration de la santé, quelle que soit la personne qui bénéficie des effets. Par exemple, s’agissant d’une ACU, l’AVAQ gagnée dans un groupe socialement défavorisé a exactement la même valeur sociale que celle gagnée dans un groupe favorisé : une AVAQ pour une femme, un Autochtone, une personne pauvre ou une personne malade représente la même chose que pour un homme, une personne non autochtone, une personne nantie ou une personne bien portante.

L’hypothèse peut être assouplie. En théorie, on peut tenir compte des préoccupations au sujet de la répartition injuste des résultats sur la santé en pondérant différemment les résultats selon les bénéficiaires, en accordant une plus grande valeur aux gains en santé pour les personnes défavorisées146. Il s’ensuit, bien entendu, que les interventions destinées à des groupes défavorisés ressortiront comme étant plus efficientes, toutes choses étant égales par ailleurs.

Sur la scène internationale, la recherche s’est beaucoup penchée sur l’opinion publique au sujet des caractéristiques personnelles pertinentes sur le plan éthique dans le contexte des soins de santé. Les caractéristiques à l’étude en ce sens sont l’âge, le sexe, le statut socioéconomique, l’offre d’options thérapeutiques de rechange et la prévalence de la maladie. Ainsi, le principe « Fair Innings » avancé à l’origine par Alan Williams146 veut que « l’expérience d’états de santé au cours de l’existence » soit une caractéristique personnelle qui départage les bénéficiaires d’interventions de santé. Autrement dit, les personnes jouissant d’une vie bien remplie et en bonne santé ne devraient pas forcément être favorisées davantage à ce moment-là; on devrait plutôt accorder plus d’importance aux gains de santé au début de l’existence ou obtenus par ceux qui ne sont pas en bonne santé.

Quant à la pondération de l’équité, Wailoo et coll.147 font valoir le principe fondamental de l’évaluation économique – à savoir, le cout de renonciation, lequel oblige la prise en compte des caractéristiques à la fois de ceux à qui l’intervention va profiter et de ceux susceptibles d’être désavantagés147. Si l’on ne tient compte de manière explicite que des caractéristiques pertinentes sur le plan de l’équité des patients à qui est offerte la nouvelle intervention, cela sous-entend que ceux qui assument le cout de renonciation n’ont pas de caractéristiques spéciales et que leur santé a moins de valeur que la santé de la moyenne des gens. Un autre aspect important est celui de l’identifiabilité de ceux qui risquent d’être désavantagés. À moins que l’on puisse identifier ceux qui auront à supporter le cout de renonciation, on ne peut déterminer si la valeur du gain de santé produit par les dépenses du système de santé est accrue, réduite ou inchangée. En conséquence, en pondérant l’équité pour les seuls bénéficiaires identifiés, on ne peut être certain d’agir conformément aux principes d’équité importants aux yeux de la société.

La répartition des effets bénéfiques, des effets néfastes et des couts d’une technologie de la santé dans la population est souvent inégale. Cette inégalité peut relever de différences dans l’effet thérapeutique, les risques ou l’incidence des maladies, l’accès aux soins de santé ou la diffusion de la technologie dans des groupes de la population. Si l’on envisage d’offrir l’intervention à certains sous-groupes seulement, l’information sur l’efficience ou le rapport cout/efficacité est présentée de manière distincte pour chaque sous-groupe. Toute analyse stratifiée de sous-groupes motivée par des considérations d’équité verticale est décrite et justifiée. De plus, ces analyses par sous-groupe doivent se conformer aux lignes directrices de l’ACMTS quant à la population cible. Le cas échéant, il convient de faire état des différences de couts et de résultats dans les sous-groupes formés selon des caractéristiques ayant trait à l’équité afin que le décideur puisse évaluer les effets de distribution de l’investissement en question.

De plus, il y a lieu, dans la mesure du possible, d’identifier les groupes susceptibles d’être désavantagés par l’adoption et la mise en œuvre de l’intervention. Il peut s’agir, par exemple, d’une modification de la pratique clinique selon laquelle le patient sera désormais soigné à la maison, plutôt qu’à l’hôpital, ce qui a pour effet de faire porter au patient et à ses aidants les couts et la charge des soins.

Comme les décideurs sont nombreux à se préoccuper de l’équité, l’évaluation économique est présentée de manière à faire ressortir les aspects de l’équité connexes à la prise de décisions148. Ainsi, bien que l’analyse de référence pondère tous les résultats de manière égale (sans égard aux caractéristiques des personnes jouissant du gain de santé), il convient de présenter les analyses en les décomposant, avec une description complète des groupes de patients dont il est question, de manière à pouvoir prendre en considération par la suite toute préoccupation ayant trait à la répartition et à l’équité.

 

15. Compte rendu de l’évaluation économique

Le compte rendu de l’évaluation économique est clair et détaillé, et l’analyse et les résultats sont présentés de manière transparente. Le rapport offre suffisamment d’information pour que le lecteur ou l’utilisateur (le décideur, par exemple) puisse examiner d’un œil critique l’évaluation, y compris le traitement de chacun de ses éléments, tel qu’ils sont abordés dans les présentes Lignes directrices. Il se doit d’être bien structuré et compréhensible. L’annexe 1 présente un modèle de rapport formulé avec clarté et facilitant la comparaison avec d’autres évaluations économiques.

Au début du rapport de l’évaluation figure un résumé rédigé de manière compréhensible pour le lecteur non spécialisé. Il convient d’employer un langage simple et de définir les termes spécialisés ou techniques que le lecteur ou l’utilisateur ne connait peut-être pas.

Éléments de l’évaluation économique

L’évaluation commence par l’énoncé précis du problème de décision. Cet énoncé renferme la description des interventions à l’étude, le contexte dans lequel les interventions sont évaluées, la perspective choisie, les couts et les résultats étudiés, l’horizon temporel et la population d’intérêt.

Le compte rendu fait état des choix méthodologiques ayant trait à chacun des éléments de l’évaluation économique. Lorsque ces choix ne sont pas ceux recommandés dans l’analyse de référence, il y a lieu de les justifier et de procéder à une analyse complémentaire qui accompagnera l’analyse de référence.

Tous les éléments sur les couts et les effets intégrés à l’évaluation économique sont présentés de manière distincte avant leur agrégation. Il en va de même pour toutes les analyses de scénario et les analyses complémentaires. Pour faciliter la compréhension, il serait judicieux de présenter les résultats de l’analyse dans des graphiques, des tableaux ou sous une autre forme visuelle, comme il est décrit aux parties sur l’analyse et sur l’incertitude. Une discussion accompagne les tableaux et les graphiques, qui ne sauraient tenir lieu de description ou d’interprétation des résultats. Le rapport précise également l’incidence de l’incertitude méthodologique, de l’incertitude paramétrique et de l’incertitude structurelle sur les résultats.

Assurance de la qualité

Il incombe aux auteurs de veiller à la rigueur méthodologique du processus d’évaluation économique et d’étayer toutes les hypothèses par une solide argumentation. Pour ce faire, ils documentent les décisions et les choix effectués tout au long de l’évaluation dans une annexe technique, par souci de transparence et afin d’illustrer la rigueur du processus. La mise à l’épreuve, le calage et la validation du modèle sont décrits en détail. Enfin, le rapport décrit l’analyse statistique (c.-à-d. sources des données, méthodes et résultats).

La documentation décrivant le processus d’assurance de la qualité est mise à la disposition de l’utilisateur. Une copie électronique utilisable (c.-à-d. déverrouillée) du modèle, dotée d’une interface utilisateur appropriée et contenant suffisamment de renseignements pour comprendre le modèle et son fonctionnement, est offerte aux décideurs qui en feront la demande (sous réserve d’une entente de stricte confidentialité et de protection du droit de propriété) pour qu’ils puissent l’examiner et effectuer une analyse de l’incertitude à l’aide de leurs propres données et hypothèses.

Divulgation des rapports de subordination

Les dispositions relatives au financement et les rapports de subordination sont énoncés dans le rapport ou dans une lettre attestant la paternité de l’ouvrage accompagnant le rapport. On divulguera aussi le nom des principaux participants à l’étude et leur apport respectif, ainsi que le nom du commanditaire. On précisera si celui-ci détient des droits d’examen et de révision de l’analyse ou du rapport d’évaluation.

Le rapport sera accompagné également de la déclaration des conflits d’intérêts (financiers ou autres) ou de la mention de l’absence de tels conflits. On trouvera les lignes directrices relatives à la divulgation des conflits d’intérêts et un modèle de déclaration dans le document intitulé Guidelines for Authors of CADTH Health Technology Reports149.

 

Annexe 1 : Modèle de rapport standard

Une mise en forme structurée du rapport de l’évaluation économique assure une présentation rigoureuse et organisée de façon cohérente des résultats, ce qui en facilitera l’examen et la comparaison par le décideur.

Dans la mesure du possible, le compte rendu de l’évaluation économique se conforme à cette structure, quoique dans certains cas il convienne de s’en écarter. Par exemple, le rapport peut ordonner ses parties d’une autre manière ou en exclure certaines si elles ne s’appliquent pas à l’évaluation. L’étude est présentée de façon claire et transparente, et le rapport contient suffisamment d’information pour que le lecteur puisse évaluer d’un œil critique la validité de l’analyse. Le résumé et la conclusion sont rédigés dans un langage accessible à un lecteur non spécialisé.

D’autres outils et formats de rapport ont été publiés150,151 et peuvent être utiles.

Préface

  • Liste des auteurs et de leurs affiliations accompagnée d’une description de leur apport respectif
  • Remerciements
  • Mention de la source de financement et des liens hiérarchiques, du commanditaire de l’étude, des ententes contractuelles, de l’autonomie des chercheurs et des droits de publication; déclaration des conflits d’intérêts (on trouvera des lignes directrices et un modèle de déclaration dans le document Guidelines for Authors of CADTH Health Technology Reports149).

Résumé

Le résumé fait moins de trois pages et est rédigé dans un langage simple. Il est structuré comme suit :

  • Sujet : énoncé de la question politique ou économique ou du motif de l’évaluation de la technologie
  • Objectifs et problème de décision
  • Méthodologie
  • Résultats : sommaire numérique et descriptif des résultats
  • Discussion : limites de l’étude, pertinence des résultats, répercussions sur les services de santé
  • Conclusions : bilan de l’évaluation, incertitude entourant les résultats et mises en garde

Table des matières

Abréviations

Glossaire

Objectifs

Description des questions examinées dans l’évaluation économique

  • Préciser le contexte pour le lecteur et les raisons motivant l’analyse (p. ex., questions de politique, financement ou questions de couts, technologies concurrentes).

Énoncé du problème de décision

  • Circonscrire le problème de décision, le formuler d’une façon qui appelle des réponses et s’assurer de sa pertinence pour la clientèle cible.
  • Décrire la population cible et les comparateurs.
  • Préciser la perspective principale et les perspectives connexes adoptées dans des analyses complémentaires, le cas échéant.
  • Désigner la clientèle cible principale ainsi que les clientèles secondaires s’il y a lieu.

Contexte

Renseignements généraux sur la maladie

  • Décrire la maladie et les groupes de la population à l’étude.
  • Décrire l’étiologie, la pathologie, le diagnostic, les facteurs de risque et le pronostic (s’il y a lieu).
  • Décrire le fardeau épidémiologique de la maladie (incidence, prévalence) au Canada.
  • Exposer les répercussions économiques de la maladie et le fardeau qu’elle représente au Canada.
  • Décrire la prise en charge de la maladie selon la pratique clinique actuelle au Canada. Se reporter à des guides de pratique clinique s’il y a lieu. Inclure une description ou une comparaison des interventions indiquées dans la prise en charge de la maladie.

Description de la technologie

  • S’il s’agit d’un médicament, préciser les noms de marque et les génériques, la forme posologique, la voie d’administration, la posologie recommandée, la durée du traitement, la classe thérapeutique et le mode d’action.
  • S’il s’agit d’une technologie non pharmacologique, énoncer les caractéristiques de base et la théorie ou le concept sous-jacent.
  • Énumérer les avantages et les désavantages (p. ex., ceux liés à l’usage clinique).
  • Indiquer les effets indésirables, les contrindications, les précautions et les mises en garde.
  • Décrire le cadre d’utilisation de la technologie, s’il y a lieu (p. ex., à l’hôpital).
  • Indiquer le cout unitaire des comparateurs.

Autorisation règlementaire

  • Énumérer les indications autorisées au Canada qui font l’objet de l’étude, y compris la population et les sous-groupes à qui la technologie est destinée, et la date d’approbation.
  • Indiquer toute autre indication autorisée au Canada.
  • Préciser l’état de la règlementation et les indications approuvées dans d’autres pays.

Examen des données économiques probantes

  • Examiner les études économiques portant sur la même technologie et posant un problème de décision semblable.
  • Si des modèles économiques validés portant sur des problèmes de décision semblables existent, préciser si leur méthodologie peut s’appliquer au problème de décision à l’étude.

Méthodologie

Faire état du traitement de chaque élément de l’évaluation économique, tel que précisé dans les présentes Lignes directrices.

Type d’évaluation économique

  • Décrire l’analyse cout/utilité (ACU).
  • S’il ne s’agit pas d’une ACU, justifier le type d’évaluation économique choisi.

Population cible

  • Décrire la population cible et le contexte de soins dans lequel on utilise l’intervention ou projette de l’utiliser.
  • Décrire la stratification de la population cible et la justifier. Préciser s’il y a des sous-groupes, identifiés au préalable, pour lesquels on pourrait attendre des résultats différents (p. ex., selon l’efficacité clinique, les préférences, les coefficients d’utilité ou les couts).
  • Si aucune analyse par sous-groupe n’a été réalisée, expliquer pourquoi cela n’était pas nécessaire.

Comparateurs

  • Décrire les interventions et en justifier le choix; établir le lien entre, d’une part, le choix des comparateurs et, d’autre part, la population à l’étude et la pratique ou le contexte local.

Perspective

  • Présenter et justifier la perspective choisie pour l’analyse (p. ex., payeur public, société).
  • Si d’autres perspectives sont prises en considération dans des analyses complémentaires, indiquer en quoi elles sont pertinentes en regard du problème de décision.
  • Décrire et justifier l’analyse d’autres éléments de variation (p. ex., variation de cout ou de mode de pratique).

Horizon temporel

  • Préciser et justifier l’horizon temporel de l’analyse.

Taux d’actualisation

  • Indiquer le taux d’actualisation appliqué aux couts et aux résultats et en justifier le choix.

Modélisation

a) Considérations sur la modélisation

  • Décrire la structure du modèle : portée, structure, hypothèses accompagnées de justifications; il est recommandé d’inclure un diagramme du modèle.
  • Expliquer la validation du modèle. Il peut s’agir de la validation de divers aspects du modèle (p. ex., structure, données et hypothèses, programmation du modèle) et du recours à plusieurs méthodes de validation (p. ex., comparaison avec d’autres modèles). S’il y a lieu, présenter les résultats des exercices de validation en annexe.

b) Considérations sur les données

  • Énumérer les sources de données et justifier les hypothèses. Il peut s’agir d’apporter des précisions sur les facteurs épidémiologiques, comme la prévalence ou l’incidence de la maladie.
  • Décrire les analyses statistiques.

Efficacité clinique

a) Données probantes sur l’efficacité théorique et l’efficacité clinique

  • Présenter en détail les données probantes sur l’efficacité théorique et préciser en quoi elles sont utiles dans l’estimation de l’efficacité clinique pour les besoins de l’analyse (si cet exposé est long, le présenter en annexe).
  • S’il s’agit d’études cliniques, rendre compte des aspects suivants : participants, intervention, comparateur ou témoin, résultats et plan de l’étude.
  • Décrire les incidents indésirables s’ils sont importants et pertinents.
  • Indiquer les sources d’information (p. ex., essais cliniques, métaanalyse, métaanalyse en réseau, documentation).

b) Modélisation de l’efficacité clinique

  • Déterminer les facteurs susceptibles d’influer sur l’efficacité clinique (p. ex., adhésion du patient au traitement, exactitude du diagnostic) et décrire leur prise en compte dans l’analyse. Expliquer les relations de cause à effet et les techniques de modélisation ou d’extrapolation des paramètres estimés (p. ex., extrapolation à long terme des résultats à court terme, indicateur de substitution du résultat final). Préciser le poids des données probantes quant aux relations et aux liens.

Mesure et évaluation des résultats

  • Spécifier, mesurer et évaluer tous les résultats pertinents, y compris les effets indésirables importants.
  • Mentionner les sources d’information, les hypothèses et leur justification.
  • Préciser la méthode utilisée pour la mesure de la QVLS et la justifier (on pourra joindre une copie de l’instrument en annexe). Décrire les méthodes d’élicitation des préférences et la population évaluée.
  • Mentionner tout autre résultat examiné, mais rejeté (et expliquer pourquoi).

Utilisation et couts des ressources

  • Relever, mesurer et évaluer les ressources incluses dans l’analyse.
  • Présenter les méthodes de calcul du cout de revient (p. ex., cout pour le patient).
  • Classer les ressources par catégories pertinentes pour la perspective de l’étude (p. ex., organismes pertinents relevant du payeur public).
  • Faire état séparément des quantités de ressources et des couts unitaires.
  • Préciser la méthode utilisée pour le calcul du cout lié au temps perdu, y compris la perte de productivité. Définir, mesurer et évaluer le temps perdu. Fournir une justification lorsque des couts relatifs au temps perdu ne sont pas pris en considération.
  • Faire état de toutes les sources d’information, des données et des hypothèses.

Incertitude

  • Préciser quelles sont les sources d’incertitude dans le cadre de l’analyse.
  • Distinguer clairement l’analyse de référence des analyses complémentaires.
  • Indiquer les sources des distributions de probabilités utilisées dans les analyses probabilistes et leur justification. Préciser le nombre d’itérations de la simulation de Monte Carlo.
  • En ce qui a trait aux analyses de scénarios, indiquer les valeurs et les hypothèses testées, ainsi que les sources et la justification pour chacune.

Équité

  • Énoncer les hypothèses relatives à l’équité (p. ex., toutes les AVAQ sont égales).
  • Relever les caractéristiques pertinentes du point de vue de l’équité des principaux sous-groupes susceptibles de bénéficier de la technologie ou d’être désavantagés par celle-ci et décrire leur analyse.

Résultats

Paramètres de l’étude

  • Indiquer les sources d’information sur les paramètres d’entrée et en justifier le choix.
  • Présenter les distributions de probabilités des paramètres.
  • Indiquer la valeur d’entrée des paramètres de l’étude ainsi que les sources de référence dans un tableau.
  • Énumérer toutes les hypothèses.

Analyse et résultats

  • Décrire toutes les étapes des analyses de façon à permettre la reproduction des calculs. Cela comprend les résultats, les couts et la qualité de vie pour chaque comparateur.
  • Présenter les résultats de l’analyse de manière désagrégée, en décrivant ses éléments séparément. S’il y a lieu, présenter séparément les résultats de l’analyse des divers horizons temporels et des types d’évaluation économique réalisés.
  • Indiquer les totaux non actualisés (bruts et nets) avant l’agrégation et l’actualisation.
  • Faire état des couts et des résultats globaux dans l’horizon temporel selon la perspective.
  • Présenter les éléments du numérateur (cout moyen de chaque intervention) et du dénominateur (résultat moyen de chaque intervention) du rapport cout/efficacité différentiel (RCED).
  • Exprimer les résultats en unités naturelles, puis les convertir en d’autres unités, comme les AVAQ ou les avantages pécuniaires.
  • Joindre des tableaux des résultats en annexe; une représentation visuelle des résultats est utile.
  • Utiliser le même mode de présentation des résultats pour tous les sous-groupes pertinents.

Résultats des analyses de scénarios

  • Présenter les résultats des scénarios analysés.
  • Interpréter les résultats par rapport à ceux de l’analyse de référence.
  • Produire les résultats de l’analyse pour les autres types de variabilité (p. ex., variation des couts ou des modes de pratique).

Validation du modèle

  • Décrire le processus de validation du modèle.
  • Si des informations sur l’exercice de validation s’avèrent pertinentes, envisager de les présenter en annexe de l’évaluation économique.
  • Si l’on a examiné d’autres études économiques, comparer les méthodes et les résultats de ces études à ceux de la présente étude.

Discussion

Sommaire des résultats

  • Examiner et interpréter de façon critique les principaux résultats de l’analyse en tenant compte de toutes les interventions raisonnables.
  • Discuter de la place de l’intervention dans la pratique, en fonction des données probantes.
  • Examiner l’incertitude des résultats et les principaux déterminants des résultats.
  • Commenter les compromis entre les résultats et les couts.

Limites de l’étude

  • Exposer les principales limites de l’étude et les problèmes relatifs à l’analyse, notamment les limites et les questions d’ordre méthodologique, la validité des hypothèses, le poids des données et les relations ou les liens utilisés pour le modèle. Préciser si les données et les méthodes utilisées peuvent biaiser les résultats de l’analyse en faveur d’une des interventions étudiées.

Généralisabilité

  • Discuter de la généralisabilité ou de la pertinence des résultats et de la validité des données et du modèle compte tenu de la région et de la population d’intérêt.
  • Examiner les différences régionales sur le plan de l’épidémiologie, des caractéristiques de la population, des modes de pratique clinique, des schémas d’utilisation des ressources, des couts unitaires et d’autres facteurs pertinents. Lorsqu’il existe des différences, discuter de leur incidence sur les résultats (direction et ampleur prévues de l’effet) et les conclusions.

Considérations sur l’équité

  • Exposer les considérations ayant trait à la répartition (p. ex., principaux bénéficiaires et personnes risquant d’être désavantagées).
  • Énumérer les autres questions relatives à l’éthique ou à l’équité; par exemple, l’accès à l’intervention variera-t-il selon le lieu ou les caractéristiques des patients? La technologie répond-elle à des besoins non satisfaits de certains groupes défavorisés (p. ex., télésanté pour les personnes en région éloignée)? La technologie est-elle adaptée aux patients ayant les plus grands besoins et pour lesquels il n’existe aucun autre traitement (p. ex., devoir d’assistance)?

Recherche future

  • Cerner les lacunes à combler dans les connaissances et les domaines où il conviendrait de faire de la recherche au Canada.

Conclusions

  • Aborder le problème de décision.
  • Résumer les principaux résultats de l’évaluation économique : répercussions globales, incertitude relative aux résultats, utilisations appropriées de l’intervention (p. ex., sous-groupes de population) et mises en garde.

Références

Annexes

  • Joindre en annexe (selon la quantité d’information et les aspects pratiques) un tableau des sources de données, les formulaires de collecte de données, les questionnaires et les instruments de mesure, un diagramme de la structure du modèle, la description du déroulement des analyses, y compris les résultats intermédiaires, les tableaux de résultats et une présentation visuelle des résultats (p. ex., figures ou graphiques).

 

Annexe 2 : Analyse de référence

Le tableau 4 présente les choix méthodologiques recommandés dans l’analyse de référence. Dans certains cas, l’analyse ne se conformera pas forcément aux présentes recommandations. Le chercheur devra alors cerner les divergences et justifier toute analyse complémentaire en fonction du problème de décision à l’étude.

Tableau 4 : Recommandations ayant trait à l’analyse de référence

Partie Recommandations
Problème de décision Préciser les interventions, le cadre d’intervention, la perspective, les couts, les résultats, l’horizon temporel et la population cible de l’évaluation.
Type d’évaluation économique Procéder à une analyse cout/utilité avec présentation des résultats sur la santé en années de vie ajustées en fonction de la qualité (AVAQ).
Population cible

Identifier la population cible à laquelle les interventions sont destinées.

Effectuer une analyse stratifiée lorsqu’il y a lieu de répartir la population d’intérêt en sous-groupes distincts.
Comparateurs Comparer toutes les interventions pertinentes, y compris les « soins usuels » (c.-à-d. les interventions d’usage courant dans le contexte canadien).
Perspective Adopter la perspective d’un payeur public des soins de santé.
Horizon temporel Choisir un horizon temporel suffisamment long pour cerner toutes les différences pertinentes dans les couts et les résultats futurs des interventions comparées.
Actualisation Actualiser les couts et les résultats au taux annuel de 1,5 %.
Mesure et évaluation de la santé
  • Relever, mesurer et évaluer tous les résultats sur la santé pertinents en regard de la perspective du payeur public des soins de santé.
  • Utiliser les préférences en matière de santé qui correspondent à celles de la population canadienne générale.
  • Obtenir les préférences en matière de santé par une méthode de mesure indirecte reposant sur un système de classification générique.
Utilisation et cout des ressources
  • Répertorier, mesurer et évaluer les ressources pertinentes utilisées, et établir les couts selon la perspective du payeur public des soins de santé.
  • Estimer les ressources et les couts canadiens en fonction de données applicables dans la région d’intérêt.
Analyse
  • Déterminer la valeur probable des couts et des résultats de chaque intervention par une analyse probabiliste en tenant compte de la corrélation entre des paramètres le cas échéant.
  • Si la population cible est constituée de sous-groupes distincts, procéder à une analyse stratifiée et présenter les résultats pour chacun des sous-groupes.
  • Calculer les rapports cout/efficacité différentiels (RCED).
  • Lorsque l’évaluation porte sur plus de deux interventions, calculer les RCED de façon séquentielle.
Incertitude
  • Évaluer l’incertitude méthodologique en comparant les résultats de l’analyse de référence à ceux d’une analyse complémentaire.
  • Résumer l’incertitude décisionnelle à l’aide de courbes d’acceptabilité du rapport cout/efficacité (CARCE) et de frontières d’efficience (FE).
  • Évaluer l’incertitude structurelle par l’analyse de scénarios.
  • S’il y a analyse de la valeur de l’information, illustrer la valeur de l’information supplémentaire par la valeur probable de l’information parfaite sur le paramètre et la valeur escomptée par la population de l’information parfaite sur le paramètre.
Équité Pondérer tous les résultats de manière égale, sans égard aux caractéristiques des bénéficiaires de l’intervention ou des personnes touchées par l’intervention.

 

Références

  1. Claxton K, Paulden M, Gravelle H, Brouwer W, Culyer AJ. Discounting and decision making in the economic evaluation of health-care technologies. Health Econ. 2011 Jan;20(1):2-15.
  2. Drummond MF, Sculpher MJ, Claxton K, Stoddart GL, Torrance GW. Methods for the economic evaluation of health care programmes. 4th ed. Oxford: Oxford University Press; 2015.
  3. Paulden M, Galvanni V, Chakraborty S, Kudinga B, McCabe C. Discounting and the evaluation of health care programs [Internet]. Ottawa: CADTH; 2016 Mar. [cited 2016 May 20]. Available from: https://www.cadth.ca/sites/default/files/pdf/CP0008_Economic_Evaluation_Guidelines_Discount_Rate_Report.pdf
  4. Baron J. A theory of social decisions. Philadelphia: University of Pennsylvania; 2011 Mar 25.
  5. Palmer S, Torgerson DJ. Economic notes: definitions of efficiency. BMJ [Internet]. 1999 Apr 24 [cited 2017 Feb 1];318(7191):1136. Available from: http://www.ncbi.nlm.nih.gov/pmc/articles/PMC1115526
  6. Claxton KP, Sculpher MJ, Culyer AJ. Mark versus Luke? Appropriate methods for the evaluation of public health interventions [Internet]. York (GB): University of York, Centre for Health Economics; 2007 Nov. [cited 2016 May 20]. (CHE research paper; no. 31). Available from: http://www.york.ac.uk/media/che/documents/papers/researchpapers/rp31_evaluation_of_public_health_interventions.pdf
  7. Whitehurst DG, Norman R, Brazier JE, Viney R. Comparison of contemporaneous EQ-5D and SF-6D responses using scoring algorithms derived from similar valuation exercises. Value Health [Internet]. 2014 Jul [cited 2016 Jun 16];17(5):570-7. Available from: http://www.sciencedirect.com/science/article/pii/S1098301514017811
  8. Cookson R. Willingness to pay methods in health care: a sceptical view. Health Econ. 2003 Nov;12(11):891-4.
  9. Sculpher M. Subgroups and heterogeneity in cost-effectiveness analysis. Pharmacoeconomics. 2008;26(9):799-806.
  10. Phelps CE. Good technologies gone bad: how and why the cost-effectiveness of a medical intervention changes for different populations. Med Decis Making. 1997 Jan;17(1):107-17.
  11. Coyle D, Buxton MJ, O'Brien BJ. Stratified cost-effectiveness analysis: a framework for establishing efficient limited use criteria. Health Econ. 2003 May;12(5):421-7.
  12. Espinoza MA, Manca A, Claxton K, Sculpher MJ. The value of heterogeneity for cost-effectiveness subgroup analysis: conceptual framework and application. Med Decis Making [Internet]. 2014 Nov [cited 2017 Mar 2];34(8):951-64. Available from: http://www.ncbi.nlm.nih.gov/pmc/articles/PMC4232328
  13. Mauskopf J, Samuel M, McBride D, Mallya UG, Feldman SR. Treatment sequencing after failure of the first biologic in cost-effectiveness models of psoriasis: a systematic review of published models and clinical practice guidelines. Pharmacoeconomics [Internet]. 2014 Apr [cited 2017 Mar 2];32(4):395-409. Available from: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3964298/
  14. Goodrich K, Kaambwa B, Al-Janabi H. The inclusion of informal care in applied economic evaluation: a review. Value Health. 2012 Sep;15(6):975-81.
  15. Hoefman RJ, van Exel J, Brouwer W. How to include informal care in economic evaluations. Pharmacoeconomics. 2013 Dec;31(12):1105-19.
  16. Fox-Rushby JA, Cairns J, editors. Economic evaluation. Maidenhead (NY): Open University Press; 2005 Nov.
  17. Gold MR, Siegel JE, Russell LB, Weinstein MC, editors. Cost-effectiveness in health and medicine. New York: Oxford University Press; 1996.
  18. Zhuang J, Liang Z, Lin T, de Guzman F. Theory and practice in the choice of social discount rate for cost-benefit analysis: a survey [Internet]. Mandaluyong City (PH): Asian Development Bank; 2007. [cited 2016 Oct 24]. (ERD working paper series; no. 94). Available from: https://www.adb.org/sites/default/files/publication/28360/wp094.pdf
  19. National health expenditure trends, 1975 to 2015 [Internet]. Ottawa: Canadian Institute for Health Information; 2015 Oct. [cited 2016 May 20]. Available from: https://www.cihi.ca/sites/default/files/document/nhex_trends_narrative_report_2015_en.pdf
  20. History of health and social transfers [Internet]. Ottawa: Department of Finance Canada; 2014 Dec 15. [cited 2016 May 25]. Available from: http://www.fin.gc.ca/fedprov/his-eng.asp
  21. Galvani V, Behnamian A. A comparative analysis of the returns on provincial and federal Canadian bonds [Internet]. Edmonton (AB): University of Alberta; 2009 Jan. [cited 2016 May 20]. (Working paper no. 2009-07). Available from: http://www.ualberta.ca/~econwps/2009/wp2009-07.pdf
  22. Research guides [Internet]. New York: Columbia University. Bloomberg help guide; 2016 [cited 2016 May 24]. Available from: http://library.columbia.edu/subject-guides/business/bloomberg.html
  23. Inflation [Internet]. Ottawa: Bank of Canada; 2016. [cited 2016 May 24]. Available from: http://www.bankofcanada.ca/core-functions/monetary-policy/inflation/
  24. Renewal of the inflation-control target: background information -- October 2016 [Internet]. Ottawa: Bank of Canada; 2016 Oct. [cited 2017 Feb 1]. Available from: http://www.bankofcanada.ca/wp-content/uploads/2016/10/background_nov11.pdf
  25. Annual demographic estimates: Canada, provinces and territories [Internet]. Ottawa: Statistics Canada; 2015. [cited 2016 May 24]. (Catalogue no. 91-215-X). Available from: http://www.statcan.gc.ca/pub/91-215-x/91-215-x2015000-eng.htm
  26. Damodaran A. What is the riskfree rate? A search for the basic building block [Internet]. New York: New York University, Stern School of Business; 2008 Dec. [cited 2016 May 20]. Available from: http://117.4iranian.com/uploads/Estimating%20Riskfree%20Rates_881.pdf
  27. Caro JJ, Briggs AH, Siebert U, Kuntz KM, ISPOR-SMDM Modeling Good Research Practices Task Force. Modeling good research practices--overview: a report of the ISPOR-SMDM Modeling Good Research Practices Task Force-1. Med Decis Making. 2012 Sep;32(5):667-77.
  28. Roberts M, Russell LB, Paltiel AD, Chambers M, McEwan P, Krahn M, et al. Conceptualizing a model: a report of the ISPOR-SMDM modeling good research practices task force-2. Med Decis Making. 2012 Sep;32(5):678-89.
  29. Siebert U, Alagoz O, Bayoumi AM, Jahn B, Owens DK, Cohen DJ, et al. State-transition modeling: a report of the ISPOR-SMDM Modeling Good Research Practices Task Force-3. Med Decis Making. 2012 Sep;32(5):690-700.
  30. Karnon J, Stahl J, Brennan A, Caro JJ, Mar J, Moller J. Modeling using discrete event simulation: a report of the ISPOR-SMDM Modeling Good Research Practices Task Force-4. Med Decis Making. 2012 Sep;32(5):701-11.
  31. Pitman R, Fisman D, Zaric GS, Postma M, Kretzschmar M, Edmunds J, et al. Dynamic transmission modeling: a report of the ISPOR-SMDM Modeling Good Research Practices Task Force--5. Value Health [Internet]. 2012 Sep [cited 2016 Jun 16];15(6):828-34. Available from: http://www.sciencedirect.com/science/article/pii/S1098301512016518
  32. Briggs AH, Weinstein MC, Fenwick EA, Karnon J, Sculpher MJ, Paltiel AD, et al. Model parameter estimation and uncertainty: a report of the ISPOR-SMDM Modeling Good Research Practices Task Force--6. Value Health [Internet]. 2012 Sep [cited 2016 Jun 16];15(6):835-42. Available from: http://www.sciencedirect.com/science/article/pii/S1098301512016592
  33. Eddy DM, Hollingworth W, Caro JJ, Tsevat J, McDonald KM, Wong JB, et al. Model transparency and validation: a report of the ISPOR-SMDM Modeling Good Research Practices Task Force-7. Med Decis Making. 2012 Sep;32(5):733-43.
  34. Briggs A, Claxton K, Sculpher M. Decision modelling for health economic evaluation. Oxford (GB): Oxford University Press; 2006.
  35. Stahl JE. Modelling methods for pharmacoeconomics and health technology assessment: an overview and guide. Pharmacoeconomics. 2008;26(2):131-48.
  36. Marshall DA, Burgos-Liz L, Ijzerman MJ, Osgood ND, Padula WV, Higashi MK, et al. Applying dynamic simulation modeling methods in health care delivery research-the SIMULATE checklist: report of the ISPOR simulation modeling emerging good practices task force. Value Health [Internet]. 2015 Jan [cited 2016 Jun 16];18(1):5-16. Available from: http://www.sciencedirect.com/science/article/pii/S1098301514047640
  37. Brennan A, Chick SE, Davies R. A taxonomy of model structures for economic evaluation of health technologies. Health Econ. 2006 Dec;15(12):1295-310.
  38. Barton P, Bryan S, Robinson S. Modelling in the economic evaluation of health care: selecting the appropriate approach. J Health Serv Res Policy. 2004 Apr;9(2):110-8.
  39. Griffin S, Claxton K, Hawkins N, Sculpher M. Probabilistic analysis and computationally expensive models: necessary and required? Value Health [Internet]. 2006 Jul [cited 2016 Jun 16];9(4):244-52. Available from: http://www.sciencedirect.com/science/article/pii/S1098301510602768
  40. Ethgen O, Standaert B. Population- versus cohort-based modelling approaches. Pharmacoeconomics. 2012 Mar;30(3):171-81.
  41. Dias S, Welton NJ, Sutton AJ, Ades AE. Evidence synthesis for decision making 5: the baseline natural history model. Med Decis Making [Internet]. 2013 Jul [cited 2016 Oct 24];33(5):657-70. Available from: http://www.ncbi.nlm.nih.gov/pmc/articles/PMC3704201
  42. Cooper NJ, Sutton AJ, Achana F, Welton NJ. Use of network meta-analysis to inform clinical parameters in economic evaluations [Internet]. Ottawa: CADTH; 2015 Jun. [cited 2016 Apr 5]. Available from: https://www.cadth.ca/sites/default/files/pdf/RFP%20Topic-%20Use%20of%20Network%20Meta-analysis%20to%20Inform%20Clinical%20Parameters%20in%20Economic%20Evaluations.pdf
  43. Ara R, Wailoo A. NICE DSU technical support document 12: the use of health state utility values in decision models [Internet]. Sheffield (United Kingdom): University of Sheffield; 2011. [cited 2016 Apr 29]. Available from: http://www.nicedsu.org.uk/TSD12%20Utilities%20in%20modelling%20FINAL.pdf
  44. Morton A, Adler AI, Bell D, Briggs A, Brouwer W, Claxton K, et al. Unrelated future costs and unrelated future benefits: reflections on NICE Guide to the Methods of Technology Appraisal. Health Econ. 2016 Aug;25(8):933-8.
  45. Bojke L, Claxton K, Bravo-Vergel Y, Sculpher M, Palmer S, Abrams K. Eliciting distributions to populate decision analytic models. Value Health [Internet]. 2010 Aug [cited 2016 Jun 16];13(5):557-64. Available from: http://www.sciencedirect.com/science/article/pii/S1098301510600964
  46. Bojke L, Soares M. Decision analysis: eliciting experts' beliefs to characterize uncertainties. In: Culyer AJ, editor. Encyclopedia of health economics. Amsterdam: Elsevier; 2014.
  47. Karnon J, Vanni T. Calibrating models in economic evaluation: a comparison of alternative measures of goodness of fit, parameter search strategies and convergence criteria. Pharmacoeconomics. 2011 Jan;29(1):51-62.
  48. Stout NK, Knudsen AB, Kong CY, McMahon PM, Gazelle GS. Calibration methods used in cancer simulation models and suggested reporting guidelines. Pharmacoeconomics [Internet]. 2009 [cited 2016 Jun 16];27(7):533-45. Available from: http://www.ncbi.nlm.nih.gov/pmc/articles/PMC2787446
  49. McHaney R. Computer simulation: a practical perspective. San Diego (CA): Academic Press; 1991.
  50. Thesen A, Travis LE. Simulation for decision making. St. Paul (MN): West Publishing; 1992.
  51. Law AM, Kelton DW. Simulation modeling and analysis. 4th ed. Boston: McGraw-Hill; 2007.
  52. Kopec JA, Fines P, Manuel DG, Buckeridge DL, Flanagan WM, Oderkirk J, et al. Validation of population-based disease simulation models: a review of concepts and methods. BMC Public Health [Internet]. 2010 [cited 2016 May 3];10:710. Available from: http://www.ncbi.nlm.nih.gov/pmc/articles/PMC3001435
  53. Drummond MF, Barbieri M, Wong JB. Analytic choices in economic models of treatments for rheumatoid arthritis: what makes a difference? Med Decis Making. 2005 Sep;25(5):520-33.
  54. Berry DA, Cronin KA, Plevritis SK, Fryback DG, Clarke L, Zelen M, et al. Effect of screening and adjuvant therapy on mortality from breast cancer. N Engl J Med. 2005 Oct 27;353(17):1784-92.
  55. Mount Hood 4 Modeling Group. Computer modeling of diabetes and its complications: a report on the Fourth Mount Hood Challenge Meeting. Diabetes Care. 2007 Jun;30(6):1638-46.
  56. Zauber AG, Lansdorp-Vogelaar I, Knudsen AB, Wilschut J, van Ballegooijen M, Kuntz KM. Evaluating test strategies for colorectal cancer screening: a decision analysis for the U.S. Preventive Services Task Force. Ann Intern Med [Internet]. 2008 Nov 4 [cited 2016 Aug 10];149(9):659-69. Available from: http://www.ncbi.nlm.nih.gov/pmc/articles/PMC2731975
  57. Ip S, Paulus JK, Balk EM, Dahabreh IJ, Avendano EE, Lau J, et al. Role of single group studies in Agency for Healthcare Research and Quality comparative effectiveness reviews [Internet]. Rockville (MD): Agency for Healthcare Research and Quality (AHRQ); 2013 Jan. [cited 2016 May 24]. (AHRQ publication; no. 13-EHC007-EF). Available from: http://www.ncbi.nlm.nih.gov/books/NBK121314/pdf/Bookshelf_NBK121314.pdf
  58. O'Mahony JF, Newall AT, van Rosmalen J. Dealing with time in health economic evaluation: methodological issues and recommendations for practice. Pharmacoeconomics [Internet]. 2015 Dec [cited 2017 Feb 1];33(12):1255-68. Available from: http://www.ncbi.nlm.nih.gov/pmc/articles/PMC4661216
  59. Ballou DP, Pater HL. Modeling completeness versus consistency tradeoffs in information decision contexts. IEEE Trans Knowl Data Eng. 2003;15(1):241-44.
  60. Prevost TC, Abrams KR, Jones DR. Hierarchical models in generalized synthesis of evidence: an example based on studies of breast cancer screening. Stat Med. 2000 Dec 30;19(24):3359-76.
  61. McCarron CE, Pullenayegum EM, Thabane L, Goeree R, Tarride JE. The importance of adjusting for potential confounders in Bayesian hierarchical models synthesising evidence from randomised and non-randomised studies: an application comparing treatments for abdominal aortic aneurysms. BMC Med Res Methodol [Internet]. 2010 [cited 2016 Jun 16];10:64. Available from: http://www.ncbi.nlm.nih.gov/pmc/articles/PMC2916004
  62. Turner RM, Spiegelhalter DJ, Smith GC, Thompson SG. Bias modelling in evidence synthesis. J R Stat Soc Ser A Stat Soc [Internet]. 2009 Jan [cited 2017 Mar 2];172(1):21-47. Available from: http://www.ncbi.nlm.nih.gov/pmc/articles/PMC2667303
  63. Schmitz S, Adams R, Walsh C. Incorporating data from various trial designs into a mixed treatment comparison model. Stat Med. 2013 Jul 30;32(17):2935-49.
  64. Verde PE, Ohmann C. Combining randomized and non-randomized evidence in clinical research: a review of methods and applications. Res Synth Methods. 2015 Mar;6(1):45-62.
  65. Robb MA, McInnes PM, Califf RM. Biomarkers and surrogate endpoints: developing common terminology and definitions. JAMA. 2016 Mar 15;315(11):1107-8.
  66. Fleming TR, DeMets DL. Surrogate end points in clinical trials: are we being misled? Ann Intern Med. 1996 Oct 1;125(7):605-13.
  67. Collett D. Modelling survival data in medical research. 2nd ed. Boca Raton (FL): Chapman & Hall/CRC Press; 2003.
  68. Latimer NR. Survival analysis for economic evaluations alongside clinical trials--extrapolation with patient-level data: inconsistencies, limitations, and a practical guide. Med Decis Making. 2013 Aug;33(6):743-54.
  69. Guyot P, Ades AE, Ouwens MJ, Welton NJ. Enhanced secondary analysis of survival data: reconstructing the data from published Kaplan-Meier survival curves. BMC Med Res Methodol [Internet]. 2012 [cited 2016 Aug 10];12:9. Available from: http://www.ncbi.nlm.nih.gov/pmc/articles/PMC3313891
  70. Latimer N. NICE DSU technical support document 14: survival analysis for economic evaluations alongside clinical trials-extrapolation with patient-level data [Internet]. Sheffield (United Kingdom): University of Sheffield; 2011. [cited 2016 Aug 10]. Available from: http://www.nicedsu.org.uk/NICE%20DSU%20TSD%20Survival%20analysis.updated%20March%202013.v2.pdf
  71. Davies C, Briggs A, Lorgelly P, Garellick G, Malchau H. The "hazards" of extrapolating survival curves. Med Decis Making. 2013 Apr;33(3):369-80.
  72. Committee for Medicinal Products for Human Use (CHMP). Reflection paper on methodological issues in confirmatory clinical trials planned with an adaptive design [Internet]. London: European Medicines Agency; 2007 Oct 18. [cited 2016 Jul 7]. Available from: http://www.ema.europa.eu/docs/en_GB/document_library/Scientific_guideline/2009/09/WC500003616.pdf
  73. Schipper J, Clinch JJ, Olweny CL. Quality of life studies: definitions and conceptual issues. In: Spilker B, editor. Quality of life and pharmacoeconomics in clinical trials. 2nd ed. Philadelphia (PA): Lippincott-Raven; 1996. p. 11-24.
  74. von Neumann J, Morgenstern O. Theory games and economic behavior. Princeton (NJ): Princeton University Press; 1994.
  75. Brazier J. Measuring and valuing health benefits for economic evaluation. Oxford (United Kingdom): Oxford University Press; 2007.
  76. Blumenschein K, Johannesson M. An experimental test of question framing in health state utility assessment. Health Policy. 1998 Sep;45(3):187-93.
  77. Dolan P, Gudex C, Kind P, Williams A. Valuing health states: a comparison of methods. J Health Econ. 1996 Apr;15(2):209-31.
  78. About EQ-5D [Internet]. Rotterdam: EuroQol; 2016. [cited 2016 Apr 29]. Available from: http://www.euroqol.org/about-eq-5d.html
  79. Health Utilities Inc (HUInc) [Internet]. Dundas (ON): HUInc. 2015 [cited 2016 Apr 29]. Available from: http://www.healthutilities.com/
  80. SF-6D [Internet]. Sheffield (United Kingdom): University of Sheffield; 2016. [cited 2016 Apr 29]. Available from: https://www.shef.ac.uk/scharr/sections/heds/mvh/sf-6d
  81. Bansback N, Tsuchiya A, Brazier J, Anis A. Canadian valuation of EQ-5D health states: preliminary value set and considerations for future valuation studies. PLoS One [Internet]. 2012 [cited 2016 Oct 24];7(2):e31115. Available from: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3273479/
  82. Xie F, Pullenayegum E, Gaebel K, Bansback N, Bryan S, Ohinmaa A, et al. A time trade-off-derived value set of the EQ-5D-5L for Canada. Med Care [Internet]. 2016 Jan [cited 2016 Apr 28];54(1):98-105. Available from: http://www.ncbi.nlm.nih.gov/pmc/articles/PMC4674140
  83. Brazier J, Longworth L. NICE DSU technical support document 8: an introduction to the measurement and valuation of health for NICE submisssions [Internet]. Sheffield (United Kingdom): University of Sheffield; 2011. [cited 2016 Oct 24]. Available from: http://www.nicedsu.org.uk/TSD8%20Introduction%20to%20MVH_final.pdf
  84. Peasgood T, Ward SE, Brazier J. Health-state utility values in breast cancer. Expert Rev Pharmacoecon Outcomes Res. 2010 Oct;10(5):553-66.
  85. Goodwin E, Green C. A systematic review of the literature on the development of condition-specific preference-based measures of health. Appl Health Econ Health Policy. 2016 Apr;14(2):161-83.
  86. Brazier J, Rowen D. NICE DSU technical support document 11: alternatives to EQ-5D for generating health state utility values [Internet]. Sheffield (United Kingdom): University of Sheffield, ScHARR, Decision Support Unit; 2011 Mar. [cited 2016 Oct 12]. Available from: http://www.nicedsu.org.uk/TSD11%20Alternatives%20to%20EQ-5D_final.pdf
  87. Longworth L, Rowen D. NICE DSU technical support document 10: the use of mapping methods to estimate health state utility values [Internet]. Sheffield (United Kingdom): University of Sheffield; 2011. [cited 2016 Oct 24]. Available from: http://www.nicedsu.org.uk/TSD%2010%20mapping%20FINAL.pdf
  88. Longworth L, Rowen D. Mapping to obtain EQ-5D utility values for use in NICE health technology assessments. Value Health [Internet]. 2013 Jan [cited 2016 Jun 16];16(1):202-10. Available from: http://www.sciencedirect.com/science/article/pii/S1098301512041617
  89. Pennington B, Davis S. Mapping from the Health Assessment Questionnaire to the EQ-5D: the impact of different algorithms on cost-effectiveness results. Value Health [Internet]. 2014 Dec [cited 2016 Jun 16];17(8):762-71. Available from: http://www.sciencedirect.com/science/article/pii/S1098301514047573
  90. Ara R, Wailoo AJ. Estimating health state utility values for joint health conditions: a conceptual review and critique of the current evidence. Med Decis Making. 2013 Feb;33(2):139-53.
  91. Hu B, Fu AZ. Predicting utility for joint health states: a general framework and a new nonparametric estimator. Med Decis Making. 2010 Sep;30(5):E29-E39.
  92. Basu A, Dale W, Elstein A, Meltzer D. A linear index for predicting joint health-states utilities from single health-states utilities. Health Econ. 2009 Apr;18(4):403-19.
  93. Nord E, Daniels N, Kamlet M. QALYs: some challenges. Value Health [Internet]. 2009 Mar [cited 2016 Jun 16];12 Suppl 1:S10-S15. Available from: http://www.sciencedirect.com/science/article/pii/S1098301510600472
  94. Fowler FJ Jr, Cleary PD, Massagli MP, Weissman J, Epstein A. The role of reluctance to give up life in the measurement of the values of health states. Med Decis Making. 1995 Jul;15(3):195-200.
  95. Whitehead SJ, Ali S. Health outcomes in economic evaluation: the QALY and utilities. Br Med Bull. 2010;96:5-21.
  96. Jacobs P, Budden A, Lee KM. Guidance document for the costing of health care resources in the Canadian setting [Internet]. 2nd ed. Ottawa: CADTH; 2016 Mar. [cited 2016 May 19]. Available from: https://www.cadth.ca/sites/default/files/pdf/CP0009_CADTHCostingGuidance.pdf
  97. Walter E, Zehetmayr S. Guidelines of health economic evaluation. Consensus paper [Internet]. Vienna: Institute for Pharmaeconomic Research; 2006 Apr. [cited 2016 Oct 24]. Available from: http://www.ispor.org/peguidelines/source/Guidelines_Austria.pdf
  98. Briggs AH, Drummond MF. Reporting guidelines for health economic evaluations: BMJ guidelines for author and peer reviewers of economic submissions. In: Moher D, Altman D, Schulz K, Simera I, Wager E, editors. Guidelines for reporting health research: a user's manual. Chichester (United Kingdom): John Wiley & Sons; 2014. Chapter 28.
  99. Mogyorosy A, Smith P. The main methodological issues in costing health care services: a literature review [Internet]. York (United Kingdom): University of York, Alcuin College, Centre for Health Economics; 2005. [cited 2016 Oct 24]. (CHE research paper; no. 7). Available from: https://www.york.ac.uk/che/pdf/rp7.pdf
  100. Redelmeier DA, Tan SH, Booth GL. The treatment of unrelated disorders in patients with chronic medical diseases. N Engl J Med [Internet]. 1998 May 21 [cited 2016 Mar 29];338(21):1516-20. Available from: http://www.nejm.org/doi/full/10.1056/NEJM199805213382106
  101. Wodchis WP, Bushmeneva K, Nikitovic M, McKillop I. Guidelines on person-level costing using administrative databases in Ontario [Internet]. Toronto: Health System Performance Research Network; 2013 May. [cited 2017 Mar 10]. (Working paper series; vol. 1). Available from: http://www.hsprn.ca/uploads/files/Guidelines_on_PersonLevel_Costing_May_2013.pdf
  102. de Oliveira C, Bremner KE, Pataky R, Gunraj N, Chan K, Peacock S, et al. Understanding the costs of cancer care before and after diagnosis for the 21 most common cancers in Ontario: a population-based descriptive study. CMAJ Open [Internet]. 2013 Jan [cited 2016 Jun 17];1(1):E1-E8. Available from: http://www.ncbi.nlm.nih.gov/pmc/articles/PMC3985946
  103. Krajden M, Kuo M, Zagorski B, Alvarez M, Yu A, Krahn M. Health care costs associated with hepatitis C: a longitudinal cohort study. Can J Gastroenterol [Internet]. 2010 Dec [cited 2016 Mar 29];24(12):717-26. Available from: http://www.ncbi.nlm.nih.gov/pmc/articles/PMC3004444
  104. Wijeysundera HC, Machado M, Wang X, Van Der Velde G, Sikich N, Witteman W, et al. Cost-effectiveness of specialized multidisciplinary heart failure clinics in Ontario, Canada. Value Health. 2010 Dec;13(8):915-21.
  105. Nosyk B, Lima V, Colley G, Yip B, Hogg RS, Montaner JS. Costs of health resource utilization among HIV-positive individuals in British Columbia, Canada: results from a population-level study. Pharmacoeconomics [Internet]. 2015 Mar [cited 2017 Mar 10];33(3):243-53. Available from: http://www.ncbi.nlm.nih.gov/pmc/articles/PMC4677778
  106. Coyle D, Lee KM. The problem of protocol driven costs in pharmacoeconomic analysis. Pharmacoeconomics. 1998 Oct;14(4):357-63.
  107. Rittenhouse BE. Exorcising protocol-induced spirits: making the clinical trial relevant for economics. Med Decis Making. 1997 Jul;17(3):331-9.
  108. Drummond M, Barbieri M, Cook J, Glick HA, Lis J, Malik F, et al. Transferability of economic evaluations across jurisdictions: ISPOR Good Research Practices Task Force report. Value Health. 2009 Jun;12(4):409-18.
  109. Ramsey S, Willke R, Briggs A, Brown R, Buxton M, Chawla A, et al. Good research practices for cost-effectiveness analysis alongside clinical trials: the ISPOR RCT-CEA Task Force report. Value Health [Internet]. 2005 Sep [cited 2016 Jun 17];8(5):521-33. Available from: http://www.sciencedirect.com/science/article/pii/S1098301510604123
  110. Morris S, Appleby J, Parkin D, Spencer A. Economic analysis in health care. Chichester (United Kingdom): Wiley; 2012.
  111. Culyer AJ. The dictionary of health economics. 3rd ed. Cheltenham (United Kingdom): Edward Elgar Publishing; 2014.
  112. Lipscomb J, Yabroff KR, Brown ML, Lawrence W, Barnett PG. Health care costing: data, methods, current applications. Med Care. 2009 Jul;47(7 Suppl 1):S1-S6.
  113. Johnston K, Buxton MJ, Jones DR, Fitzpatrick R. Assessing the costs of healthcare technologies in clinical trials. Health Technol Assess [Internet]. 1999 [cited 2016 Oct 24];3(6):1-76. Available from: https://njl-admin.nihr.ac.uk/document/download/2003801
  114. Wijeysundera HC, Wang X, Tomlinson G, Ko DT, Krahn MD. Techniques for estimating health care costs with censored data: an overview for the health services researcher. Clinicoecon Outcomes Res [Internet]. 2012 [cited 2016 Aug 11];4:145-55. Available from: http://www.ncbi.nlm.nih.gov/pmc/articles/PMC3377439
  115. Krol M, Brouwer W, Rutten F. Productivity costs in economic evaluations: past, present, future. Pharmacoeconomics. 2013 Jul;31(7):537-49.
  116. Brouwer WB, Koopmanschap MA, Rutten FF. Patient and informal caregiver time in cost-effectiveness analysis. a response to the recommendations of the Washington Panel. Int J Technol Assess Health Care. 1998;14(3):505-13.
  117. Lensberg BR, Drummond MF, Danchenko N, Despiégel N, Francois C. Challenges in measuring and valuing productivity costs, and their relevance in mood disorders. Clinicoecon Outcomes Res [Internet]. 2013 [cited 2016 Jan 8];5:565-73. Available from: http://www.ncbi.nlm.nih.gov/pmc/articles/PMC3836685
  118. Krol M, Brouwer W. How to estimate productivity costs in economic evaluations. Pharmacoeconomics. 2014 Apr;32(4):335-44.
  119. Tang K. Estimating productivity costs in health economic evaluations: a review of instruments and psychometric evidence. Pharmacoeconomics. 2015 Jan;33(1):31-48.
  120. Brouwer WB, Koopmanschap MA, Rutten FF. Productivity costs in cost-effectiveness analysis: numerator or denominator: a further discussion. Health Econ. 1997 Sep;6(5):511-4.
  121. Krol M, Brouwer WB, Severens JL, Kaper J, Evers SM. Productivity cost calculations in health economic evaluations: correcting for compensation mechanisms and multiplier effects. Soc Sci Med. 2012 Dec;75(11):1981-8.
  122. Nicholson S, Pauly MV, Polsky D, Sharda C, Szrek H, Berger ML. Measuring the effects of work loss on productivity with team production. Health Econ. 2006 Feb;15(2):111-23.
  123. Robinson R. Cost-benefit analysis. BMJ [Internet]. 1993 Oct 9 [cited 2016 Jun 17];307(6909):924-6. Available from: http://www.ncbi.nlm.nih.gov/pmc/articles/PMC1679054
  124. van den Hout WB. The value of productivity: human-capital versus friction-cost method. Ann Rheum Dis. 2010 Jan;69 Suppl 1:i89-i91.
  125. Koopmanschap MA, Rutten FF, van Ineveld BM, van Roijen L. The friction cost method for measuring indirect costs of disease. J Health Econ. 1995 Jun;14(2):171-89.
  126. Tranmer JE, Guerriere DN, Ungar WJ, Coyte PC. Valuing patient and caregiver time: a review of the literature. Pharmacoeconomics. 2005;23(5):449-59.
  127. Hanly P, Timmons A, Walsh PM, Sharp L. Breast and prostate cancer productivity costs: a comparison of the human capital approach and the friction cost approach. Value Health [Internet]. 2012 May [cited 2016 Jun 17];15(3):429-36. Available from: http://www.sciencedirect.com/science/article/pii/S1098301512000125
  128. Brouwer W, Rutten F, Koopmanschap M. Costing in economic evaluations. In: Drummond M, McGuire A, editors. Economic evaluation in health care: merging theory with practice. Oxford: Oxford University Press; 2001. p. 68-93.
  129. Johannesson M. Avoiding double-counting in pharmacoeconomic studies. In: Mallarkey G, editor. Economic evaluation in healthcare. Auckland (NZ): Adis International; 1999. p. 155-7.
  130. Sendi P, Brouwer W. Leisure time in economic evaluation: theoretical and practical considerations. Expert Rev Pharmacoecon Outcomes Res. 2004 Feb;4(1):1-3.
  131. Oostenbrink JB, Koopmanschap MA, Rutten FF. Standardisation of costs: the Dutch Manual for Costing in economic evaluations. Pharmacoeconomics. 2002;20(7):443-54.
  132. Thompson KM, Graham JD. Going beyond the single number: using probabilistic risk assessment to improve risk management. Hum Ecol Risk Assess. 1996;2(4):1008-34.
  133. Claxton K, Sculpher M, McCabe C, Briggs A, Akehurst R, Buxton M, et al. Probabilistic sensitivity analysis for NICE technology assessment: not an optional extra. Health Econ. 2005 Apr;14(4):339-47.
  134. Briggs AH. Handling uncertainty in cost-effectiveness models. Pharmacoeconomics. 2000 May;17(5):479-500.
  135. McCarron CE, Pullenayegum EM, Marshall DA, Goeree R, Tarride JE. Handling uncertainty in economic evaluations of patient level data: a review of the use of Bayesian methods to inform health technology assessments. Int J Technol Assess Health Care. 2009;25(4):546-54.
  136. Briggs AH, Goeree R, Blackhouse G, O'Brien BJ. Probabilistic analysis of cost-effectiveness models: choosing between treatment strategies for gastroesophageal reflux disease. Med Decis Making. 2002 Jul;22(4):290-308.
  137. O'Hagan A. Uncertain judgements: eliciting experts' probabilities. Hoboken (NJ): John Wiley & Sons; 2006.
  138. Dias S, Sutton AJ, Welton NJ, Ades AE. Evidence synthesis for decision making 6: embedding evidence synthesis in probabilistic cost-effectiveness analysis. Med Decis Making [Internet]. 2013 Jul [cited 2016 Oct 24];33(5):671-8. Available from: http://www.ncbi.nlm.nih.gov/pmc/articles/PMC3704202
  139. Stinnett AA, Mullahy J. Net health benefits: a new framework for the analysis of uncertainty in cost-effectiveness analysis. Med Decis Making. 1998 Apr;18(2 Suppl):S68-S80.
  140. Karlsson G, Johannesson M. The decision rules of cost-effectiveness analysis. Pharmacoeconomics. 1996 Feb;9(2):113-20.
  141. Bojke L, Claxton K, Sculpher M, Palmer S. Characterizing structural uncertainty in decision analytic models: a review and application of methods. Value Health. 2009 Jul;12(5):739-49.
  142. Coyle D, Oakley J. Estimating the expected value of partial perfect information: a review of methods. Eur J Health Econ. 2008 Aug;9(3):251-9.
  143. McCabe C, Awotwe I, Paulden M, Hall P. One-way sensitivity analysis for stochastic cost effectiveness analysis: conditional expected incremental net benefit [Internet]. Edmonton: PACEOMICS; 2017. [cited 2017 Mar 2]. (PACEOMICS working paper; PWP 2017_01). Available from: http://paceomics.org/wp-content/uploads/2017/03/PACEOMICS-working-paper-2017_01.pdf
  144. Donaldson C, Gerard K. Economics of health care financing : the visible hand. 2nd ed. Basingstoke (United Kingdom): Palgrave Macmillan; 2005.
  145. Culyer AJ. Equity of what in healthcare? Why the traditional answers don't help policy--and what to do in the future. Healthc Pap. 2007;8 Spec No:12-26.
  146. Williams A. Intergenerational equity: an exploration of the 'fair innings' argument. Health Econ. 1997 Mar;6(2):117-32.
  147. Wailoo A, Tsuchiya A, McCabe C. Weighting must wait: incorporating equity concerns into cost-effectiveness analysis may take longer than expected. Pharmacoeconomics. 2009;27(12):983-9.
  148. Baltussen R, Leidl R, Ament A. The impact of age on cost-effectiveness ratios and its control in decision making. Health Econ. 1996 May;5(3):227-39.
  149. Guidelines for authors of CADTH health technology assessment reports [Internet]. Ottawa: CADTH; 2003 May. [cited 2017 Mar 2]. Available from: https://www.cadth.ca/guidelines-authors-cadth-health-technology-assessment-reports-0
  150. Husereau D, Drummond M, Petrou S, Carswell C, Moher D, Greenberg D, et al. Consolidated Health Economic Evaluation Reporting Standards (CHEERS) statement. Cost Eff Resour Alloc [Internet]. 2013 [cited 2016 Aug 11];11(1):6. Available from: http://www.ncbi.nlm.nih.gov/pmc/articles/PMC3607888
  151. Drummond MF, Jefferson TO. Guidelines for authors and peer reviewers of economic submissions to the BMJ. The BMJ Economic Evaluation Working Party. BMJ [Internet]. 1996 Aug 3 [cited 2016 Aug 11];313(7052):275-83. Available from: http://www.ncbi.nlm.nih.gov/pmc/articles/PMC2351717

 

À propos de ce document

Citer comme suit : Lignes directrices de l’évaluation économique des technologies de la santé au Canada. 4e éd. Ottawa : ACMTS; mars 2017.

Avis de non-responsabilité : L’information contenue dans le présent document se veut utile aux décideurs, aux professionnels de la santé et aux dirigeants de systèmes de santé ainsi qu’aux responsables des orientations politiques du secteur de la santé au Canada; elle est destinée à éclairer leur prise de décisions et, par là, à améliorer la qualité des services de santé. Le document, auquel des patients et d’autres personnes peuvent avoir accès, est diffusé à titre d’information exclusivement, et rien n’est dit ou garanti quant à son adéquation à une finalité déterminée. L’information que renferme le document ne saurait tenir lieu de l’avis ou de l’opinion en bonne et due forme d’un médecin, du discernement ou du jugement du clinicien dans la prise en charge du patient ni d’un autre jugement professionnel qui intervient dans la prise de décisions. L’ACMTS — l’Agence canadienne des médicaments et des technologies de la santé — n’appuie, ne promeut ni n’encourage aucune information ou thérapie, aucun médicament, traitement, produit, processus ou service.

Bien que l’ACMTS ait tout mis en œuvre pour veiller à l’exactitude, à l’exhaustivité et à l’actualité de l’information présentée dans le document à la date de sa publication, elle n’offre aucune garantie à cet égard. Elle n’offre aucune garantie non plus quant à la qualité, à l’actualité, au bienfondé, à l’exactitude ou à la vraisemblance des énoncés, des renseignements ou des conclusions paraissant dans le matériel d’un tiers utilisé dans la rédaction du présent document. Les points de vue et les opinions de tiers figurant dans le présent document ne représentent pas forcément ceux de l’ACMTS.

L’ACMTS ne saurait être tenue responsable des erreurs ou des omissions, des blessures, des pertes, des dommages ou des préjudices découlant de l’usage ou du mésusage de l’information, des déclarations, des énoncés ou des conclusions contenus ou sous-entendus dans le présent document ni dans les sources d’information de référence.

Il peut y avoir des liens à des sites Web de tiers dans le présent document. L’ACMTS n’exerce aucun contrôle sur le contenu de ces sites. Ce sont les modalités et les conditions énoncées sur ces sites qui en régissent l’utilisation. L’ACMTS n’offre aucune garantie quant à l’information contenue dans ces sites et elle n’est pas responsable des blessures, des pertes ou des dommages découlant de l’utilisation de sites de tiers. Elle ne saurait être tenue responsable non plus des pratiques de collecte, d’utilisation et de divulgation de renseignements personnels des sites de tiers.

Dans les limites et sous les conditions précisées ci-dessus, les points de vue exprimés ici sont ceux de l’ACMTS et ils ne représentent pas forcément ceux du gouvernement du Canada, des provinces ou des territoires, ou de tout tiers fournisseur d’information.
Le présent document, dans son contenu et son utilisation prévue, s’inscrit dans le contexte du système de santé canadien. C’est à ses risques que l’utilisateur de ce document l’appliquera ailleurs qu’au Canada.

Le présent avertissement et tout litige ou question de quelque nature que ce soit ayant trait au contenu ou à l’usage ou au mésusage qui est fait du présent document sont régis et interprétés conformément aux lois de la province de l’Ontario et aux lois du Canada applicables, et toute procédure sera du ressort exclusif d’une cour de la province de l’Ontario au Canada.

L’ACMTS et ses concédants de licence sont les détenteurs du droit d’auteur et des autres droits de propriété intellectuelle relatifs au présent document. Ces droits sont protégés en vertu de la Loi sur le droit d’auteur du Canada et d’autres lois en vigueur au pays et d’accords internationaux. La reproduction du présent document à des fins non commerciales est autorisée pourvu qu’il ne soit pas modifié et que l’ACMTS et ses concédants de licence soient dument mentionnés.

L’ACMTS : L’Agence canadienne des médicaments et des technologies de la santé est un organisme indépendant sans but lucratif qui a pour mandat d’offrir des preuves objectives aux décideurs du secteur de la santé au Canada afin d’éclairer la prise de décisions sur l’utilisation optimale des médicaments, des dispositifs médicaux, des tests diagnostiques et des interventions chirurgicales ou médicales dans le système de santé canadien.

Financement : L’ACMTS bénéficie d’un soutien financier des gouvernements fédéral, provinciaux et territoriaux, à l’exception de celui du Québec.