Innovation Pédagogique et transition
Institut Mines-Telecom

Une initiative de l'Institut Mines-Télécom avec un réseau de partenaires

Evaluation des compétences des étudiants de 4ème année de médecine dans la prise en charge des urgences vitales : quelle place pour la simulation ?

26 décembre 2017 par A.-L. Philippon Retours d’expériences 1385 visites 0 commentaire

Un article repris de http://www.adjectif.net/spip/spip.p...

>La présente synthèse repose sur une recherche portant sur la question de l’évaluation des compétences requises à la fin de la première partie des études de médecine, appelée « externat », dans le domaine de la médecine d’urgence. L’apport de la mise en place d’une évaluation avec la simulation moyenne fidélité a été étudié à travers des observations, des entretiens auprès d’étudiants et d’enseignants qui devaient la pratiquer pour la première fois dans leur expérience respective

"Le point de vue des étudiants et des enseignants", Un http://www.adjectif.net/spip/spip.php?article451 par A.-L. Philippon repris de la revue adjecti.net, un article sous licence CC by sa nc]

Pour citer cet article :

Philippon, Anne-Laure, (2017). Évaluation des compétences des étudiants de 4ème année de médecine dans la prise en charge des urgences vitales : quelle place pour la simulation ? Le point de vue des étudiants et des enseignants. In Adjectif.net. Mis en ligne le 20 décembre 2017. http://www.adjectif.net/spip/spip.php?article451

Apprentissage par les compétences en médecine d’urgence

Formalisé dans des recommandations internationales et nationales (Batalden et al., 2002 ; arrêté du 8 avril 2013), l’apprentissage par compétences est actuellement le mode dominant d’enseignement en médecine. À titre d’exemple dans le domaine de la médecine d’urgence, les compétences ont une composante cognitive (savoir traiter une pneumonie) mais également technique (savoir mettre un masque à oxygène avec un débit adapté) ou encore de communication (savoir travailler en équipe, appeler à l’aider ou interroger un patient). Il y a également des compétences éthiques que les étudiants devraient développer (pour le traitement en urgence d’un patient en fin de vie, l’annonce d’une maladie grave).

De nombreuses études suggèrent pourtant qu’à l’heure de devenir interne, l’étudiant en médecine n’est pas préparé à affronter des situations complexes telles que la prise en charge d’un arrêt cardiaque, d’une urgence vitale ou encore l’annonce d’une maladie grave (Holmboe et al., 2011 ; McEvoy et al., 2014 ; Xi et al., 2015). Mettre en place de telles évaluations représente un défi pour les facultés qui pratiquent des évaluations écrites de manière quasi-exclusive, peu adaptées pour évaluer l’ensemble des compétences requises (Epstein, 2007 ; Jouquan, 2002). Par ailleurs, la variété et la complexité des compétences rendent leur évaluation difficile.

Considérant en effet qu’une compétence articule plusieurs composantes et nécessite la mobilisation des ressources par l’étudiant pour résoudre des situations-problèmes (Roegiers, 2000), l’évaluation des compétences s’avère être aussi un défi pour les enseignants. Il convient de parvenir à déterminer la forme évaluable d’une compétence, encore appelée « acquis d’apprentissage » (Lemenu et Heinen, 2015), pour la mesurer. Une fois les compétences à évaluer identifiées, il convient d’élaborer des situations d’évaluation valides et fiables (De Ketele et Gérard, 2005).

Utilisation de la simulation pour l’apprentissage par les compétences en médecine d’urgence

La simulation médicale [][ Consulter aussi cet article : http://www.adjectif.net/spip/spip.php?article429&lang=fr]] est un outil de plus en plus utilisé en formation initiale et qui a fait ses preuves quant à son efficacité dans la formation des étudiants, notamment pour les différentes compétences requises en médecine d’urgence (Cook et al., 2011 ; Dilaveri et al., 2013 ; Gaba, 2010 ; Lorello et al., 2014).

En fournissant aux étudiants l’occasion de se mettre « en situation » et d’analyser leurs capacités à mobiliser leurs compétences, la simulation est un bon outil pour relier théorie et pratique. Par ailleurs, la simulation se trouve à l’interface entre les deux systèmes rencontrés par les étudiants au cours de leur formation : l’université qui se concentre plus sur les acquisitions théoriques et l’hôpital, sur la pratique médicale (Berragan, 2013).

Or, la simulation n’a pas encore été utilisée pour certifier les compétences des étudiants en médecine avant qu’ils ne deviennent des internes, poste qui demande une certaine maîtrise des situations d’urgences vitales. De nombreuses questions se posent donc quant à l’élaboration d’une telle évaluation : comment la concevoir ? Quelles modifications pratiques entraine-t-elle ? Quel sens donne-t-elle aux études médicales ? Quelle valeur leur apporte-t-elle ?

Dans cette recherche, nous avons émis plusieurs conjectures : la mise en place d’une telle évaluation est faisable, elle permet de combler un manque actuel dans les études médicales, elle pourrait répondre au besoin des facultés de valider des compétences indispensables au futur médecin, elle pourrait conforter les étudiants dans leur maîtrise de ces compétences. Nous avons, de plus, émis l’hypothèse qu’elle pourrait être à l’origine des changements dans les pratiques étudiantes et enseignantes. L’objectif de notre recherche était donc d’analyser la faisabilité d’une telle évaluation et l’influence potentielle qu’elle pouvait avoir sur les pratiques.

Matériels et méthodes : une recherche qualitative auprès des étudiants et des enseignants

Nous avons mené une recherche qualitative au moyen d’entretiens collectifs avec les étudiants, associés à un questionnaire pour la totalité du groupe étudié et à un questionnaire envoyé aux enseignants. Nous avons choisi l’entretien collectif afin de recueillir les points de vue des étudiants et de mettre en lumière les points d’accord et de divergence qui pouvaient exister, au sein d’une discussion (Duchesne et Haegel, 2015 ; Beaud, 2010). L’intérêt du questionnaire était de voir si les points soulevés dans les entretiens collectifs étaient corroborés par l’ensemble des étudiants. Quant aux enseignants, il n’a pas été possible de mettre en place des entretiens avec eux et nous avons donc choisi l’envoi de questionnaires et l’observation de sessions d’évaluation pour tenter d’illustrer leur conception de l’évaluation.

Le recueil des données était anonyme pour tous les participants et l’envoi des questionnaires a été fait au moyen d’une version électronique, en ligne, accessible via courrier électronique. L’étude a été approuvée par le comité d’éthique de la Société Française de Réanimation de Langue française (SRLF, étude n° 16-55). Avant de participer aux entretiens collectifs, les étudiants ont reçu un document d’information et ont signé un accord de participation.

L’étude portait sur l’atelier d’enseignement par simulation des urgences vitales, inclus dans la formation des étudiants en 4ème année de médecine. C’est un enseignement qui se déroule en deux sessions, auxquelles a été ajoutée en 2016-2017, une session d’évaluation.

Les sessions d’enseignement sont réalisées par deux enseignants pour un groupe de 14 étudiants. Lors de chaque session de cours (appelés UV1 et UV2), six scénarios d’urgence vitale sont abordés, ce qui fait douze au total. Chaque étudiant doit participer à un cas pratique par session, en binôme ou trinôme et il observe ses pairs quand il ne participe pas. À la fin de la formation, les étudiants ont donc assisté à 12 cas cliniques, dont deux auxquels ils ont participé.

La session d’évaluation, nommée UV3, se déroule en binôme. Afin de ne pas rendre la situation, déjà nouvelle, trop complexe, les enseignants responsables avaient décidé que les cas cliniques de l’évaluation seraient les mêmes que ceux des ateliers UV1 et 2. Les étudiants étaient évalués en binôme, puis débriefés en binôme juste après leur évaluation, le débriefing étant une étape indispensable de l’enseignement par simulation (Motola et al., 2013 ; Boet et al., 2013).

Afin que la session d’évaluation soit un apport pour les étudiants, tout le groupe assistait aux évaluations des autres étudiants, mais pas au débriefing, ce afin de ne pas les influencer dans leur session d’évaluation personnelle. L’évaluation était faite au moyen de grilles, spécialement conçue par une équipe d’enseignants car de tels scores n’existent pas spécifiquement pour une évaluation de novices. La décision de rattrapage était prise si le binôme n’obtenait pas la moyenne au cas clinique ou s’il avait omis de réaliser un objectif indispensable dans la situation rencontrée (par exemple, mettre de l’oxygène dans les 5 minutes à un patient en détresse respiratoire ou appeler à l’aide en cas d’arrêt cardiaque).

Dans le contexte de notre recherche, afin d’essayer d’identifier l’influence de l’évaluation sur les étudiants et les enseignants, nous avons réparti les étudiants en les tirant au sort, dans deux groupes différents pour la troisième session de la formation. Le premier groupe était soumis à l’évaluation, telle qu’elle avait été décidée par les enseignants et à l’issue de l’évaluation, ils étaient soumis à un rattrapage en cas d’échec. Le deuxième groupe était aussi soumis à l’évaluation telle qu’elle avait été décidée par les enseignants mais, à l’issue de l’évaluation, en cas d’échec, les étudiants n’avaient pas de sanction et n’étaient pas soumis au rattrapage. Ainsi l’évaluation ressemblait plus à une évaluation formative, avec un retour chiffré sur les compétences utilisées, mais elle n’était pas sanctionnante, contrairement à celle du premier groupe. Par ces choix, nous cherchions à identifier d’éventuelles différences en matière d’appréciation de l’évaluation et de préparation aux enseignements.

Les entretiens collectifs ont été menés en deux temps : avant et après l’évaluation. Les questionnaires ont été envoyés une fois que tout l’atelier avait été complété, après les évaluations. Les étudiants qui ont participé aux entretiens collectifs ont été tirés au sort dans la promotion et ont été informés de ce tirage au sort par courrier électronique, ainsi que de la possibilité de participer ou non à l’étude.

On a procédé à l’analyse des discours recueillis pendant les entretiens, guidée par les questions initiales de notre problématique. Quant aux questionnaires, ils comportaient des questions ouvertes mais également des questions quantifiées par des échelles de Lickert, cotées de 1 à 10. Les données du questionnaire portaient sur la satisfaction des étudiants et des enseignants, l’intérêt du cours et le vécu de l’évaluation.

Résultats

Analyse des entretiens : point de vue des étudiants

Dix-huit étudiants au total ont participé aux entretiens collectifs : onze ont participé à deux entretiens avant l’évaluation et quatorze, après l’évaluation ; parmi eux, 7 ont participé à l’ensemble des entretiens. Trois thématiques ont été relevées dans les entretiens : les problématiques d’une telle évaluation, son intérêt et la modification des pratiques qu’elle entraîne.

La majeure partie des étudiants et des enseignants estime que l’évaluation n’a pas été équitable : les conditions d’examen ont été différentes selon les groupes avec des enseignants qui n’ont pas tous remontré le matériel, ou bien qui ont, pour certains, fait le débriefing devant tout le monde plutôt qu’en aparté. Le niveau de difficulté trop variable des cas renforce cette sensation : « l’arrêt cardiaque c’est un peu plus simple que l’acidocétose diabétique ».

Le fait de connaître les cas cliniques (identiques à ceux des sessions 1 et 2) a eu l’effet escompté : il a diminué le stress des étudiants. En revanche, la plupart des étudiants y ont vu soit une situation trop facile (« ça ressemble au cas de la dernière fois, on va pas réfléchir du tout »), soit une possibilité d’être induit en erreur et, par l’absence de réflexion, d’oublier des étapes essentielles qui mènent au diagnostic, car il est fait non pas sur une déduction des indices relevés dans la situation mais par une mémorisation qui conduit au diagnostic et au traitement immédiat. Or, pour obtenir des points, il faut chercher les éléments essentiels au diagnostic.

Enfin, la question des ressources à disposition des étudiants pour préparer l’épreuve a été soulevée. Ils ont regretté ne pas avoir à disposition « un poly ou des fiches pratiques » et estiment que « si on est noté il faut un support ». Ils n’ont à leur disposition qu’un support d’enseignement « théorique » des urgences et de la réanimation, sans « fiche technique ».

Cela dit, plusieurs étudiants ont expliqué que le fait d’avoir une évaluation de leur pratique, leur permettait de réviser différemment et les obligeaient à « hiérarchiser les informations ». De plus, les étudiants ont estimé que ce format d’évaluation permettait de « redonner sa place à la pratique dans nos études », « l’évaluation pratique, elle est tout aussi importante, si ce n’est plus, que l’évaluation théorique ».

Analyse des entretiens : points de vue des enseignants

Quant aux enseignants, leur avis était mitigé : inutile et contre-productif pour certains, le fait de connaître les situations cliniques permettait d’insister sur les « fondamentaux et de travailler et transmettre des réflexes aux étudiants ». Les enseignants trouvent la session d’évaluation utile, mais peu intéressante pour eux. Ils regrettent également la perte de l’aspect « fun », « ludique » de la simulation du fait de l’évaluation, mais ils estiment qu’elle insiste sur les « fondamentaux ».

Passée cette critique initiale, nous avons retrouvé dans les discours des étudiants des éléments qui relativisent leurs propos. En effet, certains ont pu trouver que l’évaluation et le fait d’être validé leur permettaient de « se sentir plus à l’aise en stage », « de trouver une place », mais également et de manière identique aux enseignants, « d’insister sur les fondamentaux ».

Le problème du temps nécessaire à la réalisation d’un tel examen a été critiqué par les enseignants alors que les étudiants appréciaient, dans l’ensemble, avoir une session de simulation supplémentaire, bien qu’ils préféreraient l’avoir sous une autre forme.

Analyse des questionnaires

Soixante-dix-huit étudiants sur 125 ont répondu au questionnaire (62 %) et seize enseignants sur vingt-sept ont répondu, après trois relances. Les enseignants ont également pu être interrogés à l’issue des sessions d’observation. À l’issue de l’évaluation, 22 % des étudiants ont été au rattrapage, principalement pour une non-maîtrise de gestes techniques ou de la communication.

Dans les questionnaires, de même que dans les discours, la majeure partie des étudiants estime qu’une évaluation par la simulation est inutile car elle ne les prépare pas au concours final (les épreuves nationales classantes ou ECN). Ces épreuves constituent l’enjeu majeur à leur niveau d’étude car il va déterminer leur future spécialité et ville d’exercice. Ils ont également un doute à propos de l’utilité de l’évaluation pour leur pratique future, qu’ils estiment lointaine.

Analyse des observations faites

Quant à la question des changements de pratique, ils ont pu être observés chez les enseignants et les étudiants en ont rapporté certains. Les enseignants déclaraient par exemple, dans le questionnaire, insister plus sur les éléments évalués dans leur débriefing et de ce fait, montrer plus aux étudiants les gestes techniques, que ce qu’ils ne faisaient lors des années précédentes (9/9 vs 4/9 l’année précédente [1]).

Le technicien du laboratoire a lui aussi observé les modifications rapportées par les enseignants, mais il a également remarqué que les étudiants étaient plus impliqués, posant plus de questions. Cela dit, il observait également qu’ils avaient l’air un peu plus stressés que les années précédentes. Les enseignants ont pu faire ce type de constat également.

Approfondissement de l’analyse à propos de l’équité dans les évaluations des compétences

L’aspect négatif d’une évaluation non équitable, décriée par les étudiants et les enseignants, habitués à une évaluation objective par des QCM, peut notamment être modéré si on analyse ce qu’est une évaluation de compétences.

Une compétence étant complexe, son évaluation l’est également et elle ne peut s’affranchir d’une certaine subjectivité qui, loin d’être négative, doit surtout être connue pour être maîtrisée (Scallon, 2015). Le jugement dans l’évaluation doit être non pas un jugement de valeur, mais un jugement professionnel basé sur des faits. Il permet à l’évaluation d’être, non pas standardisée, mais personnalisée et adaptée, dans un objectif d’évaluation complexe, de qualité.

La question de l’équité demande ainsi un changement de culture de la part des étudiants et des enseignants : elle pose en effet la question de la place de la subjectivité dans l’évaluation, qui intervient, comme l’illustre bien Gérard, entre « le rêve inaccessible d’objectivité » et le « refus de l’arbitraire » (Gérard, 2002). Contrairement à une évaluation qui semble « objective » car équitable mais qui ne maitrise pas la complexité des éléments à évaluer (Gérard, 2013), il s’agit donc de reconnaître que les étapes d’une évaluation, telles que le choix des objectifs, les critères d’évaluation, la stratégie de recueil des informations afin de mieux les maîtriser pour donner du sens à l’évaluation.

La mise en place de l’évaluation sommative pose également la question de l’adaptation des concepts de la simulation. En effet, une phase fondamentale de l’enseignement par simulation réside dans le débriefing, qui permet d’analyser les comportements des étudiants, les réflexions et décisions prises pendant la session observée. De plus, le débriefing permet une rétention des connaissances qui sont analysées, voire transformées par la discussion entre pairs et avec les formateurs (Issenberg et al., 2005 ; Boet, 2013). Ecourter cette phase amène à discuter du bien-fondé de l’évaluation et une analyse plus précise de ce qui s’y passe pourrait être envisagée.

Dans notre recherche, le format de l’évaluation obligeait à écourter le débriefing tout en permettant aux étudiants d’avoir une troisième session de simulation, ce qui n’est pas évident avec le temps déjà utilisé pour les enseignements à l’université et à l’hôpital. Cependant, avoir un débriefing à l’issue d’une évaluation, même s’il est court et s’apparente plus à un « feedback », est rare dans le cursus des étudiants et leur permet déjà d’avoir un retour immédiat sur leur performance. Pour améliorer ce système, des pistes sont à explorer. Par exemple, la remise d’un document personnel avec les différents axes de travail pour chaque étudiant. Cela pourrait aider à formaliser une nouvelle méthode de débriefing, adaptée à des temps de formation courte, au sein d’une formation longue (les étudiants ont en effet déjà bénéficié de débriefings adaptés sur les cas cliniques concernés) (Motola et al., 2013).

L’interrogation sur le débriefing pose plus largement la question de l’éthique dans une évaluation par simulation, qui est une activité d’enseignement considérée comme éthique, notamment avec le leitmotiv « jamais la première fois sur le patient ». Il s’agit donc de plus d’éthique pour le patient, mais également pour l’apprenant, qui doit se sentir en sécurité dans un apprentissage par simulation, dans une progression constructive et un apprentissage réflexif.

Vers l’identification de contradictions entre différents systèmes d’activité

L’introduction d’une évaluation par la simulation pose plusieurs questions et permet de mettre en évidence les contradictions qui traversent les études médicales. Il existe en effet des contradictions internes à la formation des étudiants : cette formation est duale, prise en charge par deux systèmes d’activité (Engeström, 2000) dont l’un a pour objectif la prise en charge optimale des malades (le système hospitalier) et l’autre, la formation des étudiants et leur préparation aux Epreuves Nationales Classantes, ECN (système de formation).

Les tensions se situent au sein des contenus de la formation pratique et basée sur les fondamentaux à l’hôpital, théorique et spécialisée à la faculté, avec une perception erronée de l’apprentissage des étudiants en stage par les enseignants, qui ne donnent pas aux étudiants toutes les compétences qu’ils devraient acquérir en situation, auprès de leurs pairs (Langevin and Hivon, 2007 ; Pigache et al., 2015). Elles se situent également au sein des évaluations : inexistantes à l’hôpital, trop spécialisées en stage, des évaluations utiles ou pas pour la pratique future ou les ECN.

À un autre niveau, le système d’enseignement par simulation, avec les objectifs et les pratiques qui le composent et qui diffèrent de l’enseignement facultaire ou hospitalier, pourrait être un système d’activité à part entière, avec ses propres règles de fonctionnement (des étudiants actifs, avec une pratique réflexive, des enseignants accompagnateurs et un environnement de formation éthique), sa division du travail qui demande des enseignants spécifiquement formés, une formation aux technologies utilisées avec, comme objectif, la formation pratique et située des étudiants, comme complément à la formation universitaire et hospitalière. Envisager ainsi la place de la simulation et l’analyser par la mise en place d’un laboratoire de changement pourrait être une piste de recherche au sujet de la répartition des enseignements et du temps de formation des étudiants en médecine.

Discussion et perspectives

Il existe plusieurs limites à notre recherche : tous les acteurs du système considéré n’ont pas pu être interrogés de la même façon, et certains (les médecins hospitaliers) ne l’ont pas été du tout. Le refus des enseignants de répondre pose question et peut être en lui-même interprété. Sont-ils mal à l’aise avec ce nouvel outil d’enseignement, pour lequel ils n’ont pas tous reçu de formation spécifique ? Ou bien cela a-t-il un rapport avec l’évaluation nouvellement introduite ?

L’absence d’informations émanant de la part des hospitaliers constitue une limite car même s’ils ne sont pas directement impliqués dans la formation et l’évaluation par simulation, ils participent à la formation des étudiants en médecine. De plus, la simulation est une des seules activités qui se déroule à la place d’une matinée de stage hospitalier : elle pourrait être perçue de leur part, non pas comme un complément mais comme une activité concurrentielle et ainsi, ajouter des tensions au sein de la formation.

L’intérêt porté à l’évaluation par la simulation a toutefois permis de constater qu’elle était réalisable, dans des conditions qui restent à améliorer, au « détriment » de temps d’enseignement supplémentaire et de temps hospitalier pour les étudiants. Bien que les critères et scores d’évaluation restent à valider pour rendre l’exercice plus éthique, l’évaluation avec ce nouvel outil semble intéressante. Elle parait en effet donner une place différente à la pratique et aux apprentissages fondamentaux de la médecine d’urgence.

L’évaluation par la simulation révèle des tensions dans la formation qui ne sont pas nouvelles, mais elle pourrait être une des solutions à ces tensions, tout en en créant de nouvelles. Elle permet toutefois de certifier des compétences jusqu’alors non évaluées et peut-être laissées de côté dans le cursus initial des études de médecine. Un des défis que la simulation devra­ relever est aussi de démontrer son efficacité en ce qui concerne la capacité de l’étudiant « validé en simulation » à transférer ses compétences au lit du patient.

Références bibliographiques

Batalden, P., Leach, D., Swing, S., Dreyfus, H., and Dreyfus, S. (2002). General competencies and accreditation in graduate medical education. Health Aff (Millwood) 21, 103–111.

Berragan, L. (2013). Conceptualising learning through simulation : An expansive approach for professional and personal learning. Nurse Educ Pract 13, 250–255.

Cook, D.A., Hatala, R., Brydges, R., Zendejas, B., Szostek, J.H., Wang, A.T., Erwin, P.J., and Hamstra, S.J. (2011). Technology-enhanced simulation for health professions education : a systematic review and meta-analysis. JAMA 306, 978–988.

De Ketele J.-M. et Gérard, F.-M. (2005). La validation des épreuves d’évaluation selon l’approche par les compétences. Mesure et Évaluation En Éducation, 28, 1–26.

Dilaveri, C.A., Szostek, J.H., Wang, A.T., and Cook, D.A. (2013). Simulation training for breast and pelvic physical examination : a systematic review and meta-analysis. BJOG 120, 1171–1182.

Duchesne, S. et Haegel, F. (2004). L’enquête et ses méthodes, l’entretien collectif. A.Colin.

Engeström, Y. (2000). Activity theory as a framework for analyzing and redesigning work. Ergonomics 43, 960–974.

Epstein, R.-M. (2007). Assessment in medical education. N. Engl. J. Med. 356, 387–396.

Gaba, D.M. (2010). Crisis resource management and teamwork training in anaesthesia. Br. J. Anaesth. 105, 3–6.

Gérard, F.-M. (2002). L’indispensable subjectivité de l’évaluation. Antipodes, 156, 26–34.

Gérard, F.-M. (2013). L’évaluation au service de la régulation des apprentissages : enjeux, nécessités et difficultés. Revue française de linguistique appliquée XVIII, 75–92.

Holmboe, E.S., Ward, D.S., Reznick, R.K., Katsufrakis, P.J., Leslie, K.M., Patel, V.L., Ray, D.D., and Nelson, E.A. (2011). Faculty Development in Assessment : The Missing Link in Competency-Based Medical Education : Academic Medicine 86, 460–467.

Issenberg, S.B., McGaghie, W.C., Petrusa, E.R., Lee Gordon, D., and Scalese, R.J. (2005). Features and uses of high-fidelity medical simulations that lead to effective learning : a BEME systematic review. Med Teach 27, 10–28.

Jouquan, J. (2002). L’évaluation des apprentissages des étudiants en formation médicale initiale. Pédagogie Médicale 3, 38–52.

Langevin, S. et Hivon, R. (2007). En quoi l’externat ne s’acquitte-t-il pas adéquatement de son mandat pédagogique ? Une étude qualitative fondée sur une analyse systématique de la littérature. Pédagogie Médicale 8, 7–23.

Lemenu, D., et Heinen, E. (2015). Comment passer des compétences à l’évaluation des acquis des étudiants. Bruxelles : De Boeck Supérieur, 172 p.

Lorello, G.R., Cook, D.A., Johnson, R.L., and Brydges, R. (2014). Simulation-based training in anaesthesiology : a systematic review and meta-analysis. Br J Anaesth 112, 231–245.

McEvoy, M.D., Dewaay, D.J., Vanderbilt, A., Alexander, L.A., Stilley, M.C., Hege, M.C., and Kern, D.H. (2014). Are fourth-year medical students as prepared to manage unstable patients as they are to manage stable patients ? Acad Med 89, 618–624.

Motola, I., Devine, L.A., Chung, H.S., Sullivan, J.E., and Issenberg, S.B. (2013). Simulation in healthcare education : a best evidence practical guide. AMEE Guide No. 82. Med Teach 35, e1511–e1530.

Pigache, C., Lamort-Bouché, M., Chaneliere, M., Dupraz, C., Girier, P., et Goaziou, M.-F. L. (2015). Le stage d’externe en médecine générale ambulatoire. Des représentations à la réalité. Pédagogie Médicale, 16(2), 119–132.

Roegiers, X. (2000). Une pédagogie de l’intégration  : compétences et intégration des acquis dans l’enseignement. Bruxelles : De Boeck.

Xi, H., Liu, J., and Gui, L. (2015). Knowledge of fresh-graduated medical students for advanced cardiovascular life support in China. Resuscitation 92, e13.

PDF - 134.9 ko
Article version PDF

Licence : CC by-nc-sa

Notes

[1Nous avions mené une recherche exploratoire sur ce sujet l’année précédente.

Répondre à cet article

Qui êtes-vous ?
[Se connecter]
Ajoutez votre commentaire ici

Ce champ accepte les raccourcis SPIP {{gras}} {italique} -*liste [texte->url] <quote> <code> et le code HTML <q> <del> <ins>. Pour créer des paragraphes, laissez simplement des lignes vides.

Suivre les commentaires : RSS 2.0 | Atom