Accueil Revues Revue Numéro Article

Sociologie

2013/1 (Vol. 4)


ALERTES EMAIL - REVUE Sociologie

Votre alerte a bien été prise en compte.

Vous recevrez un email à chaque nouvelle parution d'un numéro de cette revue.

Fermer

Article précédent Pages 43 - 62 Article suivant
1

Si l’évaluation de l’école n’est certes pas une pratique récente en France (Normand, 2005 ; Pons, 2010a), elle s’inscrit désormais dans une logique de recherche de performance et d’obligation de résultats, par laquelle l’État cherche à donner à sa politique d’éducation une légitimité qui ne va plus de soi (Dutercq, 2000 et 2005 ; Berrebi-Hoffmann, 2010 ; Pons, 2011). Danilo Martuccelli (2010, p. 28) articule plus globalement l’évaluation de l’action publique à la crise de légitimité de l’État, ce qui le conduit à considérer qu’elle n’est pas qu’une technique de gestion, mais bien une véritable philosophie de gouvernement. Du reste, la nécessité d’évaluation des politiques publiques est devenue un leitmotiv depuis la fin des années 1980 (Deleau et al., 1986 ; Viveret, 1989) et s’est institutionnalisée pour servir de levier à la modernisation du système public en conjuguant la mesure économiste des effets à une approche plus compréhensive (Gomel, 2003).

2

Pour ce qui concerne l’éducation, c’est d’abord aux États-Unis que l’évaluation a trouvé sa légitimité institutionnelle dans la suite de la mise en place des politiques de New Public Management qui avaient pour objectif de rationaliser l’action de l’administration publique et ce, dès les années 1960. Du reste, en 1966, le rapport Coleman mettait en relation les performances des élèves et les dépenses scolaires (Meunier, 2009), mais c’est 1983 qui voit, avec la publication du rapport A Nation at Risk. The Imperative for Educational Reform, l’émergence de la nécessité d’un pilotage par les résultats du système éducatif public. La nouvelle gouvernance se diffuse dans bien d’autres pays, certes avec des spécificités nationales. Ainsi en France, l’engouement suscité chez les hauts fonctionnaires n’a guère touché les personnels chargés de mettre en œuvre l’action publique, encore peu sensibles à de la culture de l’évaluation contrairement aux anglo-saxons (Normand & Derouet, 2011, p. 7).

3

Il faut dire que, malgré les efforts français en matière de décentralisation et de déconcentration, l’évaluation de l’action publique en éducation reste pilotée d’en haut par une multitude d’acteurs en concurrence : Inspection générale de l’administration de l’Éducation nationale, Inspection générale de l’Éducation nationale, Direction générale de l’enseignement scolaire (DGESCO), Direction de l’évaluation, de la prospective et de la performance (DEPP) [1][1] La DEPP existe sous diverses appellations depuis 1..., Haut conseil de l’éducation, etc. (Pons, 2010a), alors qu’aux États-Unis, en Grande Bretagne, et plus encore en Nouvelle-Zélande, l’autonomie dont disposent les établissements leur laisse une large initiative en ce domaine. Ces différences, que beaucoup considèrent d’abord comme culturelles, ne doivent cependant pas occulter le fait que, d’un pays à l’autre, les enjeux de ces évaluations sont similaires : améliorer les résultats des élèves, réduire les inégalités scolaires, éviter les décrochages, tout en contribuant à la maîtrise de la dette publique.

4

Les évaluations de l’école ont été déjà analysées par les sociologues qui pointent le faible impact qu’elles peuvent avoir dans la régulation des politiques éducatives (Mons, 2009). C’est tout spécialement le cas en France, tant elles y sont rarement externes, fortement instrumentalisées par ceux qui les produisent ou les commandent et peu relayées ou suivies d’accompagnement auprès des « professionnels de terrain » (Demailly, 2001).

5

Confirmant ce constat, les évaluations standardisées de tous les élèves de l’école élémentaire suscitent, dès leur mise en place, d’importantes controverses car elles entrent en tension avec les attentes des acteurs, à qui elles paraissent particulièrement inopportunes à un tel niveau d’enseignement. C’est en tout cas ce dont témoignent la plupart des observateurs, ceux de la recherche (Duru-Bellat, 2009 ; Lafontaine, Soussi & Nidegger, 2009) ou des médias (presse spécialisée ou presse généraliste, nationale et régionale). Cette forte résistance nous a interrogés : pourquoi une telle mobilisation alors qu’il existe une évaluation des élèves du premier degré depuis vingt ans ? Pourquoi les maîtres s’opposent-ils à des tests destinés à apprécier le niveau de leurs élèves ? Pourquoi sont-ils gênés de voir mesurer l’efficacité de leur enseignement ? Ces quelques questions donnent une première idée de l’amalgame sur lequel reposent les évaluations, générant des tensions chez les différents groupes d’acteurs concernés.

6

De telles tensions peuvent être approchées de manière compréhensive et pragmatique si on analyse le dispositif d’évaluation des élèves comme une épreuve, comprise comme un moment où les compétences et la valeur (la grandeur) d’un individu sont publiquement mises en question, en particulier quand cette valeur s’est construite en référence à un principe ou à un ensemble de principes (un monde) qui est dénoncé en cette occasion au nom d’un autre principe (d’un autre monde), ainsi que l’ont montré Luc Boltanski et Laurent Thévenot (Boltanski, 1990 ; Boltanski & Thévenot, 1991 ; etc.). L’évaluation est une épreuve pour les élèves, sans doute aussi pour leurs parents, mais plus encore pour les enseignants qui les mènent et en sont comptables. En effet, ils sont alors conduits à justifier les résultats de leurs élèves et à se justifier de leurs choix pédagogiques : elle les place dans une situation de grande incertitude sur ce qu’ils doivent faire et pour quels motifs, comme l’a, à son tour, fait valoir Danilo Martuccelli (2006, 2010).

7

Ces approches de l’évaluation nous paraissent particulièrement pertinentes pour appréhender la mise en œuvre de l’action publique en éducation et les nombreux obstacles auxquels elle se heurte et qui tiennent tout autant aux craintes et aux résistances des personnels enseignants qu’aux ambiguïtés des dispositifs qui ont été instaurés.

8

Promulguées en 2007 par le ministre de l’Éducation Nationale, Xavier Darcos, les nouvelles évaluations des élèves du premier degré font immédiatement l’objet de controverses : qu’on pointe l’absence de la traditionnelle consultation préalable des organisations professionnelles, l’impréparation de l’expérimentation dans une centaine d’écoles, le flou quant au rôle respectif des différents responsables de l’évaluation du système éducatif. Les évaluations des élèves de l’école élémentaire ont donc été promues dans l’urgence et sur la base d’une variété d’arguments mal agencés entre eux : enrayer la baisse des résultats, ne pas dépendre uniquement des enquêtes internationales, mesurer l’efficacité des nouveaux programmes de 2008, accroître la transparence. À cela s’ajoute, comme le signale Xavier Pons (2010b), l’objectif non affiché de détourner l’attention au moment où des écoles refusent de faire remonter les données des enquêtes de rentrée sur les effectifs scolarisés et la contestation de l’instauration de l’application informatique dite « Base élèves premier degré » permettant une gestion administrative et pédagogique des élèves qui se veut efficiente.

9

Ce qui nous intéresse ici ne tient pas à la conception mais bien à la réception par les acteurs de terrain de cet instrument d’action publique participant de la nouvelle gouvernance, elle aussi marquée de tensions. Les caractéristiques des nouvelles évaluations provoquent des inquiétudes chez les enseignants qui s’interrogent quant au dispositif et à son utilisation, au point de les vivre comme une épreuve : heurtés dans certains de leurs principes, ils hésitent entre différentes modalités propres à révéler leur malaise. Leurs syndicats, mandatés pour faire monter en généralité leurs arguments, sont souvent les plus à même d’organiser leur action collective. Enfin, ce sont les positions des responsables du ministère et des inspecteurs dans la controverse qui nourrissent les tensions mises au jour à travers cette bataille des évaluations.

10

Pour tirer les fils de cette controverse, nous explicitons et analysons les arguments des acteurs concernés en nous référant à une enquête empirique, menée dans une académie de l’Ouest de la France. Cette enquête, qui porte sur le débat et les mobilisations suscités par les nouvelles modalités des évaluations des élèves de l’école élémentaire entrées en vigueur en 2008-2009, est constituée :

  • d’une série d’entretiens semi-directifs [2][2] Nous tenons à remercier tout particulièrement Alexandra... auprès de 20 enseignants [3][3] Nous abrégerons les caractéristiques des interviewés :..., en poste dans 14 écoles aux caractéristiques diversifiées (écoles citadines ou rurales, classées ou non ZEP, publiques ou privées), dont 3 directeurs d’écoles en charge de la coordination locale du dispositif, et de 2 inspecteurs de l’éducation nationale (IEN) porteurs de la parole institutionnelle. L’économie de la recherche nous interdisait de travailler sur un corpus important mais nous avons veillé à ce que la variété de la position des enquêtés – choisis parmi la population ressource de nos précédents travaux – permette de cerner les diverses situations (voir Tableau 1).

  • de l’analyse d’un corpus de la presse d’information écrite (Le Monde [LM], Libération [Lib], Ouest-France [OF], La lettre de l’éducation [LLÉ], Le Monde de l’éducation [LMÉ]). Nous avons réalisé une analyse quotidienne et systématique des journaux parus entre août 2008 et octobre 2011, pour ne retenir que les articles publiés sur le sujet et mettant en exergue les positions des enseignants, de leurs syndicats et de l’administration, traces qui nous ont permis un retour rétrospectif, à travers 40 occurrences du débat [4][4] Les articles émanent en majorité de l’hebdomadaire... ;

  • de documents extraits des sites Internet officiels du gouvernement et du Ministère de l’Éducation nationale précisant et éclairant la position institutionnelle dans le débat.

Tableau 1 - Caractéristiques de la population enquêtéeTableau 1
11

Bien que divers – certains recueillis par l’enquête, d’autres dits « naturels » comme les articles de journaux – ces matériaux sont susceptibles au même titre de faire l’objet d’une analyse de contenu, où il s’est agi d’identifier dans le discours les propositions permettant d’appréhender au mieux la réception des évaluations (Giglione & Matalon, 1978).

12

Après avoir présenté le dispositif et examiné en quoi les évaluations des élèves du premier degré constituent une épreuve, nous verrons comment et sur quels registres les acteurs déploient leurs arguments, nourrissent la dispute et nous interrogerons le sens des craintes face à une potentielle mise en concurrence.

L’évaluation comme épreuve

13

Les nouvelles évaluations à l’école élémentaire en CE1 et CM2 – que nous nommerons simplement désormais les évaluations – sont inaugurées lors de l’année scolaire 2008-2009. Elles portent sur les acquis en français (lecture, écriture, vocabulaire, orthographe et grammaire), dans le cadre d’une épreuve d’une durée de trois heures, et en mathématiques (numération, calcul, géométrie, grandeurs et mesure, organisation et gestion de données), avec une épreuve d’une heure et demie. Elles doivent avoir lieu en janvier pour le CM2, en mai pour le CE1, lors d’une semaine fixée par le Ministère. Les objectifs sont ambitieux : « Ces évaluations situent les acquis de chaque élève par rapport aux objectifs définis dans les programmes. À partir de ce constat, les enseignants apportent une aide personnalisée aux élèves qui en ont besoin. Une synthèse nationale est effectuée et contribue au pilotage du système éducatif. Les résultats globaux et anonymes de la France entière, des académies et des départements sont publics » (Ministère de l’Éducation nationale [5][5] http://www.education.gouv.fr/cid262/l-evaluation-des-acquis-des-eleves-en-ce1.html#Objectifs...). Ces évaluations de masse diffèrent donc en plusieurs points de celles qu’elles remplacent, en particulier les résultats individuels des élèves sont transmis aux familles, tandis que les résultats globaux sont publiés, permettant la comparaison entre départements ou académies mais ouvrant potentiellement à des comparaisons entre établissements.

Incertitudes et tensions

14

Pour Danilo Martuccelli, les évaluations, telles qu’elles se sont imposées dans la société contemporaine, sont des épreuves car, tout en se présentant comme une évidence, elles amalgament une variété d’objets, de contextes, de finalités et se déploient dans des zones d’arbitraire. La part de non détermination a priori des évaluations introduit des tensions entre les principes qui contraignent les individus à leur donner un sens pour y souscrire ou non (Martuccelli, 2006, pp. 21-28).

15

Ce sont bien de telles tensions que vivent les professeurs d’école confrontés aux nombreuses incertitudes qui accompagnent les évaluations des élèves : doivent-ils ou non évaluer ? S’ils évaluent, doivent-ils ou non faire remonter les résultats vers le Ministère ? Leurs élèves réussiront-ils ou non ? Ne risquent-ils pas eux-mêmes d’être évalués en même temps que leurs élèves ? Les parents de ces élèves sont également confrontés à l’épreuve : leurs enfants réussiront-ils les évaluations ? Les données recueillies ne serviront-elles pas de test à l’entrée dans le cycle suivant ? Le stress occasionné est-il bien opportun pour leurs enfants ? C’est encore une épreuve pour les inspecteurs de circonscription, dans la mesure où ils savent devoir être confrontés aux tensions au sein des personnels dont ils ont la charge, et tout autant pour leurs supérieurs hiérarchiques que l’urgence intentionnelle dans laquelle a été élaboré le dispositif – avant même la rédaction définitive des programmes 2008 sur lesquels il est censé être fondé – a pu prendre de court (Pons, 2010b). Chacun de ces acteurs, en raison de son statut et de sa fonction, a une légitimité a priori pour intervenir dans le débat et défendre un point de vue : les évaluations des élèves de CE1 et CM2 leur fournissent l’occasion de se positionner, de porter un jugement qu’ils doivent toutefois justifier à partir d’arguments recevables et défendre, dans ce qu’on peut qualifier d’épreuve – dans la mesure où la grandeur de chacun des protagonistes sera en jeu – non sur la simple référence à leur statut ou leur puissance, mais en actes (Boltanski, 1990). C’est ce qui nous a conduits à privilégier les tensions entre les enseignants et leur administration parce que ce sont eux qui ont été le plus conduits à exprimer et faire valoir leur position, à la fois par les choix qu’ils ont dû effectuer dans leur activité professionnelle et par les arguments qu’ils ont dû publiquement déployer.

16

Bien que l’évaluation porte sur les élèves, un enseignant peut soupçonner qu’à travers eux, c’est lui qu’on cherchera à juger. C’est Marion (CM2, 39, p., m., SNUipp) qui, crûment, pointe le risque rapporté à des évaluations qui peuvent être utilisées à bien d’autres usages que le diagnostic : « Il serait bien con, celui qui se tire une balle dans le pied en disant : oh, ben moi, mes élèves, ils sont super nuls. » Marion souligne ainsi que les évaluations provoquent chez les enseignants une double méfiance. D’une part, ne vont-elles pas se retourner et contribuer à les évaluer eux-mêmes ? Dans ce cas, mieux vaut avoir de bons résultats puisque la notation joue un rôle dans le déroulement de la carrière. D’autre part, la méfiance ne renvoie pas à la seule préoccupation individualiste de carrière, car une mauvaise évaluation discrédite aussi l’école et par conséquent le collectif auquel on appartient. La solidarité au sein de l’équipe pousse donc également à faire en sorte que tous les résultats obtenus soient satisfaisants et globalement cohérents sur l’ensemble d’une école.

17

Les enseignants notent, classent et sélectionnent à longueur d’année au point qu’un tiers de leur temps de travail est consacré à ces tâches de préparation, d’exécution et de correction des évaluations de leurs élèves (Émin & Villeneuve, 2009, p. 21). Certes, il existe un débat récurrent sur l’opportunité de ne plus noter les élèves à l’école élémentaire, mais il n’a pas encore ébranlé la foi des enseignants français. L’évaluation n’est-elle pas une croyance collective tant elle apparaît comme une procédure rationnelle apte à remporter l’adhésion ? Or, si la mission d’évaluation est un rôle constitutif du métier, les enseignants se montrent très sceptiques face à l’idée d’être eux-mêmes évalués, résistance que Lise Demailly (2003) qualifie d’énigme sociologique, puisque les réticences ne sont ni constantes ni totales.

18

Il faut dire que les enseignants ont longtemps tiré l’essentiel de leur légitimité de la réussite aux difficiles concours passés à l’issue de leurs études qui leur donnait ensuite comme une attestation de la confiance que leur accordaient non seulement leur hiérarchie mais la société dans son ensemble. Ce jugement de confiance porté sur eux leur paraît acquis et le remettre en cause ouvrirait la voie à une préjudiciable suspicion (Simmel in Haroche, 2010). Or, aujourd’hui, l’évaluation met en question la vertu au travail et déstabilise des professeurs des écoles qui la vivent comme de la méfiance. Autrefois, « on bossait, on avait confiance, on n’avait, c’est vrai, que ce contrat de confiance, il est un peu… On se demande quelles sont les intentions » (Daniel, dir., 45, p., m.). Certes, ils reçoivent une note pédagogique, ils vivent ponctuellement des inspections, ce qui signe leur absence d’autonomie par rapport à l’autorité, mais une évaluation portant sur l’efficacité de leur travail (mesurée d’après les résultats de leurs élèves) entre en tension avec leurs certitudes de professionnels. En effet, retirer au corps professionnel enseignant sa capacité à s’auto-évaluer revient à le déprofessionnaliser. C’est en même temps questionner l’aptitude à évaluer les élèves et à tirer des résultats obtenus une démarche réflexive. C’est à la fois briser le contrat traditionnel sur lequel est fondée la relation entre les enseignants et leur hiérarchie – faite de confiance réciproque, d’adhésion aux mêmes valeurs et de poursuite des mêmes objectifs – et nier l’objectif plus récent que l’institution leur a fixé de se construire en praticiens réflexifs.

19

Il est vrai que certains enseignants vivent les évaluations comme un déni de reconnaissance dans la sphère professionnelle, où les individus souhaitent « jouir d’une estime sociale qui leur permet de se rapporter positivement à leurs capacités concrètes » (Honneth, 2000, p. 147). Il s’agit alors d’un autre aspect de la confiance, qui renvoie à la délégation que la société fait de l’éducation de ses enfants à des professionnels dévoués et au-dessus de tout soupçon. Ces rapports d’estime sociale reposent sur le système de référence d’une société qui définit la valeur des individus en fonction de leur contribution aux objectifs qui conviennent à sa pérennité. De ce point de vue, les enseignants estiment accomplir convenablement leurs tâches, à la mesure de la définition que leur culture professionnelle a depuis longtemps construite et qui ne peut avoir pour juge que leur hiérarchie ou eux-mêmes (Becker, 1952). L’évaluation porte dès lors en elle une espèce d’insulte, d’autant plus qu’elle est rendue publique : les évaluations sont publiées et largement commentées à l’intérieur comme à l’extérieur de l’école, rendant quiconque susceptible de juger du décalage entre résultats pratiques et objectifs valorisés (Duru-Bellat, 2009, p. 53).

Justification et difficulté d’accord sur ses principes

20

La mise en question de la confiance ou ce qui est interprété comme tel par les enseignants - et qui ne renvoie pour une grande part qu’à une demande de redevabilité - oblige à se justifier et à le faire au nom de principes dont on n’est pas forcément familier. En effet, cette redevabilité s’adresse non plus à la seule hiérarchie de l’Éducation nationale, comme dans la tradition de l’administration française, mais aux responsables politiques et à la société représentée par les médias, qui se présentent comme porteurs de la parole de la cité.

21

Le paradigme de la justification élaboré par Luc Boltanski et Laurent Thévenot (1991), dont la portée dans le domaine de l’école a été éprouvée (Derouet, 1992 ; Derouet & Dutercq, 1997), nous paraît alors particulièrement propre à l’analyse des heurts entre les principes sur lesquels se fondent les acteurs de l’éducation, confrontés à une mise en question de leurs routines évaluatives. En effet, les enseignants interrogés, tout comme les auteurs d’articles de presse, déploient « une pluralité de sens ordinaire du juste et, par conséquent, de principes de justification susceptibles de se confronter dans un même univers » en faisant valoir leurs arguments en dehors de leur monde de référence, pour construire une argumentation recevable par les autres et donc attelée à des obligations d’un autre ordre que celui dont ils ont l’habitude (Dutercq & Lafaye, 2003, p. 470). Certes, on a vu que les enseignants sont familiers de l’évaluation, mais les évaluations des élèves de l’école élémentaire, outre qu’elles s’apparentent à un soupçon, les placent face à une véritable épreuve car elles se situent dans plusieurs mondes.

22

Cela n’a rien d’extraordinaire. Depuis Goffman (1974) et Elster (1985), la sociologie contemporaine a montré que les individus vivent dans une société principalement caractérisée par sa complexité et sa différenciation, c’est-à-dire qu’ils se meuvent dans des circonstances variées qui autorisent une perception de la réalité multiple. Chaque individu doit affronter au quotidien des situations relevant de mondes distincts, qu’il peut analyser en référence à différents principes de justice, dans la mesure où ils sont tous admis par les membres de la société, et qui construisent autant d’ordres de généralité. Boltanski et Thévenot parlent pour qualifier ces principes de « cités » et pour qualifier ces ordres de « grandeurs ». Les grandeurs se sont empilées dans le temps et correspondent à autant d’idéaux porteurs de justifications dont les individus peuvent variablement se réclamer selon les circonstances.

23

Si le paradigme de la justification convient pour décrypter les discours des enseignants, des directeurs d’école, du ministre ou de ses représentants au sujet des évaluations des élèves de l’école élémentaire, c’est que tous sont compétents « pour produire, dans des situations déterminées, des arguments acceptables par d’autres, ou, comme on dit, convaincants, c’est-à-dire des arguments capables de soutenir une prétention à l’intelligibilité et dotés aussi d’un degré élevé d’objectivité, et par là d’universalité » (Boltanski, 1990, p. 61).

24

Les arguments de chacun des mondes sont en effet mobilisés autour de ces évaluations. Au premier abord, les évaluations de l’école, en tant qu’incarnation majeure de l’intérêt général, en tant qu’institution publique au service de valeurs républicaines telles que l’égalité ou le mérite, paraissent devoir relever de la cité civique. Mais, simultanément, les évaluations relativisent l’autorité du maître, jusqu’alors davantage préservée au sein de l’école primaire, dans un lieu où l’enseignant est, comme un père, la personne de proximité de référence, et renvoient alors à un fonctionnement qui s’apparente tout autant à la cité domestique. N’oublions pas cependant que les évaluations engagent la réputation du maître et le renom de l’école, tout spécialement auprès des familles qui prennent connaissance des résultats de leurs enfants et peuvent les confronter aux résultats globaux de la classe, du département ou du pays, s’inscrivant alors dans la cité de l’opinion. Quant au pilotage par les résultats – dans les cadres de la Loi d’orientation et de programme pour l’avenir de l’école de 2005, de la Loi organique relative aux lois de finances (LOLF) et de la Révision générale des politiques publiques (RGPP) – il appartient au registre de la cité industrielle, celle de l’efficacité et de l’efficience. Par ailleurs, la publicité des résultats peut être mise au service de la concurrence, renvoyant alors à la cité marchande. Les évaluations constitueraient enfin un stimulus propre à développer l’innovation et la créativité pédagogique et concourraient alors à la cité inspirée.

25

Bien évidemment, les individus rencontrés ne s’appuient pas sur les mêmes arguments et produisent de ce fait des justifications qui ne sont pas forcément recevables par autrui : ils se positionnent alors en tension les uns par rapport aux autres.

La manifestation des tensions

26

Face aux évaluations proposées dans le premier degré, les enseignants réagissent de façon très variable, à la mesure des tensions que leur fait vivre cette injonction, eu égard à leur histoire personnelle, et de leur relation à l’institution qui les emploie, en protestant et en réclamant des aménagements ou en refusant de souscrire au dispositif de l’évaluation.

27

Les premières réactions sont d’ordre individuel, ou limitées à un petit groupe d’enseignants d’une même école, et se manifestent principalement par leurs réponses aux questions qui peuvent leur être posées par un journaliste ou un chercheur. De tels entretiens sont un moment idéal pour la dénonciation en paroles ou en actes, de la part d’enseignants qui se sentent incompris ou injustement montrés du doigt. Ainsi Élise (CE1, 35, p., m.) : « On [dans son école] a refusé la première année de faire passer certaines choses. Le signe diviser, on ne l’avait pas vu, et on ne le verra pas cette année. On avait barré carrément les exos qu’on ne faisait pas passer. »

28

À côté de ces réactions individuelles, des actions sont organisées collectivement et ont permis de regrouper un ensemble d’enseignants dont les positions se radicalisent alors, les conduisant en particulier à refuser de mener les évaluations ou, tout au moins, d’en « remonter » les résultats. Action collective plus facile à mettre en œuvre dans des organisations publiques, comme l’Éducation nationale, où elle peut passer par le relais de syndicats encore puissants, permettant ainsi à moindres frais l’indispensable travail de montée en généralité. La plupart des syndicats d’enseignants ont lancé le mot d’ordre de « ni saisie ni transmission » en 2008-2009. L’action collective peut être aussi non institutionnalisée et plus radicale, comme celle des « désobéisseurs », qui ne seraient que deux cents [6][6] Nombre retenu par l’ensemble de la presse. mais font beaucoup parler d’eux.

29

De fait, selon le Ministère, 30 % des questionnaires ne seraient pas remontés, chiffre important quand on sait que refuser de répondre à une injonction de l’institution est une démarche coûteuse susceptible de sanction, ainsi qu’en témoignent les retenues sur traitement décidées pour punir les « désobéisseurs », qui refusaient publiquement ces évaluations (comme Véronique, CM2, 52, p., f., désob.) mais aussi certains qui n’avaient pas réussi la remontée informatique, tout en en informant l’inspection d’académie (c’est le cas de Flavie, CM2, 28, pr., df.).

30

Pour qualifier ces réactions des enseignants, on peut parler de « dispute en justice », selon l’expression de Boltanski : « Dans la dispute en justice, les gens soulèvent des critiques et apportent des justifications. Ils doivent pour cela faire un usage déterminé du langage consistant à remonter en généralité, de façon à rendre plus saillants les principes d’équivalence qui supportent l’ordre des grandeurs dans la situation » (Boltanski, 1990, p. 111). Un accord sur une ou des équivalences permet de clore la dispute : l’issue est possible dans les cas des évaluations étudiées puisqu’il existe des formes d’équivalence, comme le montrent localement leur routinisation (surtout en CE1) et la satisfaction manifestée dans certaines écoles. C’est ce qu’explique Christian (CM2, dir., 38, p., m.) qui a mis en place des évaluations dès la première année et les a trouvées difficiles : elles étaient précoces et s’appuyaient sur « le programme du CM2, avec un changement de programme qui était tout récent, puisque c’étaient les programmes 2008 ». Depuis, selon lui, les modifications apportées ont rectifié le tir : « C’était ce qu’on pouvait attendre effectivement à ce moment de l’année des CM2. C’est vrai que c’était assez intéressant de pouvoir justement porter un regard assez neutre sur les élèves. »

31

Mais bien plus nombreux sont les arguments déployés pour faire valoir le caractère injuste de ces évaluations, conduisant certains enseignants à déclarer : « Les évaluations ne passeront pas par nous » (Le Monde, 17 janvier 2011, en ligne ; Libération, 18 janvier 2011). Nous appuierons notre analyse de ces arguments en nous focalisant sur trois dimensions principales, celle de l’efficacité et celle de l’efficience, qui renvoient toutes deux à une logique d’ordre industriel, mais aussi celle de la publication des résultats, au nom de la transparence et de l’accountability (reddition des comptes), qui s’inscrivent dans l’esprit même d’une logique marchande.

Des arguments recevables mais disputables

La recherche d’une efficacité globale

32

L’efficacité de l’école, telle qu’elle est envisagée dans le cadre des politiques publiques actuelles, se rapporte à l’amélioration des performances des élèves, principalement de ceux qui sont en échec, point critique du système éducatif français, et peut s’apprécier en termes de savoirs, de savoir-faire et de savoir-être. De cette manière, l’efficacité est devenue l’objectif prioritaire des évaluations pour une école républicaine qui continue à revendiquer l’impératif d’égalité des chances, certes diversement décliné selon ses porte-parole. Xavier Darcos, ministre de 2007 à 2009, argumente pour justifier sa réforme, en proclamant que les nouvelles évaluations sont « la clé de voûte de la réforme » tant « elles mesurent le degré de réalisation des objectifs fixés » (LMÉ, 17/06/09), soit ceux de la réforme initiée par la Loi de 2005 (nouveaux programmes de 2008, socle commun des cycles 2 et 3 et livret personnel de compétences).

33

Son successeur, Luc Chatel, nommé en juin 2009, détaille les objectifs en conseil des ministres : « Les évaluations des acquis des élèves de CE1 et CM2 ont un triple objectif : permettre aux professeurs de connaître précisément le niveau de chaque élève ; permettre aux directeurs d’école et aux inspecteurs de disposer d’un outil de pilotage précis ; permettre au grand public de connaître les performances de l’école [7][7] Conseil des ministres du 7/10/09 sur : http://www..... » Il est vrai, explique-t-il par la suite, que le système éducatif français doit répondre à l’obligation de « lutter contre le noyau dur des 15 % qui ne maîtrisent pas les bases du français et du calcul en fin de CM2 » (Lib, 18/01/11). En effet, les difficultés révélées à ce stade de la scolarité se prolongent, puisque l’école française est une des plus inégalitaires et des plus préjudiciables aux élèves en difficulté, qu’elle ne parvient pas à aider, comme le montre la comparaison entre les pays ayant participé aux évaluations du Program for International Student Assessment (PISA) (OCDE, 2010). Or la stratégie de Lisbonne a précisément fixé comme objectif aux systèmes éducatifs européens d’amener le taux de « non diplômés [8][8] Sans diplôme d’études secondaires, ni diplôme professionnel... » en dessous des 10 % en 2020.

34

Sur le terrain, un inspecteur du premier degré commente ces objectifs en confirmant le lien entre évaluation et recherche d’amélioration des compétences des élèves. Il s’agit bien de détecter les difficultés en vue d’y remédier à travers l’arsenal des dispositifs existants : « Ce qui nous importe surtout, c’est l’exploitation des résultats dans les écoles pour mettre en œuvre l’aide personnalisée, les stages de remise à niveau, les projets de réussite éducative, faire le lien avec le livret personnel de compétences et la validation des compétences du socle. Bref, tout ce qui peut aider les élèves à progresser et, dans les circonscriptions et le département, pour mettre en œuvre la formation, la formation continue, la formation des directeurs d’école, les évaluations d’école » (M. B, 51 ans).

35

Mesurer, grâce aux évaluations, les difficultés des élèves pour y remédier de façon plus efficace est une visée civique et industrielle à laquelle les enseignants ne peuvent dans l’absolu que souscrire. Pourtant nombreux sont ceux qui estiment que la conception du dispositif ne leur donne pas les moyens d’y parvenir. Maelis (CE1, 33, p. f.), bien qu’enseignant dans une école favorisée, se montre particulièrement sceptique : « L’interprétation des résultats, le pourcentage, les seuils machin. C’est tellement théorique que c’est plus barbant qu’autre chose. Non franchement, ça nous apporte jamais de réponses. Tous les ans, c’est la même chose : “Ben oui, si vous voyez qu’il a en dessous de 33 %, ben oui, il est en échec”. On aimerait avoir des pistes plus que des constats. » Si l’efficacité est un principe consensuel, elle doit s’exprimer dans des politiques qui vont au-delà de l’évaluation, comme le précise un directeur d’école, la connaissance des difficultés rencontrées « devrait permettre de mettre en place une stratégie d’école… ça devrait être un outil de pilotage, mais un outil de pilotage intelligent. Déclencher, en fonction des besoins et sur un territoire donné, des formations, par exemple des solutions pédagogiques au sein de la classe ou du réseau [9][9] Daniel fait référence aux réseaux d’aide spécialisée..., mais à condition que les moyens… » (Daniel, dir., 45, p., m..). Or la question des moyens est un autre objet de dispute, puisque l’efficacité est désormais attelée à l’efficience proclamée et passe aussi par la maîtrise des budgets.

36

Le souci de l’efficacité conduit alors à se poser la question du calendrier des évaluations, qui est en soi l’objet d’une polémique révélatrice.

Un calendrier inadapté aux objectifs

37

Du point de vue ministériel, l’évaluation doit donner aux professeurs une vision plus précise des compétences de leurs élèves, pour leur permettre de remédier aux lacunes constatées, soit en classe, si les difficultés relèvent effectivement de ce niveau d’enseignement, soit dans le cadre du dispositif d’aide personnalisée, mis en place parallèlement à la définition du socle commun aux deux paliers du CE1 et du CM2. Il s’agit bien alors d’une évaluation diagnostique, que le Ministère [10][10] http://www.education.gouv.fr/bo/2007/33/CTNX0710380K.htm,... définit ainsi : « Évaluation intervenant au début, voire au cours d’un apprentissage ou d’une formation, qui permet de repérer et d’identifier les difficultés rencontrées par l’élève ou l’étudiant afin d’y apporter des réponses pédagogiques adaptées. »

38

Or, c’est là qu’intervient le premier élément de désaccord sur le calendrier. En effet, pour l’année scolaire 2010-2011, les évaluations ont été fixées en février 2011 pour le CM2 (en janvier en 2009) et en mai pour les CE1. Beaucoup s’interrogent sur les raisons qui ont incité à placer à de telles périodes de l’année scolaire des évaluations dont l’objectif est d’orienter la conduite des enseignants des classes considérées et non d’évaluer l’efficacité de leur action en cours d’année.

39

Peut-être le Ministère les a-t-il décalées pour répondre aux défauts de l’expérience des précédentes évaluations diagnostiques de masse des élèves de CE2 et de 6ème initiées en 1989 [11][11] De 1979 à 1988, les évaluations sont principalement... (Thélot, 2009 ; Pons, 2010b), qui étaient situées en début d’année. Christian (CM2, dir., 38, p., m.) est plutôt favorable au nouveau calendrier, se référant à l’expérience d’un inspecteur général qui a fait passer les mêmes évaluations à la fin du CM1, puis au début du CM2 dans des classes similaires : « Les résultats étaient bien meilleurs fin CM1 qu’en début CM2 car les vacances étaient passées par là. » Cette opinion est toutefois loin d’être partagée. La fronde menée par les syndicats enseignants contre le calendrier a été largement approuvée. Sébastien Sihr, secrétaire général du SNUipp, déclare que, pour être efficaces, « les évaluations doivent se situer en septembre pour que le maître dispose d’une feuille de route pour son année » (LM 18/01/11).

40

La plupart des enseignants soulignent l’incohérence des mesures : « On nous demande de mettre en place de l’aide individualisée dès la rentrée, alors on se bricole des évaluations personnelles pour savoir où en sont nos élèves et qui a besoin d’aide. Et là, en janvier, il faudrait tout recommencer ? Cela ne me servirait à rien », dit Sylvain Grandserre, enseignant affilié au mouvement Freinet, ajoutant que ses élèves ne « plancheront pas » (LM, 18/01/11). D’autres arguments complémentaires se déploient. Véronique (CM2, 52, p., f., désob.) estime que les évaluations se font hors de toute motivation des élèves et ne génèrent rien d’autre que le stress. Émilie (CE1, 42, pr., f.) considère que, proposées en fin d’année de CE1, elles ne feront pas forcément l’objet de l’attention du collègue de CE2 qui prendra la suite. Justine (CE1, 42, pr., f.) se demande quel sera le suivi de ces évaluations à l’échelon de la circonscription puisque les inspecteurs chargés de la régulation des mesures mises en place n’ont qu’un retour très indirect sur les éventuelles modifications de pratiques et qu’ils n’ont guère les moyens de les contrôler, si ce n’est à partir des déclarations des enseignants, dont elle estime qu’elles ne sont pas fiables : « L’IEN m’avait demandé si ça me resservait. J’ai dit oui, parce que c’est ce qu’elle voulait entendre. »

41

André Ouzoulias, spécialiste des difficultés en lecture interrogé par la presse, change la perspective en remarquant que, du fait du calendrier, ces évaluations sont en fait un bilan « dramatique » car elles sont propices au bachotage, mené par des enseignants, mais aussi par des parents, qui pourrait se retourner contre l’objectif déclaré de diagnostic (LLÉ, 19/01/09). Agnès (CM2, 40, p., m.) rappelle qu’en 2011 les évaluations ont été diffusées sur l’Internet avant la date de passation. Les enseignants comme les parents peuvent donc sans mal biaiser, rendant vaine la recherche de transparence et partant, le pilotage par les résultats. Certains enseignants reconnaissent bien volontiers leurs propres pratiques frauduleuses, en les minimisant : ils ne les auraient pas menées de façon délibérée mais simplement pour aider des élèves démunis ou bloqués ou pour compenser le retard pris dans le suivi du programme. De nombreux enseignants reconnaissent par ailleurs avoir revu l’organisation temporelle des séquences de l’année pour aborder l’ensemble des notions avant les évaluations (Maelis, CE1, 33, p., f.). D’autres préfèrent marquer « absent » à chaque fois qu’une compétence n’a pas été travaillée (Justine, CE1, 42, pr., f.). Enfin, certains n’hésitent pas à donner des informations complémentaires aux élèves : « Nous, adultes, on faisait déjà la faute, donc on s’est permis de dire “Attention pensez bien à la justification !” et de repréciser ce qu’était une justification. » (Pascale, CM2, 35, p., m.).

42

La question du calendrier a toujours été objet de dispute : trop tôt (évaluations de la période 1989-2008) ou trop tard (nouvelles évaluations), jamais au bon moment. La cause principale est à trouver dans la définition même des objectifs des évaluations. Antoine Prost (2009, p. 158-159) y a insisté : « Pour être acceptable, une évaluation doit respecter trois conditions : les évaluateurs doivent être légitimes (…) les objectifs doivent être clairs, au double sens d’objet évalué et de but poursuivi (…) les critères doivent être explicites et pluriels. » Or, les conditions ne sont pas ici remplies : c’est la DGESCO, et non la DEPP, qui évalue et le calendrier choisi ne s’accorde pas aux objectifs déclarés de diagnostic. On ne peut croire qu’il s’agisse d’une simple maladresse ou d’une méconnaissance de la portée d’une évaluation, on doit s’interroger sur la poursuite d’objectifs certes déclarés mais entrant en tension les uns avec les autres et interdisant de trouver un calendrier qui les concilie.

43

La modification du calendrier des évaluations de CM2 en 2011-2012, qui les situe au mois de mai, peut paraître répondre à cette tension et entrer en cohérence avec un changement d’objectif. Pourtant la présentation de ces évaluations reste la même sur le site du ministère, il n’y est toujours pas question d’évaluation sommative.

44

Au-delà de la question de leur place dans l’année scolaire, qu’en est-il des critères des évaluations, dont Prost rappelle justement l’importance ?

Cent questions posées

45

Le calendrier des évaluations pose le problème des critères d’évaluation selon l’échelle temporelle qui en modifie le sens et l’impact : le long terme du cycle, le moyen terme de l’année scolaire et le temps court de l’évaluation elle-même. Le désajustement entre ces différentes échéances, les objectifs affichés et les critères requis se manifeste dans le contenu même des questions posées aux élèves, dont l’inadéquation aux savoirs acquis pendant le cycle suscite un reproche majeur.

46

L’évaluation a été construite sur les nouveaux programmes d’enseignement de 2008, alors non publiés, et s’adresse à des élèves dont le cursus a été jusque-là fondé sur les programmes en vigueur depuis 2002 [12][12] Pour exemple, la notion de « déterminant possessif ».... Évoquant l’incohérence des évaluations des élèves de CM2, André Ouzoulias explique qu’il n’aurait fallu prévoir les évaluations fondées sur les nouveaux programmes qu’en 2011, avec des élèves qui auraient suivi l’ensemble du cycle 3 (CE2-CM1-CM2) avec les programmes de 2008 (LLÉ, 19/01/09).

47

« Quand j’ai vu le détail des cent questions posées aux élèves, j’ai hurlé. Quatre mois après le début des cours, on leur demande de connaître le plus-que-parfait ou le pronom relatif », déclare un enseignant de CM2 interrogé par un journaliste (OF, 16/01/09), posant ainsi le problème de la gestion du temps pendant l’année scolaire. De nombreux exercices paraissent prématurés tant en mathématiques (les divisions avec décimales, le calcul des aires) qu’en français (« tout ce qui était conjugaison nous avait paru compliqué, passé composé et tout ça », dit Agnès, CM2, 40, p., m.). Là aussi, les enseignants ne respectent pas forcément la consigne de strict respect de la formulation de la question : « Il y avait simplement 40 divisé par 5… On avait vu le partage en classe par 2 et par 5, mais on disait “on partage” et donc, finalement, on s’est dit qu’ils pouvaient réussir ce genre d’exercice, on leur a dit “diviser, ça veut dire partager”. Donc là, on n’a pas respecté la consigne » (Élise, CE1, 35, p., m.). Mais certains enseignants s’écartent davantage encore des principes fixés : oubliant toute fonction de diagnostic et toutes conditions de passation, ils transforment le dispositif en évaluation finale et complètent par toutes les notions qui n’ont pas été traitées dans les carnets (Maelis, CE1, 33, p., f.).

48

Enfin, les enseignants s’inquiètent de la difficulté des questions compte tenu du temps court imparti aux évaluations. Le problème est particulièrement délicat dans les établissements des quartiers défavorisés où les élèves n’avancent pas au même rythme : « L’enfant qui n’a pas acquis le partage, c’est pas très grave, ça ne veut pas dire que l’enfant ne réussira pas sa scolarité. On est au début des acquisitions » (Elsa, CM2, 38, pr., df.). Mais ce qui pouvait être anodin, lorsque les résultats des évaluations étaient réservés à usage interne et relativisés par le maître, risque d’entraîner de lourdes conséquences : l’imposition précoce de normes d’acquisition stigmatise inévitablement l’élève affecté par un score très bas et ne facilite pas l’entreprise de remédiation qui est censée accompagner le diagnostic. Construire une grille d’évaluation nationale des savoirs soumise à un calendrier impératif répond à une compréhensible volonté de se doter d’outils propres à mieux répondre aux exigences contemporaines d’égalité d’accès au savoir mais aussi d’égalité d’apprentissages. Il reste que la normalisation qui sous-tend la réforme, notamment sous l’angle de l’âge d’acquisition, est d’un autre ordre et constitue une épreuve dénuée de véritable efficacité pédagogique, alors que d’autres voies d’évaluation sont ouvertes. Ainsi la Nouvelle-Zélande a-t-elle mis en œuvre un instrument d’évaluation conforme aux programmes nationaux, mais que les enseignants peuvent utiliser à leur guise et adapter à la progression de leurs élèves (Normand & Derouet, 2011). En France, les choix paradoxaux que nous pointons mettent en évidence le caractère composite d’une politique éducative où, au bout du compte, l’injonction à la responsabilité des acteurs locaux se fait dans le cadre d’un régime bureaucratique revigoré par différentes mesures ministérielles qui, en imposant de nouvelles règles standardisées, enlève de fait une grande part d’autonomie aux acteurs locaux et interdit pour finir le traitement individualisé des cas particuliers.

49

Au-delà du rythme et de la temporalité, ces évaluations soulèvent la question de la mesure et de la méthode choisie pour ce faire.

La question de la mesure

50

La méthodologie initialement choisie pour exprimer les résultats et les coder a été très tôt contestée. Un premier problème se pose pour les enseignants qui, depuis plusieurs années déjà, recourent à un système d’évaluation ne reposant plus sur des notes mais sur un « code couleur », auquel ils doivent renoncer s’ils veulent transmettre leurs résultats. Mais, de façon plus globale, c’est avant tout le barème qui est refusé.

51

Le codage binaire (1 ou 0) est dénoncé. Dans certains cas, « pour obtenir un point, l’élève doit réussir toutes les tâches. S’il échoue, ne serait-ce qu’à une seule, il n’obtient aucun point ! » (Ouzoulias, LLÉ, 19/01/09), ainsi « en calcul, par exemple, sur dix opérations, lorsque deux sont fausses, c’est zéro à l’exercice » (OF, 24-25/01/09). Le résultat devient alors plus important que la démarche et que la progression éventuelle de l’élève que seul l’enseignant serait en position d’apprécier. Or, parmi les compétences en mathématiques attendues en CE1, le raisonnement est en première ligne : « Pour nous, c’est primordial, quand on est en résolution de problèmes, c’est plus important ; s’il n’y a pas la démarche, le résultat mathématique, on ne l’a pas. Des enfants qui avaient utilisé la multiplication et qui avaient fait une erreur parce qu’ils ne connaissaient pas encore le résultat d’une multiplication, ils avaient faux, alors qu’ils avaient fait toute la démarche. Alors que nous, on les félicite, ça y est, ils arrivent à utiliser cette multiplication plutôt que l’addition réitérée », explique Élise (CE1, 35, p., m. f.), soulignant par là une autre conception de l’efficacité.

52

Les enseignants sont aussi très critiques par rapport aux évaluations en français car ils estiment que le système de mesure ne renseigne pas sur le type de compétences évalué. Ils préféreraient que les évaluations permettent de répondre à des questions d’ordre didactique : « Comment se fait-il que, sur certains exercices, les élèves vont bien répondre à des questions qui paraissent plus complexes et que, sur des questions plus simples, ils vont complètement être à côté de la plaque ? On prend la conjugaison, le verbe aller, ils l’ont fait sans problème au passé composé, à l’imparfait, et incapables sur le présent. C’est là où on aimerait avoir l’avis, je sais pas, d’un chercheur, d’un psychologue… des gens qui nous expliquent un peu comment ça fonctionne » (Pascale, CM2, 35, p., m.).

53

Le système de notation ne donne donc pas suffisamment d’informations sur les compétences effectives des élèves, compétences que bien des enseignants se considèrent comme mieux à même de juger (Lafontaine, Soussi & Nidegger, 2009). On aboutit donc à une dépossession de prérogatives qui constituent à leurs yeux une bonne part de leur légitimité de pédagogues, dont l’évaluation fait partie mais sous sa forme compréhensive. La « tyrannie du chiffre » qui s’y substitue, à travers le dispositif d’évaluation mis en place, repositionne les enseignants dans un rôle subalterne de soumission aux instructions de leurs inspecteurs, comme le signale Véronique (CM2, 52, p., f., désob.) « “Voilà à tel item, ils sont arrivés à tant. À la prochaine inspection, il faudra qu’ils soient arrivés à tant.” Du chiffre ! Travailler avec des enfants, c’est de l’humain (…) On va me demander de l’efficacité, du rendement. C’est des mots qui n’ont pas lieu d’être à l’école. » Cette tâche, dévolue aux inspecteurs, de garants locaux des directives ministérielles, qu’ils acceptent de plus ou moins bon gré, génère des tensions parfois vives avec les enseignants dont ils ont la charge et contribue à mettre de la distance dans les relations de confiance et de proximité le plus souvent entretenues jusque là.

54

La sévérité du barème présente d’autres risques pour les détracteurs des évaluations. D’une part, elle conduit à mettre l’élève « artificiellement en échec » (SNUipp, LLÉ, 06/09/10) avec son lot de conséquences en termes de démobilisation. D’autre part, la notation binaire fait « gonfler artificiellement le pourcentage d’élèves en difficulté » (Ouzoulias, LLÉ, 19/01/09), ce qui nuit globalement à la qualité de l’évaluation de l’efficacité du système et spécifiquement à l’image des écoles le plus susceptibles d’être concernées.

55

Le Ministère a d’ailleurs concédé ce que ce parti pris dans la mesure pouvait avoir d’injuste en modifiant le barème. À partir de 2010, cinq niveaux de notation sont proposés aux enseignants pour enrichir l’évaluation et donner une information plus précise aux familles.

56

Pouvons-nous en être aussi sûrs ? Peut-on considérer que l’expression « réussite partielle sans erreur » (un des niveaux) est intelligible ? Les syndicats ne le pensent pas et continuent à condamner un barème qui n’assure pas la fiabilité des évaluations, alors même qu’elles peuvent avoir un impact considérable, car si la préoccupation porte bien sur l’objectif d’efficacité des évaluations, elle se double ici d’une inquiétude de nature civique quant à leur transparence, qu’Émilie (dir., 50 ; pr., f.) exprime en expliquant qu’un résultat par rapport à une moyenne « ne veut rien dire du tout. Il suffit que dans une classe donnée on ait deux enfants porteurs de handicap ! » S’ajoute une autre réserve : les acquis des élèves ne sont pas croisés avec d’autres variables (âge, milieu, pratiques pédagogiques par exemple) (Duru-Bellat, 2009, p. 52). Le SGEN-CFDT élargit le champ de la mise en cause du système de mesure adopté en remarquant que « les maîtres déplorent l’absence d’une série d’indicateurs. Par exemple, savoir si l’élève est capable de travailler en autonomie ou de façon collective » (OF, 05/02/10). L’argument est à prendre en considération car en prise directe avec la logique gestionnaire (Groux, 1996) d’un syndicat qui n’est pas hostile au courant actuel de modernisation de l’école ni à la logique portée par la loi de 2005. Mais c’est justement cette posture qui conduit le SGEN à attendre de l’évaluation, au-delà des informations sur les savoirs et compétences, la mise en évidence de l’autonomie de l’enfant et sa capacité à travailler dans un collectif.

57

Enfin, cette question de la mesure pose le problème de la comparabilité des données. Christian Chevalier, secrétaire général du SE-UNSA s’empare de cette thématique : « Ces évaluations ont été suffisamment mal conçues pour qu’on ait été obligé l’an dernier d’appliquer des coefficients correcteurs, afin qu’on puisse les comparer avec les résultats 2009 » (LM, 18/01/11), ce que des représentants locaux qualifient de « bidouillage des chiffres ».

58

Bien des critères adoptés pour construire ces évaluations sont disputés : le calendrier parce que trop tardif pour permettre une évaluation diagnostique, les questions posées pour leur difficulté au moment de la passation et le barème choisi pour son manque de pertinence éducative. Mais, au-delà, c’est bien du problème de la gouvernance qu’il s’agit. En effet, la gouvernance par les résultats s’est en partie substituée à une gestion strictement bureaucratique à laquelle les enseignants étaient habitués et que par métonymie, ils assimilaient au service public. Dès lors, le changement a pu être perçu comme un signe de l’irruption d’une logique entrepreneuriale dans l’école primaire, qui en semblait jusque-là protégée.

La crainte du modèle entrepreneurial

59

L’entrepreneur est celui qui maximise son efficience en minimisant les coûts de ses intrants tout en augmentant (ou en maintenant) le volume ou la qualité de ses produits (extrants). Il a pour objectif sa position sur le marché : efficient, il sera compétitif. Certes, le Ministère ne recherche pas le profit, mais il vise à participer à la réduction des dépenses publiques et à l’amélioration des résultats des élèves et est donc fortement préoccupé d’efficience.

L’efficience, un point aveugle

60

À l’école, les intrants sont mesurés au regard de la qualité et de la quantité des enseignants, de celle des équipements, de la taille des classes et du nombre d’heures enseignées, les extrants étant les acquis cognitifs et non-cognitifs des élèves ainsi qu’in fine leur insertion sur le marché du travail (Meunier, 2009, pp. 103-104).

61

Or, le gouvernement reconnaît publiquement l’efficience incertaine des évaluations. « Le taux élevé de réponses incomplètes et la faible qualité des données recueillies à partir des évaluations bilan de CE1 » ne permettent pas au ministère de comparer les écoles sur la base des « écarts des pourcentages d’élèves maîtrisant, en fin de CE1, les deux premières compétences du palier 1 du socle commun » (PAP, 2011, p. 45) [13][13] La loi de finances a un volet concernant l’enseignement.... Pourtant c’est bien la comparaison des écoles de l’éducation prioritaire [14][14] Le dispositif de l’éducation prioritaire prend le nom... qui est essentielle pour améliorer les performances des 15 % ne maîtrisant pas les bases (OCDE, 2010). En effet, comment l’institution peut-elle prétendre à une meilleure gouvernance si les données ne l’éclairent pas ?

62

L’inefficience serait aussi patente, rapportée au coût de l’opération, se sont plu à rappeler les syndicats : « Si c’est pour les statistiques, on pourrait obtenir des résultats tout à fait fiables à partir d’un échantillon, les faire passer à 800 000, c’est du gaspillage », dit un représentant du SGEN-CFDT (LM numérique, 17/01/11). Le SNUipp en estime le coût à 25 millions d’euros, en incluant sans doute la prime donnée aux enseignants qui évaluent (LM 18/01/11). Il convient de noter que la question du coût est récurrente dans l’argumentation contre les évaluations nationales, en particulier le baccalauréat [15][15] Le baccalauréat 2006 a coûté 38 millions €, http://www.senat.fr/rap/r07-370/r07-37038.html,....

63

De plus, depuis que l’efficacité des services publics est évaluée, les différents responsables politiques en place ont considéré qu’il fallait que leur régulation soit opérée par des organismes indépendants, en raison des risques de comportements opportunistes de certains acteurs internes. C’est pour les éviter que des agences de régulation ont été mises en place dans certains secteurs, avec l’objectif de veiller à ce que la mesure soit transparente et informative et que les missions d’intérêt général soient assurées de manière efficiente (Cohen & Henry, 1997). L’éducation semble cependant échapper à la règle, comme le laisse entendre Jean-Claude Émin, ancien sous-directeur à la DEPP : les évaluations « ont été confiées à la Direction générale de l’enseignement scolaire qui, en tant que responsable des politiques éducatives, est à la fois juge et partie » (LLÉ, 12/04/10). Deux députés de l’ancienne majorité, Xavier Breton et Alain Marc, avaient d’ailleurs proposé à l’Assemblée Nationale de créer un organisme indépendant afin que le Ministère ne cumule plus les fonctions d’évaluateur et d’évalué (LLÉ, 9/11/09).

64

À côté des interrogations sur la fiabilité de l’évaluation, la mise en question de l’efficience prend une tournure bien différente chez certains enseignants. Un grand nombre d’entre eux estiment, de façon explicite ou implicite, que les évaluations participent à une forme de privatisation de l’école, privatisation endogène (Ball & Youdell, 2008), au sens où elle tendrait de plus en plus à calquer son mode de fonctionnement sur celui des entreprises privées au point d’intégrer de nombreux principes de la logique marchande.

Une logique marchande tabou

65

Xavier Darcos, lorsqu’il a mis en place les évaluations, les a partiellement inscrites dans le monde marchand en souhaitant la concurrence entre écoles dans une perspective de mobilisation et d’amélioration de la qualité. À sa suite, Luc Chatel a confirmé « la publication des résultats école par école » (LM 18/01/11). En introduisant un principe d’évaluation, les partisans de l’État régulateur avaient pour but de faire « pendant au couperet que le marché est censé apporter dans le secteur privé » selon Martuccelli (2006, p. 110). On ne peut que le suivre dans ce constat : le secteur public cherche dans l’évaluation une justification qui ne va plus de soi face à un secteur privé qui revendique la logique de marché comme lui assurant la légitimité nécessaire. Mais l’évaluation constitue-t-elle un vrai pendant au marché ou une bonne occasion de lui ouvrir davantage les portes du service public ?

66

Christian Maroy (2006) qualifie de post-bureaucratique le nouveau mode de régulation qui s’est mis en place dans de nombreux pays [16][16] Maroy a étudié le cas des pays anglo-saxons mais aussi.... Ce modèle est composé d’une première figure, celle de l’État évaluateur, qui assure une régulation par les résultats, définissant les missions, les objectifs et les critères de résultats du système. La seconde figure est celle du quasi-marché, où l’État concède une part d’autonomie aux établissements et parallèlement crée les conditions du libre choix de l’école par les usagers (en France, les mesures d’assouplissement de la carte scolaire mises en œuvre en 2007 visent à permettre aux parents des élèves de CM2 ce choix pour l’entrée en 6ème). Les défenseurs du modèle de quasi-marché estiment que la promotion du choix conduirait à responsabiliser les écoles quant à leurs résultats, la compétition suscitant une amélioration de l’efficacité, voire de l’équité (Maroy, 2011, p. 63). Mais Maroy pointe une difficulté majeure de la logique de régulation de l’éducation par le marché, avec mise en concurrence et libre choix des écoles, car elle « implique de poursuivre des objectifs qui soient visibles, mesurables, si bien qu’en pratique toutes les finalités de référence ne seront pas poursuivies au même degré, et qu’une priorité sera donnée aux finalités les plus mesurables (comme l’amélioration des résultats moyens – une forme d’efficacité – ou l’égalisation des résultats entre genres ou groupes sociaux) » (Maroy, 2011, p. 67).

67

Parce qu’il n’y a désormais plus aucun obstacle technique à la publication des résultats des évaluations école par école, la concurrence entre établissements du premier degré est potentielle. Sylvain Grandserre s’en indigne dans la presse : « Les enseignants redoutent également que les fiches de résultats, actuellement confidentielles, deviennent publiques, permettant un classement des établissements par résultats ; conjugué à la suppression de la carte scolaire, cela aboutirait à une mise en concurrence des établissements » de la même manière que pour les collèges et lycées via les indicateurs concernant les résultats au brevet et au baccalauréat, « la perspective est terrifiante » poursuit-il (LLÉ, 11/01/10). En effet, pour le second degré, si le Ministère se contente de mettre à disposition les résultats des établissements, en particulier leur valeur ajoutée (Thélot, 1994), et ne les compare pas entre eux, les médias s’en sont depuis longtemps emparés, se chargeant du classement, construisant des palmarès et contribuant ainsi à stimuler un fonctionnement fondé sur les principes du marché et du renom : les établissements les mieux classés, tout spécialement ceux de l’enseignement privé sous contrat, s’appuient en effet sur ces palmarès pour assurer leur promotion dans des brochures et sites Internet.

68

Cette logique heurte la sensibilité d’une grande partie des personnels de l’Éducation nationale, bien au-delà des clivages politiques. La logique de quasi-marché exacerbe des divisions inopportunes : les enseignants des quartiers favorisés aux bons résultats ne s’en plaignent guère, contrairement à ceux des écoles aux résultats médiocres qui n’y ont pas intérêt (Garcia & Montagne, 2011, p. 11). En revanche la possibilité, partiellement illusoire, de choisir son école sur la base d’informations apparemment fiables séduit les parents qui ont adopté, parfois à contrecœur, les comportements de consommateurs d’école (Ballion, 1982 ; van Zanten, 2009) [17][17] La FCPE s’associe aux syndicats pour dénoncer la marchandisation....

69

Une partie des parents s’inquiète également d’un mouvement qui porte atteinte aux principes civiques de l’école républicaine, à travers la voix de la Fédération des Conseils de Parents d’Élèves (FCPE) tandis que d’autres se préoccupent du confort de leurs enfants et dans une logique domestique, dénoncent sur un blog (ouvert par la fédération des Parents d’élèves de l’enseignement public [18][18] http://peepvelter.over-blog.com/article-27483051.html,... le stress causé par les nouvelles évaluations. Dans certaines écoles, les parents ont été jusqu’à manifester de façon collective leur opposition aux évaluations en refusant la participation de leurs enfants (Maelis, CE1, 33, p., f.). D’autres réagissent individuellement en cherchant à parasiter les épreuves comme quand cet élève, encouragé par ses parents, « a répondu systématiquement à côté de la plaque, un très bon élève : toutes les réponses tournaient autour de la Formule 1 ou des ours polaires » (Laure, CM2, 38, p., f.). Il reste que plusieurs enseignants regrettent que le mouvement ait eu du mal à prendre de l’ampleur, en raison du manque d’adhésion active des parents.

70

Face au tollé au sein du monde enseignant et de la FCPE, le Ministère finit par renoncer à la publication des résultats, qui du reste ne soulevait pas l’unanimité au sein de ses responsables, notamment de ceux qui redoutaient les effets pervers qui l’auraient accompagnée.

Les externalités négatives du quasi-marché

71

Le caractère hybride et ambigu du modèle post-bureaucratique constaté par Christian Maroy est porteur d’externalités négatives, produits non désirés qui accompagnent une production, aussi bien pour les familles que pour les établissements et les enseignants.

72

La première externalité négative du quasi-marché est l’évitement des établissements publics des quartiers défavorisés par les familles des classes moyennes. S’enclenche alors un cercle vicieux : la migration scolaire de meilleurs élèves affecte les scores des établissements et provoque de nouvelles migrations (van Zanten, 2001 ; Dutercq & Lafaye, 2003). Le choix des familles est donc partiellement un leurre : « Si les résultats des évaluations, que ce soit CE1 ou CM2, sont diffusés sur l’Internet, accessibles aux parents, les parents peuvent prendre ces critères-là pour choisir l’école en fonction des résultats : là, les résultats sont bons, je vais y mettre mon gamin, là, les résultats sont pas bons, je vais pas y mettre mon gamin… En plus, c’est flatteur pour les parents, ça veut dire : vous allez pouvoir choisir la meilleure pour votre enfant… Sauf qu’à long terme, c’est faux : c’est les écoles qui vont choisir les meilleurs élèves pour avoir les meilleurs résultats, et ça, les parents, ils s’en rendent pas du tout compte » (Véronique, CM2, 52, p., f., désob.). Cette conséquence est d’ailleurs clairement attestée à l’échelon des collèges : bien loin d’accroître l’efficacité de l’école par la liberté de choix, les palmarès renforcent l’embourgeoisement de certains établissements et la ghettoïsation d’autres (Merle, 2011). Ajoutons que cette sélection par les établissements les plus demandés pourrait également se doubler de discriminations : les services d’aide aux personnes handicapées (AMDPH) commencent à réclamer les résultats aux évaluations (Xavier, dir., 48, p., f.).

73

La deuxième externalité négative se rapporte à la dégradation de la qualité des relations interpersonnelles dans les écoles, conséquence de la concurrence au sein de l’équipe pédagogique et du regard dépréciatif entre collègues. C’est ainsi que Maelis (CE1, 33, p., f.) envisage non sans humour les effets potentiels : « Oh, ben toi t’as pas réussi là ! Toi t’es un gros nul ! » Mais déjà des signes de rupture du collectif sont avérés : Marion (CM2, 39, p., m., SNUipp), qui partage son CM2 avec une autre enseignante et qui a refusé de remonter les résultats, déplore que sa collègue les ait transmis sans l’en avertir.

74

La troisième externalité négative concerne très directement l’évaluation et la carrière des enseignants. Le SNUipp met en garde : « Derrière tout ça, n’est-ce pas l’évaluation des enseignants au mérite qui se profile ? » (OF, 24-25/01/09). Des inquiétudes plus diffuses se manifestent de la part même de ceux qui ne sont pas a priori hostiles au dispositif, comme Daniel (dir., 45, p., m.) : « Qu’est-ce qu’on veut en faire par rapport à l’équipe ? (…) Parce qu’on sait très bien, dans certains systèmes, c’est ce qui permet aussi d’avoir des leviers par rapport aux équipes d’enseignants. Est-ce que les enseignants sont performants ? Les enseignants qui ne sont pas performants, on va le voir dans les indicateurs. C’est toujours pareil, comme tout outil, c’est ce que l’institution fait de l’outil ! » On peut estimer qu’il s’agit là de purs fantasmes, mais il reste qu’ils font valoir combien les incertitudes qui entourent les usages des évaluations éprouvent fortement nombre d’enseignants plus qu’ils ne les mobilisent. Pour certains, il ne s’agit pas de dangers potentiels mais d’un changement de cap qui conduit à les rendre directement responsables de la réussite ou de l’échec de leurs élèves : « Un IEN a passé ça au crible en m’interrogeant de manière assez serrée sur les résultats que j’avais obtenus. Ils veulent qu’on justifie de la réussite ou de la non-réussite sur certains items. Pour moi c’est la limite, quoi ! » (Mathieu, CM2, 40, p., m.). En effet, comme le dit Pascale (CM2, 35, p., m.), « quand nos élèves ratent quelque chose, c’est nous qui ratons ». Se profile alors le spectre d’une accountability dure, du type de celle qui a cours aux États-Unis, qui lie aux tests la rémunération des enseignants et la pérennité ou la fermeture des écoles (Mons, 2009). Il ne s’agit plus alors de responsabiliser les individus en portant à leur connaissance des éléments utiles à l’amélioration de leur contribution à la réussite des élèves mais de les mettre personnellement en accusation, selon l’analyse que fait Martuccelli des formes contemporaines de l’évaluation : « En glissant des organisations vers les individus, se met en place une logique inédite de domination » où les « inégalités de résultats deviennent une affaire d’échec personnel » (Martuccelli, 2010, pp. 41-42).

75

Alain Refalo, un des leaders des « désobéisseurs », synthétise à sa manière le dilemme auquel sont confrontés les enseignants : « Appliquer les directives ministérielles, c’était atteindre au service public d’éducation » (LM, 1/10/10). Il veut signifier par là que la marchandisation qui sous-tend la conception des évaluations des élèves et les objectifs qui leur sont assignés porte atteinte à un principe fondateur des services publics : l’égalité de traitement. Certes, nul ne peut ignorer qu’elle était encore loin d’être effective jusque-là, mais les formes potentielles d’inégalité, qui tiennent par exemple aux différences de performance ou de conditions d’étude entre établissements, sont moins évidentes à l’échelon de l’école primaire. Elles ne préoccupent guère les parents qui s’attachent à d’autres dimensions bénéfiques à une scolarité réussie, comme la qualité de la socialisation et le respect des différences de rythme d’apprentissage : c’est ce qui explique que la grande majorité des enfants continuent d’être scolarisés dans l’école publique de secteur et que la carte scolaire est peu remise en cause à ce niveau. Si des inégalités entre élèves, on passe aux inégalités entre écoles, si ces inégalités sont affichées via la publication des données comparatives et transformées en argument publicitaire, les évaluations contribueront à un effet non souhaité en exacerbant l’attractivité de certaines écoles au détriment d’autres et en suscitant une concurrence inédite entre écoles primaires.

Conclusion

76

Face à l’exacerbation de la controverse et pour répondre aux dénonciations des contradictions du dispositif, les parties prenantes de la dispute autour des évaluations des élèves de l’école élémentaire ont tenté dès le début de provoquer une négociation qui débouche sur un compromis. Il s’est agi en particulier pour les responsables de l’Éducation nationale de mettre fin à la dispute la plus visible, fondée sur l’action collective (pétitions, sollicitations d’interviews, publications sur les sites syndicaux, refus de mener les évaluations ou de « remonter » les résultats). Diverses stratégies ont été utilisées pour ce faire.

77

En juin 2009, le Ministère avait pensé déminer le terrain en offrant, par décret, une prime de quatre cents euros pour rémunérer le travail supplémentaire généré. Bien au contraire, la prime a soulevé de nouveaux débats car elle introduit une inégalité de traitement entre ceux qui en bénéficient et les autres et elle est soumise à un seuil (nombre d’élèves). Faisant fi des « critères classants » (qualification et ancienneté) (Lallement, 2008) auxquels les enseignants sont attachés, la prime participe d’une nouvelle gestion des ressources humaines qui peut être interprétée de façon négative : « Encore une fois le Ministre divise pour mieux régner », traduit ainsi une enseignante (OF, 16/01/09) ou encore : « S’il y en a un ou deux qui sont fauchés, ben du coup ils veulent avoir les CM2 », s’indigne Marion (CM2, 39, p., m., SNUipp), qui l’a « filée aux caisses de solidarité ». La prime génère d’autres doutes : « Si c’est aussi important que ça d’évaluer les élèves, pourquoi mettre en place cette prime ? », interroge Joël Blanchard du SNUipp (OF, 05/02/10). D’ailleurs, si les enseignants montrent publiquement peu d’intérêt pour la prime, c’est parce qu’ils savent – surtout les membres actifs des syndicats – que s’en préoccuper pourrait révéler un intérêt égoïste ; or, pour que leur dénonciation monte en généralité, ils doivent se préserver du soupçon de poursuivre des intérêts individuels et privilégier visiblement le bien commun, ce qui rendra recevables leur plainte et les arguments qui la sous-tendent (Dutercq & Lafaye, 2003).

78

Voulant répondre aux critiques, le Ministère a aussi revu l’évaluation, qui n’est plus strictement binaire, et a aménagé les questions. Ces changements ont permis un relatif apaisement des tensions, comme en témoigne la diminution des occurrences de la dénonciation dans la presse. Pour certains, tels que Christian (CM2, dir., 38, p., m.), les évaluations, désormais acceptées, donnent des repères sur les attendus, incitent à recevoir les parents, qu’il a rencontrés individuellement, et à mettre en place des remédiations : « Je prends les différents domaines où l’enfant n’est pas en réussite et ensuite, chaque semaine, j’ai deux temps d’une heure pendant lesquels je fais des ateliers. » Dans d’autres établissements, les évaluations ont permis aux maîtres d’ajuster leurs exigences et de varier les exercices. Certains pensent même que les évaluations pourront servir à « adapter les programmes » (Flavie, CM2, 28, pr., df.). Mais le risque n’est-il pas alors un rétrécissement du curriculum, comme le pointe Nathalie Mons (2009) ?

79

Enfin, pour calmer les esprits sur un chapitre idéologiquement très délicat, le Ministère a procédé à un changement de discours, à travers la voix du Directeur général de l’enseignement scolaire, qui veut couper court aux dénonciations de marchandisation : « Il ne pourra pas y avoir ainsi de mise en concurrence des écoles. Pas question de créer un marché scolaire » (OF, 16/01/09).

80

Est-ce pour autant que les évaluations ne sont plus une épreuve ? Sans doute pas. Les tensions sont restées fortes et, quand bien même les évaluations sont parfois devenues routinières, elles continuent pour beaucoup à porter un regard délégitimant sur le travail enseignant. Un point disputable est même aggravé : les évaluations en CM2 sont déplacées au mois de mai, comme celles de CE1.

81

Cependant, la décision de Vincent Peillon, ministre du gouvernement de gauche nommé en mai 2012, de maintenir le principe des évaluations mais sans exiger de remontée des résultats modifie fortement la donne en offrant des gages à ceux qui dénonçaient par dessus tout le risque de mise en concurrence des écoles et d’instauration du consumérisme dans l’enseignement primaire. Mais les décisions du nouveau ministre font-elles vraiment pièce à une logique de quasi-marché, clairement installée dans le second degré français et qui agit déjà indirectement sur le premier degré ? Le quasi-marché se propage en effet comme mode de régulation privilégié dans toutes les institutions publiques où prévaut le pilotage par la performance : comment l’école pourrait-elle faire exception, tant on a vu que son fonctionnement n’échappe désormais plus aux règles communes de l’action publique (Dutercq, 2011) ?

82

Il faut enfin constater que ces évaluations sont institutionnalisées et que la question n’est plus pour les responsables politiques et les experts de savoir s’il faut les conserver (Crahay, 2009) mais bien de comment les mettre en œuvre de la façon à la fois la plus efficace et la plus acceptable. Alors que le rapport du Haut Conseil de l’Éducation, dans un avis de septembre 2011, les jugeait « peu fiables », « partielles », « trompeuses », « ne pouvant servir de support à l’élaboration rigoureuse d’un indicateur de pilotage », on peut s’attendre à ce que de nouvelles modalités d’évaluation de l’école élémentaire voient le jour et redonnent toute leur place aux nombreuses parties prenantes de l’évaluation. Le débat risque donc d’être encore vif entre d’une part ceux qui considèrent qu’il est légitime de demander à l’école d’être efficace, avec un contrôle passant par la mesure des résultats des élèves, et d’autre part ceux qui refusent que l’école soit assimilée à une entreprise et les enseignants évalués selon leur rendement.


Bibliographie

  • Ball S. J. & Youdell D. (2008), Hidden Privatisation. Research Report, Brussels, Education International.
  • Ballion R. (1982), Les Consommateurs d’école, Paris, Fayard.
  • Becker H. (1952), « Social-Class Variations in the Teacher-Pupil Relationship », Journal of Educational Sociology, 25-8, pp. 451-465.
  • Berrebi-Hoffmann I. (2010), « Évaluation et élitisme : d’une alliance à l’autre », Cahiers internationaux de sociologie, vol. CXXVIII/CXXIX, pp. 79-90.
  • Boltanski L. (1990), L’Amour et la Justice comme compétences. Trois essais de sociologie de l’action, Paris, Métaillié.
  • Boltanski L. & Thévenot L. (1991), De la justification. Les économies de la grandeur, Paris, Gallimard.
  • Cohen E. & Henry C. (1997), « Service public, Secteur public », Rapport du Conseil d’Analyse Économique.
  • Crahay M. (2009), « Articuler l’évaluation en classe et le pilotage des systèmes, est-ce possible ? », in Mottier Lopez L. & Crahay M. (dir.), Évaluations en tension. Entre la régulation des apprentissages et le pilotage des systèmes, Bruxelles, Paris, De Boeck, pp. 235-251.
  • Deleau M. et al. (1986), Évaluer les politiques publiques, Méthodes, déontologie, organisation, Rapport du groupe de travail « Méthodes d’évaluation des politiques publiques » auprès du Commissariat général du plan, Paris, La Documentation française.
  • Demailly L. (dir.) (2001), Évaluer les politiques éducatives. Sens, enjeux, pratiques, Bruxelles, De Boeck.
  • Demailly L. (2003), « L’évaluation de l’action éducative comme apprentissage et négociation », Revue française de pédagogie, vol. 142, pp. 115-129.
  • Derouet J.-L. (1992), École et Justice. De l’égalité des chances aux compromis locaux, Paris, Métailié.
  • Derouet J.-L. & Dutercq Y. (1997), L’établissement scolaire. Autonomie local et service public, Paris, ESF.
  • Duru-Bellat M. (2009), « Évaluation externe du système éducatif et ressenti des acteurs », in Mottier Lopez L. & Crahay M. (dir.), Évaluations en tension. Entre la régulation des apprentissages et le pilotage des systèmes, Bruxelles, Paris, De Boeck, pp. 47-59.
  • Dutercq Y. (2000), Politiques éducatives et évaluation. Querelles de territoires, Paris, Puf.
  • Dutercq Y. (dir.) (2005), Les Régulations des politiques d’éducation, Rennes, PUR.
  • Dutercq Y. (dir.) (2011), Où va l’éducation entre public et privé ? Bruxelles, De Boeck.
  • Dutercq Y. & Lafaye C. (2003), « Engagements et mobilisation de parents autour de l’école. Les actions pour le maintien en ZEP d’écoles parisiennes », Revue Française de Sociologie, 44-3, pp. 469-495.
  • Elster J. (dir.) (1985), The Multiple Self, Cambridge, Cambridge University Press.
  • Émin J.-C. & Villeneuve J.-L. (2009), Évaluer l’évaluation. Actes du colloque organisé par l’Iréa, Paris, Le Manuscrit.
  • Garcia S. & Montagne S. (2011), « Pour une sociologie critique des dispositifs d’évaluation », Actes de la Recherche en Sciences sociales, 189, pp. 4-15.
  • Giglione R. & Matalon B. (1978), Les Enquêtes sociologiques : théories et pratiques, Paris, Armand Colin.
  • Goffman E. (1974), Frame Analysis. An Essay on the Organization of Experience, Harvard, Harvard University Press.
  • Gomel B. (2003), Défense et illustration d’une approche de l’évaluation, CEE, http://www.cee-recherche.fr/fr/fiches_chercheurs/texte_pdf/gomel/BGsemeval03.pdf, consulté le 15 oct. 2011.
  • Groux G. (1996), Le Conflit en mouvement, Questions de politique, Paris, Hachette.
  • Haroche C. (2010), « L’inévaluable dans une société de défiance », Cahiers internationaux de sociologie, vol. CXXVIII/CXXIX, pp. 53-78.
  • Haut Conseil de l’Éducation (2011), « Les indicateurs relatifs aux acquis des élèves », http://www.cafepedagogique.net/lexpresso/Documents/docsjoints/hceindicateurs2011.pdf, consulté le 1er oct. 2011.
  • Honneth A. (2000), La Lutte pour la reconnaissance, Paris, Le Cerf.
  • Lafontaine D., Soussi A. & Nidegger C. (2009), « Évaluations internationales et/ou épreuves nationales : tensions et changement de pratiques », in Mottier Lopez L. & Crahay M. (dir.), Évaluations en tension. Entre la régulation des apprentissages et le pilotage des systèmes, Bruxelles, Paris, De Boeck, pp. 63-80.
  • Lallement M. (2008), « Le travail et ses transformations. Une lecture sociologique », Revue française de gestion, 2008/10, n°190, pp. 43-55.
  • Maroy C. (2006), École, régulation, marché. Une comparaison de six espaces scolaires locaux en Europe, Paris, Puf.
  • Maroy C. (2011), « Le changement de regard sur l’enseignement privé : le symptôme d’un changement de paradigme », in Y. Dutercq (dir.), Où va l’éducation entre public et privé ? Bruxelles, De Boeck, pp. 57-71.
  • Martuccelli D. (2006), Forgé par l’épreuve. L’individu dans la France contemporaine, Paris, Armand Colin.
  • Martuccelli D. (2010), « Critique de la philosophie de l’évaluation », Cahiers internationaux de sociologie, vol. CXXVIII/CXXIX, pp. 27-52.
  • Meunier M. (2009), « L’apport des analyses d’efficience à l’évaluation des établissements », in Mottier Lopez L. & Crahay M. (dir.), Évaluations en tension. Entre la régulation des apprentissages et le pilotage des systèmes, Bruxelles, Paris, De Boeck, pp. 101-126.
  • Merle P. (2011), « La carte scolaire et son assouplissement. Politique de mixité sociale ou de ghettoïsation des établissements ? », Sociologie, n°1, vol.2/2011.
  • Mons N. (2009), « Effets théoriques et réels des politiques d’évaluation standardisée », Revue française de pédagogie, n°169, pp. 99-140.
  • Normand R. (2005), « La mesure de l’école : de la tradition statistique à la modernité économétrique », Éducation et Sociétés, 2005/2, n°16, pp. 209-226.
  • Normand R. & Derouet J.-L. (2011), « Évaluation, développement professionnel et organisation scolaire », Revue Française de Pédagogie, n°174, pp. 5-19.
  • OCDE (2010), Résultats du PISA 2009 : synthèse, http://www.oecd.org/dataoecd/33/5/46624382.pdf consulté le 1er octobre 2011.
  • Pons X. (2010a), Évaluer l’action éducative, Paris, Puf.
  • Pons X. (2010b), « L’urgence des évaluations CE1 et CM2 : réflexions sur une méthode de gouvernement », Administration et éducation, n°125, pp. 51-56.
  • Pons X. (2011), L’évaluation des politiques éducatives, Paris, Puf.
  • Prost A. (2009), « Conclusions sur la 1ère journée » in Émin J.-C. & Villeneuve J.-L., Évaluer l’évaluation, Actes du colloque organisé par l’Iréa, Paris, Le Manuscrit, pp. 157-163.
  • Thélot C. (1994), « La valeur ajoutée de chaque lycée », Bulletin officiel du Ministère de l’Éducation nationale, n°24, 1994.
  • Thélot C. (2009), « Le rôle de la France », in Émin J.-C. & Villeneuve J.-L., Évaluer l’évaluation. Actes du colloque organisé par l’Iréa, Paris, Le Manuscrit, pp. 169-175.
  • Viveret P. (1989), L’évaluation des politiques et des actions publiques. Rapport au Premier Ministre, Paris, La Documentation française.
  • van Zanten A. (2001), L’école de la périphérie. Scolarité et ségrégation en banlieue, Paris, Puf.
  • van Zanten A. (2009), Choisir son école. Stratégies familiales et médiations locales, Paris, Puf.

Notes

[*]

Professeur d’Université, Sciences de l’éducation

CREN, Université de Nantes – Chemin de la Censive du Tertre – BP 81227 – 44312 Nantes cedex 3

yves.dutercq@univ-nantes.fr

[**]

Maître de Conférences, Sciences de l’éducation

CREN, IUFM/Université de Nantes – Chemin de la Censive du Tertre – BP 81227 – 44312 Nantes cedex 3

xaviere.laneelle@univ-nantes.fr

[1]

La DEPP existe sous diverses appellations depuis 1987.

[2]

Nous tenons à remercier tout particulièrement Alexandra Nguyen qui a réalisé nombre de ces entretiens. On trouvera la retranscription d’un entretien avec un des directeurs d’école rencontrés sur le site de la revue (http://sociologie.revues.org/1447).

[3]

Nous abrégerons les caractéristiques des interviewés : 33 pour 33 ans ; p./pr. pour école publique/privée ; f./m./df. pour public favorisé/mixte/défavorisé.

[4]

Les articles émanent en majorité de l’hebdomadaire spécialisé édité par Le Monde, La lettre de l’éducation, où on trouve 22 articles parmi les 64 livraisons sur la période.

[6]

Nombre retenu par l’ensemble de la presse.

[7]

Conseil des ministres du 7/10/09 sur : http://www.gouvernement.fr/gouvernement/l-evaluation-des-acquis-des-eleves-a-l-ecole-primaire.

Le grand public, ce sont d’abord les parents (« informer les parents et leur permettre de suivre les progrès de leur enfant »), mais pas seulement, comme le fait ressortir le reste de la déclaration.

[8]

Sans diplôme d’études secondaires, ni diplôme professionnel ni diplôme accordé dans le cadre d’une autre formation (DEPP, note d’information 08-05).

[9]

Daniel fait référence aux réseaux d’aide spécialisée aux élèves en difficulté (RASED).

[11]

De 1979 à 1988, les évaluations sont principalement des évaluations bilans, épisodiques et dans quelques disciplines.

[12]

Pour exemple, la notion de « déterminant possessif » remplace celle d’« adjectif possessif ».

[13]

La loi de finances a un volet concernant l’enseignement scolaire public du premier degré, le projet annuel de performance (PAP), http://www.performance-publique.budget.gouv.fr/farandole/2011/pap/pdf/PAP2011_BG_Enseignement_scolaire.pdf consulté le 15 octobre 2011.

[14]

Le dispositif de l’éducation prioritaire prend le nom de Réseaux ambition réussite (RAR) en 2006 puis Écoles, collèges et lycées pour l’ambition, l’innovation et la réussite (ECLAIR) en 2011.

[15]

Le baccalauréat 2006 a coûté 38 millions €, http://www.senat.fr/rap/r07-370/r07-37038.html, consulté le 15 octobre 2011.

[16]

Maroy a étudié le cas des pays anglo-saxons mais aussi celui de six pays européens dont la France.

[17]

La FCPE s’associe aux syndicats pour dénoncer la marchandisation mais a du mal à la contenir.

Résumé

Français

L’évaluation à l’école élémentaire s’inscrit dans un contexte général d’évaluation de l’action publique exigée par la nouvelle gouvernance à des fins d’amélioration de son efficacité et de son efficience. En raison des incertitudes et des tensions qui l’accompagnent, l’évaluation est une épreuve pour les enseignants concernés, car elle se heurte à leur conception du métier et à certains principes qu’ils défendent. Les tensions s’expriment dans une dispute faite de prises de parole et d’actions individuelles ou collectives. Le calendrier, les modalités (questions aux élèves, barème, nature de la mesure, effectivité de son efficacité et de son efficience) font l’objet de cette dispute. Enfin ces tensions témoignent souvent de la crainte de la propagation de la logique marchande à l’école.

Mots-clés

  • évaluation
  • école élémentaire
  • tension
  • épreuve
  • justification

English

A quarrel over pupils’ evaluations in French primary schoolEvaluation in primary school takes its place within a general context of evaluation of the public action required by the new public management, the aim being the improvement of its performance and efficiency. Because of the uncertainties and the strains attached to it, evaluation is an ordeal for the concerned teachers because it clashes with their job conception and with some principles they defend. These strains are reflected in a quarrel that includes voicing opinions and acting, individually or collectively. The calendar, the modes (the questions addressed to the pupils, the scale of marking, the nature of the measure, the effectiveness of its performance and its efficiency) are the objects of this quarrel. Finally these strains often testify to the fear of the spread of the market logic into school.

Keywords

  • evaluation
  • primary school
  • strain
  • ordeal
  • justification

Plan de l'article

  1. L’évaluation comme épreuve
    1. Incertitudes et tensions
    2. Justification et difficulté d’accord sur ses principes
    3. La manifestation des tensions
  2. Des arguments recevables mais disputables
    1. La recherche d’une efficacité globale
    2. Un calendrier inadapté aux objectifs
    3. Cent questions posées
    4. La question de la mesure
  3. La crainte du modèle entrepreneurial
    1. L’efficience, un point aveugle
    2. Une logique marchande tabou
    3. Les externalités négatives du quasi-marché
  4. Conclusion

Pour citer cet article

Dutercq Yves, Lanéelle Xavière, « La dispute autour des évaluations des élèves dans l'enseignement français du premier degré », Sociologie, 1/2013 (Vol. 4), p. 43-62.

URL : http://www.cairn.info/revue-sociologie-2013-1-page-43.htm
DOI : 10.3917/socio.041.0043


Article précédent Pages 43 - 62 Article suivant
© 2010-2014 Cairn.info
back to top
Feedback