samedi 1 décembre 2012

Passer l'agrégation plutôt que le CAPES, encore une question d'actualité ?

En ces périodes de réforme éducative et de problèmes d'effectifs, la position du concours de l'agrégation face au CAPES se pose. Étant titulaire de l'agrégation de chimie, je vais plus parler de cette agrégation en particulier.

L'agrégation : un concours dépassé ?

L'institution de l'agrégation est plutôt âgée, en effet le concours est plus que séculaire. Si l'aura du concours attire toujours des étudiants pour passer ce concours prestigieux, la différence entre la réalité du métier est la façon dont il est perçu est significative.

Le nombre de places a fortement diminué : une trentaine de places à l'agrégation de chimie. Du coup, seuls les étudiants de quelques préparations très spécialisées et de bon niveau se partagent le gâteau (80 à 90% minimum des étudiants proviennent du trio ENS Lyon/ENS Cachan/université de Strasbourg).  Les miettes restantes sont laissées aux personnes préparant le concours à l'ENS Ulm, l'université de Lille, Toulouse et quelques autres rares exceptions. Par conséquent, statistiquement, le lieu ou vous préparez le concours conditionne très fortement votre chance de réussite. Bien sûr, il y a toujours des gens n'étant pas passés par ces établissements qui réussissent, mais ce ne sont que des exceptions qui confirment la règle. Le concours devient ainsi très fortement endogène avec des profils stéréotypés avec des gens qui ont le plus souvent fait le parcours classe prépa, normalien/auditeur, agrégé (j'en fais partie). Les ENS ouvrent leur portes pour les années de préparation à l'agrégation, ce qui permet tout de même une ouverture aux ingénieurs ou aux personnes issues des universités.

De plus, le très faible nombre de candidats augmente le facteur chance aux oraux. Bien évidemment, la sélection effectuée par le jury est objective et juste en fonction de ce qui lui est présenté, mais le fait de tomber sur une leçon que vous aimé ou que vous avez bien préparé peut directement apporter quelques points qui font toute la différence entre le fait d'être admis ou recalé. 

Aller au delà des idées reçues sur le mouvement spécifique

Une fois le diplôme obtenu, un agrégé est-il destiné à enseigner en prépa ? En chimie, la réponse est NON. Contrairement aux légendes universitaires, les agrégés n'ont pas une place réservée en prépa, bien au contraire. Après avoir ouvert des prépas un peu partout en France, l'État est en train de fermer de nombreuses prépas considérées comme trop petites. Ainsi, à la sortie du concours, seulement quelques (rares) postes sont proposés à quelques personnes triées sur le volet dans le top 5 du concours. Pour ceux qui ont décidé de faire une thèse après avoir réussi le concours, c'est à peu près la même chose : il y a seulement quelques postes proposés.


En BTS et autres spécialités, les choses ne sont pas très différentes.  Le jury peut juste aller chercher plus loin dans la liste pour trouver des candidats au profil spécifique correspondant.

La réduction du nombre de postes au concours est donc logique. Mais comme il y a surplus de professeurs de physique-chimie dans beaucoup d'académies, il n'est pas rare que les titulaires du CAPES ou de l'agrégation soient envoyés enseigner des mathématiques. La chute du piédestal peut être rude.

Le mouvement normal


La situation étant bloquée pour le mouvement spécifique, il y a donc un nombre grandissant d'agrégés qui finissent au lycée, en collège ou remplaçants (TZR). Pour ceux-là, leur position face à des certifiés est alors difficile à défendre. En effet, un salaire plus élevé et moins d'heures pour le même métier, cela vous choque ? On a alors deux classes de professeurs qui s'affrontent sans rien avoir demandé. En effet, lorsque l'on a un service de 15h au lieu de 18, on peut être facilement repéré. Cette différence peut sembler d'autant plus injuste que maintenant les deux concours se passent au niveau MASTER 2.

De plus, une fois dans le système classique de mutation de postes dans le secondaire, les agrégés sont traités sur un pied de (presque) égalité avec les certifiés. En effet, pour les mutations inter-académiques, les critères de points sont identiques et sont plus basés sur l'ancienneté et la situation familiale que sur des critères « carriéristes ». La différence peut ensuite se faire avec certaines académies qui accordent quelques bonus aux agrégés pour leur attribuer des postes en lycée.

Le différentiel de points entre agrégés et certifiés peut être de quasi-nul (à Lyon par exemple) à très élevé (à Lille ou dans la région parisienne par exemple). Il faut donc faire attention à son choix de localisation pour savoir si on peut rentabiliser sa « différence ».

Il y a alors deux stratégies qui s'affrontent :
  • Aller en région parisienne (ou l'académie d'Amiens) pour avoir un poste qui est souvent intéressant (titulaire en lycée, avec des classes à concours) pour ceux qui ont peu de points (pas de rapprochement de conjoint et/ou pas d'enfant)
  •  Ceux qui peuvent rester en province au mouvement inter-académique après leur année de titularisation mais au risque de rester plusieurs années remplaçant (entre 6 et 7 ans dans l'académie de Lyon)
Quant au mythe du professeur agrégé qui n'est pas au collège, il faut être prudent, les TZR (remplaçants) n'ont pas de niveau attribué donc rien ne les empêche d'aller donner des cours au collège ou d'être rattachés à un collège.

Tout n'est donc pas rose au pays de l'agrégation. Pourtant, la différence reste..

L'agrégation : un concours plein d'avenir ?

Pour ceux qui veulent tout de même enseigner dans le supérieur, il existe une troisième voie : le statut de PRAG. En effet, un PRAG est un professeur l'université qui ne fait que de l'enseignement (384 heures annuelles). C'est donc une opportunité pour les agrégés d'enseigner dans le supérieur. Le recrutement étant sur concours, il n'y a pas de point ni d'ancienneté qui compte, mais une concurrence  directe face à d'autres agrégés. En prime, vue que la voie n'est pas très connue, peu de personnes se présentent sur les postes, ce qui permet d'avoir de bonnes chances d'être reçu. Le seul hic, il faut bien qu'il y en ait un, c'est que le salaire n'est clairement pas le même qu'en prépa (ou même en lycée). Pourquoi ? Il manque les primes qui peuvent être très intéressantes financièrement (heures de colles, primes ou heure supplémentaires annuelles). Cependant, les universités étant dans de grandes villes, rien n'empêche d'essayer d'obtenir quelques heures de colle dans la prépa d'à côté. Le statut de PRAG à l'université n'étant pas forcément bien reconnu, on peut avoir beaucoup de TD et de TP pour peu de cours. L'avancement se fait également essentiellement à l'ancienneté, déjà que les gens « dans le système » se font peu inspecter, à l'université, la carrière avance en général encore plus lentement. Ce qui fait qu'en fin de carrière, il peut y avoir une différence assez notable même avec un autre agrégé enseignant au lycée ... en défaveur du PRAG.

Cependant, les enseignements à la faculté sont plus variés, sur une carrière complète, il est plus facile de diversifier ses enseignements qu'en prépa. En effet, en prépa, les programmes bougent peu et les changements de classe ont lieu peu de fois en cours de carrière. À l'inverse, au sein des universités, il est plus facile de trouver un cours vacant. De plus, comme il n'y a pas de programme, il est plus facile d'imprimer un ton personnel sur son cours.

Pour finir, le statut de PRAG permet de directement atterrir dans une « grande » ville. À l'inverse du chemin classique des enseignants au collège lycée qui souvent commencent loin de la ville principale de l'académie et qui se rapprochent au fur et à mesure de leur ancienneté.

Au delà de l'intérêt pour les agrégés eux-mêmes, il me semble que l'état aurait tout à gagner de mettre en place plus d'agrégés à l'université : ils coûtent moins cher qu'un maître de conférence car ils ne font pas de recherche et sont enclins à pouvoir faire du travail administratif qui est extrêmement lourd pour les maîtres de conférence. À titre personnel, je pense qu'il serait préférable d'avoir 3 maîtres de conférence et 1 PRAG (pour 768 h d'enseignement) avec des maîtres de conférence à 128 h (2/3 du service actuel) et un PRAG à 384 h. Les maîtres de conférences auraient une part d'enseignement allégée, ce qui leur permettrait de mieux faire leur travail de recherche. Cela voudrait tout de même dire une "demi-part" de recherche en moins, cela pourrait être contrebalancé en redistribuant cette part recherche (en termes budgétaires) sur les 3 maîtres de conférence restants -- c'est une vision pragmatique ou utopiste vu le manque de moyens de l'université, mais bon... De plus, cela pourrait permettre d'augmenter l'efficience de l'enseignement et pourrait éviter des échecs en début d'orientation à la faculté avec des gens entièrement consacrés à l'enseignement.

De plus, la qualité des enseignements ne serait pas affectée, car les maîtres de conférence sont aujourd'hui recrutés et notés uniquement sur leur partie recherche. Tous ne s'y consacrent donc pas forcément à plein temps (ce qui ne veut pas dire qu'ils le font mal). Ceci dit, limiter les cours donnés par des agrégés à des cours de licence serait relativement juste pour laisser les points plus techniques et spécifiques à des maîtres de conférence à priori plus en pointe dans le domaine.

Conclusion

Pour élargir le champ d'action des agrégés, pour lequel aujourd'hui l'enseignement en classe préparatoire est devenu marginal, il pourrait être bon d'ouvrir les universités à ces personnes pour pouvoir d'une part alléger la charge administrative des maîtres de conférence tout en contrôlant le budget. L'existence même du concours (re?)prendrait alors tout son sens face au CAPES avec des professeurs ayant des missions plus distinctes sans forcer les plans de carrière ni empêcher des passerelles entre enseignement supérieur et secondaire.

Si vous êtes intéressés par les différents débouchés possibles après l'agrégation, vous pouvez également lire mon article intitulé "Les débouchés après l'agrégation, une petite vision des différentes options". Et si vous souhaitez passer le cap et candidater dans une préparation, vous pouvez lire mon article "Faut-il avoir fait l'ENS pour passer l'agrégation ?".


samedi 3 novembre 2012

Pourquoi Word ne devrait pas exister : ode à Latex

Les professeurs doivent de plus en plus fournir eux-même du contenu : énoncés de TP, leçons, examens. Et pour cela, il faut forcément passer par un logiciel de mise en page.

Aujourd'hui, Openoffice, Libreoffice et l'indéboulonnable Word sont donc les outils de choix pour de nombreux professeurs. Étant ardent défenseur du logiciel libre, l'utilisation des suites bureautique Office a déjà ma préférence, mais même celles-ci restent une pâle copie de ce qui est à mon sens idéal pour un professeur de sciences : Latex. Et pourtant, son utilisation reste marginale alors que Latex existe depuis les années 1980.

Les raisons sont assez simple : l'installation n'est pas intuitive : le logiciel de saisie est indépendant de Latex en lui même,  ce qui crée de la confusion. (Personnellement, je recommande texMaker qui gère l'UTF8 sous windows et Kile sous Linux pour les raccourcis qui sont personnalisables.) De plus, les débuts sont relativement ardus s'il n'y a personne pour nous guider.

Et pourtant, la distinction reste. En un coup d'œil, il est facile de distinguer un document tapé sous Latex d'un document tapé sous un éditeur « classique ».

Le principe de Latex

Le principe est relativement simple et devrait être familier à toute personne ayant déjà fait de l'HTML. Sous latex, plutôt que cliquer quelque part pour dire qu'on veut centrer, on l'écrit. Comme un navigateur internet, c'est lors d'une étape de « compilation » que Latex va lire le contenu, différencier le texte qui doit apparaître des commandes pour centrer, mettre en italique, etc.. Il va donc suivre les instructions écrites pour créer un document.

Word est un éditeur de type "WYSIWYG "(what you see is what you get, ce que vous faites est ce que vous voyez) alors que Latex est un éditeur "WYSIWYM" (What you see is what you mean, ce que vous avez est ce que vous voulez dire).

C'est la différence principale entre les deux systèmes et c'est tout ce qui fait la différence.

Pourquoi Latex, ça rebute ?

Dans Latex, les gens qui commencent tapent un peu de texte, compilent, et là, c'est le choc. En effet, de base, Latex n'accepte pas les accents et les marges sont énormes pour quelqu'un habitué à Word. Ça commence très mal. Et c'est là que commence la course aux package et aux options.

Latex marche par package, plutôt que d'avoir toutes les fonctionnalités possibles de Latex chargées. Les fonctionnalités de bases sont limitées et progressivement, les packages permettent de rajouter des fonctionnalités et des commandes disponibles. Et là, heureusement qu'internet est là, en général, si vous tapez votre question, vous pouvez trouver une réponse qui vous donne le package à charger et les commandes qui vont avec.

Ce fonctionnement est bizarre, mais ça permet en général de faire en sorte qu'un document soit tout le temps le même, aussi bien sous Linux, Windows ou autre, que notre ordi soit récent ou vieux. Un fichier tex donnera à priori tout le temps le même document, même dans 30 ou 40 ans, car le système est extrêmement robuste, en effet, il date de 1991 !! Or si vous essayez de réouvrir un document Word vieux de 20 ans, vous risquez d'avoir des problèmes. De plus, ce fonctionnement permet d'avoir beaucoup plus de ressources sur internet car les packages évoluent peu et du coup, les réponses sur les forums restent en général valables pendant de nombreuses années alors que certaines fonctionnalités sont régulièrement chamboulées sous Open Office ou Word.

Par contre ça veut dire qu'il faut petit à petit trouver les packages qui vous intéressent et éventuellement les télécharger. Sous Linux, pour éviter de me poser des questions, j'ai téléchargé quasiment tous les packages existant. C'est votre connaissance de ces packages qui va faire de vous un « gourou » ou un simple utilisateur. Et les packages, c'est un peu comme les applications Iphone : il y a en pour tout : mettre des en-tête, intégrer des images, avoir un texte sur plusieurs colonnes, faire un poster, un examen, dessiner des objets, des molécules, des circuits électriques et j'en passe.

La taille des fichiers

Pour des professeurs qui travaillent ensemble, c'est plutôt agréable. Car à présent, les gens qui utilisent des docx ou autre cochonneries posent souvent des problèmes à leurs collègues qui n'ont pas la version dernier cri et qui n'est pas compatible avec la leur.

Le document tex étant de plus un simple fichier texte avec une extension, c'est en général extrêmement léger : un cours de 90 pages sans les images fait 300Ko et environ 20Mo tout compris (images+fichiers dérivés). Le document final fait 7Mo alors qu'il y a plein d'images.

Les images

La gestion des images n'est également pas très intuitive pour le quidam, mais au final assez pratique. Pour gagner de la place, Latex ne stocke pas les images directement dans le .tex. Il va les chercher sur votre disque dur à l'endroit indiqué. Donc si vous avez fait une erreur, il suffit de corriger directement l'image d'origine, elle sera automatiquement mise à jour dans le fichier final. Pas besoin de la réimporter en la copiant. Et Latex accepte directement d'intégrer des images au format vectoriel, ce qui permet d'avoir des images d'excellente qualité, aussi bien à l'écran qu'à l'impression.

Un conseil, utilisez pdfLatex pour compiler votre document, comme ça vous avez directement un pdf et les formats d'image que vous pouvez utiliser sont beaucoup plus nombreux : pdf, png, jpg (ça suffit).

De même, vous pouvez directement appliquer des transformations simples : homothétie, rotation. En général vous ne voyez pas en direct ce que vous faites. Il faut donc tâtonner pour avoir ce que vous voulez. Un peu d'expérience permet de prendre progressivement le coup de main.

Les commandes prédéfinies

C'est là la force extraordinaire de Latex : vous pouvez définir vous même des commandes pour faire certaines actions répétitives, par exemple, pour taper une dérivée, normalement, il faut dire que vous avez une fraction, taper la lettre "d" en roman pour indiquer que vous faites une dérivée en haut et en bas pour finalement mettre ce que vous dérivez par rapport à quoi.
Ce qui donne par exemple : $\dfrac{\mathrm{d}\,f}{\mathrm{d}\,x}$ pour dire que vous dérivez f par rapport à x. C'est plutôt lourd et pénible à taper, mais vous pouvez définir une commande pour automatiser le processus : en rajoutant cette ligne : \newcommand{\derd}[2] {\dfrac{\ch{d}\, #1}{\ch{d}\, #2}} vous n'avez ensuite plus qu'à taper $\derd{f}{x}$ pour exactement le même résultat, Word le fait avec des macros, mais le champs des possibilités est plus réduit et le nombre de personnes qui s'en servent est faible : à titre personnel, je n'ai encore vu personne qui s'en serve concrètement.
De plus, le fonctionnement sous Word n'est pas plus simple (ni plus compliqué). Vous pouvez ainsi rendre quasi automatique des séquences de texte qui correspondrait à plusieurs clics sous word avec un acronyme de votre choix. Pour un professeur de sciences, c'est inestimable de ne pas avoir à taper complètement la symbolique associée à une enthalpie de réaction mais un simple \drh par exemple. Vous pouvez ainsi être beaucoup plus constant sur un document, vous savez que tout sera correctement tapé avec un minimum d'effort. Les règles de typographie recommandées par l'IUPAC et l'IUPAP pour la rédaction  de documents scientifiques ne sont plus un calvaire mais  deviennent un outil intéressant.

Uniformité, mise en page

 De base, Latex contrôle énormément de détails de la mise en page, et ça ne correspond pas forcément à ce que vous voulez. Il faut ainsi parfois redéfinir certaines mise en page automatique. Ce n'est pas toujours très intuitif, même si des packages comme titlesec facilitent le processus. Et pourtant, le nombre limité de photocopies impose souvent de devoir avoir une mise en page très compacte.

Au final, une fois que vous avez trouvé comment faire, encore une fois, vous n'aurez plus à le refaire, il suffira de recopier la commande qui fait ce que vous voulez, ou encore mieux, mettre ces commandes dans un fichier commun pour tous vos documents et ensuite l'inclure dans votre fichier tex. J'ai ainsi pu mettre des titres en bleu cyan et des sous titres en rose souligné pour quelqu'un qui souhaitait cette mise en page pour s'y retrouver facilement dans son plan de cours. C'est comme les feuilles de styles CSS en HTML : à un endroit vous définissez le comportement et la mise en page, ensuite vous pouvez être concentré sur votre document et ne pas avoir à faire 50 000 clics pour vos formules, avoir un texte uniforme, etc. Il y a une vraie séparation entre le moment de la rédaction et le moment de la mise en page.

Conclusion

Latex, bien que rebutant pour les néophytes mérite vraiment d'être utilisé. En effet, avant de commencer, il faut passer une bonne demi-journée ou journée pour comprendre comment ça marche, mais une fois que l'on a compris les principes. Il devient alors possible de créer des documents très complexes ou correctement typographiés sans aucune difficulté. Le mieux est d'avoir quelqu'un qui connaît déjà un peu le système et qui puisse vous montrer tout ça. Pour les tâches complexes, vous pourrez trouver de l'aide sur internet. La solution a l'avantage d'être tout le temps la même (pas d'icônes déplacées selon les versions ou d'option inexistante). On peut ainsi créer des livres de plusieurs centaines de pages (400 pages, 29Mo) sans aucun problème en fractionnant les chapitres, avec une mise en page uniforme, respectant les standards typographiques, avec des espaces suffisants et un texte très lisible. De même, toutes mes correction du CAPES et de l'agrégation sont tapées sous Latex. Vous pouvez ainsi juger de la qualité d'un document complexe produit sous Latex.

Au passage, j'ai créé un cours complet de 130 pages avec une série d'exercices. Vous pouvez y jeter un coup d'oeil. 

P.S. Même en lettres, Latex arrive à attirer pour la structuration du contenu et son rendu : LaTeX appliqué aux sciences humaines.

samedi 16 juin 2012

Comment Amazon nuit à ses utilisateurs avec son interface médiocre

Amazon est est un leader de l'e-commerce, cependant, force est de constater que le design de leur site est de plus en plus catastrophique par rapport aux possibilités actuelles. Les critiques sont de plus en plus nombreuses et viennent d'entités relativement reconnues dans le domaine : Bret Victor, Jakob Nielsen, et beaucoup d'autres. Ces critiques sont de plus en plus percutantes quand on voit que sur la page d'un produit, le premier écran est majoritairement vide. L'espace est tellement sous utilisé qu'il faut aller aux deuxième ou troisième écran avant de trouver des informations pertinentes sur l'objet. De plus, l'usabilité de l'interface est médiocre avec beaucoup de données redondantes. C'est le succès de la plate-forme qui lui assure des clients fidèles malgré de nombreux défauts.

La page d'accueil d'un produit sur Amazon.fr Sur un écran de 1400*1050, on voit que presque la moitié n'est pas utilisée. Surtout à cause de ce bandeau kindle peu utile.

Avec un petit effort, ce même espace pourrait permettre de montrer bien plus d'informations pertinentes sur le produit. Pour la suite, je suis parti de la page de présentation d'Amazon.com pour le livre Successful Drawing d'Andrew Loomis.

La page présentée telle quelle sur amazon.com
 Sur la page originale, une très grosse partie est dédiée à la colonne de droite, pour l'achat du produit et la vente.

Dans la version refaite, la zone consacrée est un peu plus petite, mais est plus mise en valeur : la simplification permet de ne plus se perdre dans les options confuses.

Le prix ressort nettement et la description du livre peut être intégralement contenue sur la page ainsi qu'un peu de texte.

Un exemple de redesign du premier écran
On peut noter qu'il reste encore une zone blanche dans le redesign qui peut être consacrée aux détails sur l'envoi.

De plus, le titre ressort dorénavant de manière beaucoup plus nette qu'auparavant.
 
Sur la même surface, on a déjà commencé à augmenter la quantité d'information percutantes, tout en simplifiant les données affichées et en gagnant de l'espace. On a ainsi densifié l'information.

De manière volontaire, les lignes sont gardées relativement courtes, de manière à ne pas gêner la lecture avec un retour à la ligne difficile. Amazon a préféré un design extensible qui fait qu'avec une résolution de "seulement" 1024 pixels de large, les lignes sont déjà extrêmement longues.

Un agencement catastrophique

À gauche, la page originale, les zones bleus sont les zones inutilisées et les zones grises sont des zones redondantes. La deuxième colonne correspond à la page originale telle quelle, la troisième colonne représente le redesign. La quatrième colonne montre la taille d'un écran de 1024*768. La dernière colonne sert uniquement à montrer qu'au total l'ensemble des zones inutilisées correspond à environ 2 écrans et les zones redondantes à environ 1 écran.
Entre le facelift proposé et l'agencement obtenu sur amazon.com, j'arrive a réduire la longueur de la page d'environ 33% soit quasiment 2100 pixels de moins sur une page qui en fait originalement environ 6800. Certes, j'ai enlevé quelques bandeaux commerciaux redondant. Mais même en les ajoutant de nouveau, on économise encore environ 1400 pixels par rapport au design original. De plus, le redesign proposé est fait pour un écran de seulement 1024 pixels de large.

Le gain provient essentiellement de la suppression des espaces perdus. Cependant, j'ai gardé des zones blanches pour aérer la présentation.

Des outils mal mis en valeur

Alors que la version anglaise du site propose énormément d'outils, ces derniers sont extrêmement mal mis en valeur.

Au lieu de mettre les outils les uns à la suite des autres, une disposition sur trois colonnes permet d'économiser énormément de place sans perdre aucune information.
Les outils sont juxtaposés les uns derrières les autres avec une perte de place énorme pour trop peu de contenu. Le redesign permet de condenser la même information sur moitié moins de surface. Le texte et les images sont pourtant identiques et il reste même encore pas mal de place.


Conclusion

Le redesign proposé est encore loin d'être parfait, le but de cet article étant juste de montrer comment un léger réagencement des différents blocs permet non seulement de gagner énormément de place, mais en plus de structurer l'information sans perdre de contenu. En condensant l'information, les utilisateurs pourraient ainsi gagner en efficacité de manière dramatique. Il ne reste plus qu'à espérer que l'équipe design d'amazon se mette au travail sérieusement pour améliorer la mise en page et la mise en valeur de leurs produits. Malheureusement, leur site est extrêmement pauvre en contenu.  Le fichier du redesign est disponible ici, il fait environ 1 Mo et est au format SVG.

Je pense essayer de peaufiner le redesign dans les prochains jours en mettant au point une version HTML de la page.

mercredi 2 mai 2012

Les infographies pour le résultat des élections : des résultats peu lisibles (2)

Suite à mon dernier billet, je me suis dit qu'il était sûrement possible de réaliser des cartes qui sont plus parlantes. Pour cela, j'ai pris les données du ministère de l'intérieur sur le site data.gouv. J'ai également utilisé un fond de carte libre sur wikipédia.

J'ai ensuite crée un petit fichier pour traiter l'ensemble des données. Afin que l'ensemble soit facilement utilisable, j'ai rendu le tout légèrement animé pour que l'ensemble soit interactif.

Premier essai : l'abstention

La carte complète est disponible en cliquant sur le lien.
Ce premier essai donne déjà une bonne idée de ce qu'il se passe :
L'abstention est relativement élevé en Corse, en île de france et dans le Nord-Est. Les valeurs les plus élevées étant dans les DOM. (Je n'ai pas trouvé de carte qui donne les COM ou ex TOM). Cependant, je tombe dans le défaut des valeurs absolues non indiquées.

J'ai également fait un essai en traçant les frontières en noir.  Mais les contours détournent le regard et nous rendent moins sensibles aux variation de luminosité. Ce qui au final nous fait perdre de l'information : il est ainsi difficile de voir que les départements s'étant le moins abstenus sont le Lot, le Gers, la Vendée et les Côtes d'Armor.

Deuxième essai : Une légende améliorée pour analyser le vote pour quelques candidats

 Pour corriger le problème des valeurs absolues, j'ai un peu changé les choses pour améliorer la légende. J'ai donc ajouté la valeur moyenne, le maximum et le minimum, le tout étant ensuite replacé dans une contexte de pourcentage.

Une légende plus parlante pour les cartes : à gauche on donne le minimum,le maximum et la moyenne du pourcentage obtenu par le candidat, au centre on indique l'échelle de teinte. à droite, on donne la distribution du vote avec les différents quartiles afin de voir si le vote est très dispersé. Ici les données concernent Marine Le Pen.


Pour Jacques Cheminade, l'ajout de la légende permet de donner du contexte aux données : il a un score très faible et partout, la carte donnant sa position (voir plus bas dans l'article) dans chaque département est également révélatrice : il est tout le temps dernier. Dans la carte de droite, seule la lecture des valeurs permet de voir ce très faible écart et le résultat très faible, il faut comprendre et analyser la légende pour voir ce que nous dit la carte. À gauche, la légende résume l'ensemble du vote et permet de comprendre tout de suite que ce candidat est un « outsider ».


À l'inverse, pour Marine le Pen, on peut voir que la dispersion de ses résultats reste modérée avec de fortes exception pour les départements d'outre-mer et Paris. On voit également que le vote front national est surtout ancré dans les départements qui forment le pourtour de la méditerranée et le Nord-Est du pays.
L'ajout de la distribution du vote permet de voir que le premier quartile (en vert) est est relativement étendu et que le reste des résultats est relativement proche de la moyenne nationale.



Le vote pour François Hollande est quasiment l'exact opposé de celui pour le Front National avec une moitié est ou ses résultats sont beaucoup plus faibles. On note que la Corrèze est très attachée à son candidat avec plus de 40% des voix ainsi qu'un vote massif pour le candidat de gauche dans les DOM. On remarque également une plus forte dispersion que pour le vote Front National et le fait que pour le candidat de gauche, c'est le dernier quartile qui est très étendu.


Pour Nicolas Sarkozy on remarque que les zones où le Front National a un vote élevé sont relativement distinctes de celles où l'UMP a un fort pourcentage. Même si il y a quelques département (Bas-Rhin, Haut Rhin, Alpes-Maritimes) où les deux récoltent beaucoup d'électeurs. Il domine plutôt sur l'axe Strasbourg-Brest. On note également que les DOM sont divisés : pour Mayotte, il y a un très fort pourcentage pour le président sortant alors qu'il réalise son plus faible score à La Réunion. Comme pour François Hollande, on voit que c'est le dernier quartile qui est le plus étendu.

Le nombre de votants



Le cas le plus frappant est celui de  François Hollande, malgré « l'anomalie » Corrèze ou son score était très élevé, on voit que le nombre de votants pour François Hollande reflète plus la répartition géographique des français : on voit quasiment pour tous les candidats quelques départements se détacher : Le nord, Rhône-Alpes, les bouches du Rhône, la Gironde, La Loire-Atlantique et la région Parisienne. En effet, tous ces département avoisinent ou dépassent le million d'inscrit sur les listes électorales alors que la Lozère par exemple, représente seulement 60 000 inscrits! On a ainsi une vision qui complète la précédente avec cette deuxième carte : on peut pondérer le pourcentage par le nombre total de votants.

 La position

Le cas le plus intéressant est celui de Marine le Pen :
Tout le monde a pu voir que Marine le Pen était arrivée en tête dans le Gard, on sait également qu'elle est troisième au plan National. Mais ici, on peut voir simplement qu'elle est tout de même deuxième dans une quinzaine de départements, ce qui n'est pas du tout négligeable.


Pour François Hollande, on voit maintenant que les zones où il n'arrive pas premier sont situées sur deux axes distincts : l'un est-ouest qui correspond aux département où Nicolas Sarkozy a un pourcentage élevé et la frontière est qui est l'axe fort de Marine le Pen. On voit également qu'il arrive tout de même plusieurs fois en troisième position (environ 12 départements)

La somme de ses sous-ensembles ?

En juxtaposant ces différentes données, on cumule ainsi les indications et les indicateurs sur le vote pour un candidat. Sur une surface de 700×500 pixels, je réussis à combiner environ 400 données chiffrées de manière quantitative. On retrouve l'idée de petits multiples chère à Edward Tufte : il faut mieux une somme de petite représentation avec un angle de vue différent qu'une seule représentation détaillée. Toutes ces cartes indiquent des grandeurs différentes et pourtant elles reflètent toutes le vote. Comme quoi, une élection ne se réduit pas à une carte. Et encore, il manque de nombreuses données intéressantes. (l'écart à la moyenne nationale et l'évolution par rapport à l'élection précédente, par exemple)

Ces cartes sont réunies ici :
http://eolindel.free.fr/images/elections/
Le vote pour chaque candidat est donné dans la carte portant le nom du candidat avec le suffixe «.svg».
Les données sont également interactives : on peut cliquer sur un département et obtenir encore quelques informations supplémentaire. Même si elles ne sont pas complètes.

Conclusion

Les résultats sont ici donnés à une échelle que l'on peut caractériser de mésoscopique : les données sont moyennées à l'échelle des départements, ce qui lisse par exemple les différences qu'il peut y avoir entre les zones rurales et les zones urbaine.


Je suis en train de traiter les données pour les communes, cependant, leur nombre rend les choses un peu plus difficile ainsi que leur représentation spatiale : la carte, sans les données fait déjà 15 Mo et l'ensemble des données fait également 5 Mo, ce qui commence à faire beaucoup pour traiter l'ensemble sur un ordinateur de bureau classique.

Pour simplifier le problème, je me suis intéressé à la distribution des votes par candidat et par taille de commune. Les résultats sont assez frappants mais également assez prévisibles : le vote pour Marine Le Pen décroit très fortement avec la taille de la commune alors que c'est l'inverse pour François Hollande. Pour Jean-Luc Mélanchon et Nicolas Sarkozy, la taille de la ville influe peu sur la distribution du vote.

Il manque également des données comparatives entre candidats, cependant, cela demande alors d'autres données à fournir pour donner une vue plus réaliste. Car par exemple, le Monde compare les communes et les candidats mais en n'ayant pas la même échelle de couleur pour les deux candidats, ce qui encore une fois biaise le résultat. J'essaierai peut être de faire un carte comparative des deux candidats principaux pour les résultats du second tour.

lundi 23 avril 2012

Les infographies pour le résultat des élections : des résultats peu lisibles

Aujourd'hui, après un dimanche des plus électoral, on voit maintenant fleurir des infographies pour nous montrer le résultat des élections en fonction des zones géographiques. On peut donc en profiter pour voir que tous les journalistes ne savent toujours pas retranscrire une donnée chiffrée de manière lisible et rigoureuse.

Une légende, s'il vous plaît ?


Ici, aucune légende associée à la teinte de couleur, rien ne nous dis que la couleur la plus pale foncé correspond au vote le plus élevé.


Pour Le nouvel observateur, on peut noter un grave point négatif : le vote par candidat oublie carrément de nous donner une échelle pour nous indiquer à quelle teinte correspond un certain pourcentage des voix !! Nous sommes donc complètement plongés dans l'arbitraire.

Les valeurs absolues, ça compte


Résultats de François Bayroux. On peut remarquer que l'on a l'impression qu'il est bien placé en Pyrénées-Atlantique et en Mayenne alors qu'il est au mieux 3ème.


Pour Le figaro (comme le nouvel obs), on donne une échelle de teinte entre le score le plus faible et le plus fort. Le tout sans donner une indication sur la valeur absolue. On peut ainsi croire que Bayrou a fait un excellent score dans les Pyrénées-Atlantique alors qu'il n'est arrivé que troisième dans ce département avec « seulement » 15,67% des voix. (Et en Mayenne, il est même quatrième.) De plus, l'échelle de teinte n'a pas la même étendue, le score le plus faible n'étant pas toujours du blanc pur.


De la couleur, oui, mais pas à tout prix


On remarque ainsi que tout le monde cherche à représenter des données avec une couleur pour que le résultat soit associé à un parti politique, or le simple fait que l'œil ne soit pas toujours aussi sensible pour toutes les teintes fausse le résultat. On va ainsi pouvoir croire qu'il y a de fortes variations alors qu'en fait c'est simplement notre œil qui est le plus sensible.

Carte des résultats pour Jacques Cheminade, on peut voir des couleurs aberrantes puisque l'on passe du rose (typiquement associé à la gauche) au violet (qui étant une couleur froide est plutôt associé à la droite)


On voit que cela suscite quelques surprises pour les candidats de gauche où le rouge est la couleur dominante et où on se retrouve avec Philippe Poutou dans la même gamme de couleur que François Hollande alors que son score maximal est de 4% à ... Saint Pierre et Miquelon. Et pour finir, on se retrouve avec Nicolas-Dupont Aignant en violet, jaune ou bleu en fonction des journaux.

Le nombre total de votants, une donnée importante


Résultats par commune à gauche pour Sarkozy, à droite pour Hollande (on notera l'inversion par rapport au mouvement représenté).


Enfin, le quotidien Le monde nous gratifie d'une carte par commune, qui mélange des données géographique, plus il y a de communes au km², plus il y a de points et des données relatives : le score étant marqué d'un point plus ou moins coloré. On plonge alors dans un flou complet où une donnée essentielle est oubliée : le nombre de votant.

En effet, toutes les cartes oublient de représenter une donnée essentielle pour les résultats : ce qu'un pour cent d'un département représente en nombre de votants. Une carte par anamorphose donnerait ainsi une image relativement différente du scrutin : François Hollande arrive en tête en Corrèze et de loin, certes, mais cela veut-il dire que ce département est important pour l'élection ? Non !! Par exemple, les voix qu'il récolte dans le Val de Marne représente plus que le nombre total de votants en Corrèze. Pour une élection locale, peu importe, mais pour une élection nationale, ça compte.

Un peu d'ordre dans tout ça


Une autre donnée importante : la position. Avec plus de 20% certains arrivent en seconde position .. où peuvent être troisièmes. Dans une élection ou seuls les deux premiers sont retenus, ce facteur est également important. Une carte additionnelle où l'on indiquerait les positions serait également intéressante, surtout pour le Front National qui s'il est rarement en tête (sauf dans le Gard) est pourtant souvent second, mais alternativement devant Nicolas Sarkozy ou François Hollande.

Et si on compare ?


Le monde a l'avantage de présenter des comparaisons entre différents candidats etc.. Cependant, on manque encore d'une vision claire des résultats. Pourquoi ne pas pouvoir comparer les résultats de Nicolas Sarkozy à ceux de Marine Le Pen ? C'est également une donnée importante que très peu de sites fournissent.


 Conclusion

Il semblerait que l'ère du numérique n'a pas encore apporté toutes les améliorations que l'on pouvait attendre en terme de représentation du vote. Pour l'instant, cette représentation est encore biaisée de manière significative : couleurs arbitraires, manque de légende, variations représentées différemment, manque des valeurs absolues, ignorance du nombre total de votants, etc. Ces données, pourtant purement numériques devraient être représentées de manière beaucoup plus complètes.

Voilà une liste non exhaustive des données que l'on pourrait donner de manière à donner une vision plus claire de ces données chiffrées.
  • Score absolu
  • Score relatif
  • Position
  • Évolution par rapport à l'élection précédente.
  • Carte par anamorphose (ou plus, simple, poids de chaque département en nombre total de vote)
  • Écart à la moyenne nationale
Étant donné que le gouvernement met maintenant publiquement en ligne les données électorales, il ne reste plus qu'à espérer que certains géographes ou historiens puissent exploiter ces données pour nous donner un vision plus claire et objective du résultat. Cela semble d'autant plus « facile » que des cartes au format SVG sont maintenant disponibles gratuitement sur Internet. En attendant, je vous recommande la lecture des excellents livres d'Edward Tufte :

Ces quatre livres sont la bible, et je pèse mes mots de la mise en image des données.

mardi 3 avril 2012

La publication des corrigés de concours

Aujourd'hui, plusieurs modes de communication des corrigés sont disponibles et se concurrencent : publication dans une revue comme le BUP, publication en format directement lisible sur internet (type chimix, ou MathML), publication dans un livre (comme nous l'avons fait récemment pour les corrigés de l'agrégation) ou publication en format imprimable.

Ayant déjà utilisé la plupart de ces modes de diffusion, j'y vois différents avantages et inconvénients qui dépendent du type d'épreuve concerné.

 

Dans le BUP

La publication dans le BUP est conditionnée à l'acceptation de leur format de proposition d'article. Or pour les épreuves de chimie-physique ou de physique, la typographie sous Word est plutôt pénible et sous-entend être en mesure d'acquérir et faire tourner ce programme propriétaire. Ce qui est évidemment impossible sous Linux.

De plus, s'il y a une correction typographique, elle n'est pas forcément complète sur le plan scientifique (on peut le comprendre).
Ce genre de publication est très bénéfique sur le plan personnel (on peut la présenter comme publication pédagogique) et est directement attribuable. L'auteur restant propriétaire de son article, il peut le rééditer sous une autre forme ce qui peut être intéressant dans le cadre de la publication ultérieure d'un livre.

Cependant, on peut également se retrouvé non publié s'il n'y a pas suffisamment de corrections proposées pour éditer un tome. Ce qui semble être le cas ces dernières années pour les épreuves de l'agrégation de chimie. Le jury de physique publie de manière autonome les corrigés des épreuves. Ce qui est très appréciable pour les gens préparant ce concours car cela permet d'avoir une idée très précise de ce qui est attendu par le jury.

Pour résumer :
Les + : Publication officielle, propriété de l'article, notoriété.
Les - : Risque de non édition, format de soumission propriétaire, non revu par des pairs, difficulté de correction des erreurs, diffusion restreinte.

 

Dans un livre

La publication dans un livre, c'est sûrement ce qu'il y a de plus rigoureux et exigeant. Une relecture est souvent effectuée par un relecteur externe. La typographie y est cohérente sur plusieurs centaines de pages et l'effort de mise en page est plus important. Si la rédaction devient alors rémunératrice, elle se réduit à 12% sur le prix HT du livres pour l'ensemble des auteurs, soit pas grand chose.

Pour résumer :
Les + : Publication officielle, notoriété, rémunérateur, relecture par des personnes tierces, cohérence au sein de l'ouvrage.
Les - : Temps de rédaction plus long, nécessité de retaper les énoncés, exigences de l'éditeur, rapport argent/temps négligeable, difficulté de correction des erreurs.

 

Directement imprimable

La publication en pdf a l'avantage d'être universelle, et en fonction du logiciel utilisé peut permettre d'être très cohérent sur plusieurs sujets. C'est ainsi que j'ai crée un template pour les corrigés publiés sur mon site de manière à garder une cohérence tout en ayant des correcteurs variés.

Ce mode de diffusion peut permettre de cibler un public très large à moindre frais. Avec très peu de moyens, on touche une audience quasiment maximale du moment que le référencement se fait correctement. Le temps de publication peut ainsi être extrêmement court : la correction d'un sujet du CAPES peut être bouclée en une semaine tout compris en s'y mettant à temps presque plein.

Cela peut également permettre de rendre public une correction qui n'aurait pas sa place dans un livre car isolée dans le temps (une épreuve datant de plusieurs années par exemple). Le format est très simple à mettre en œuvre car non soumise à des exigences éditoriales.

Pour résumer :
Les + : Facilité de mise en œuvre, rapidité, adaptabilité, cohérence, facilité des corrections, public visé maximal.
Les - : Non revu par des pairs, concurrence, non rémunérateur, non officiel.

 

Lisible sur internet

La publication en format directement lisible sur internet est sujette à caution, en général, la lecture ne peut être que factuelle et le format n'est pas forcément adapté à l'impression. De plus, si avec MathML le rendu peut être très proche d'un fichier imprimable, l'étape de conversion peut être technique et pénible. Par exemple, même si j'ai crée un script pour cette étape à partir de mes sources Latex, cela ne reste pas généralisable.

Pour résumer :
Les + : Référencement, accès direct à une portion d'épreuve, document cherchable, facilité de correction
Les - : Conversion technique, impression difficile, non revu par des pairs, peu lisible, concurrence.

Le cas Chimix : sans vouloir faire du dénigrement, le site chimix est pour moi un site qui n'est pas voué à avoir une haute valeur ajoutée sur la correction pour différentes raisons.
  •  Le fait de mélanger les énoncés directement avec le corrigé empêché l'étudiant de pouvoir chercher la réponse. 
  • Il manque la numérotation des questions qui pourrait permettre de s'y retrouver facilement. 
  • Les corrigés sont fragmentés pour augmenter des statistiques de visite sans aucune cohérence. 
  • De plus, certaines questions peuvent être absentes, ou leur énoncé est modifié par rapport à l'original. 
  • La publicité également omniprésente rend compliquée la lecture de la correction. 
  • J'ai également relevé de nombreuses erreurs dans différents sujets. 
  • Les notations utilisées sont très approximatives (lettres grecques par exemple, qui sont pourtant accessibles en HTML) et peuvent rendre difficile la lecture du corrigé. 
  • La navigation est également relativement erratique, pour trouver le bon énoncé, il faut souvent jongler pas mal pour arriver au corrigé désiré. Il manque un classement par type de sujet, puis matière puis année. Cela prendrait certes plus de clics mais serait beaucoup plus limpide.
  • La qualité des différents graphiques est généralement relativement  faible.

Cependant, il faut rendre à César ce qui est à César : le site est tout bonnement hallucinant de contenu, la quantité de sujet est clairement énorme et les gens qui tapent les corrigés doivent être de vraies machines. De plus, j'avoue consulter régulièrement leur site lorsque je tape mes corrections de CAPES pour comparer mes résultats aux leurs. C'est seulement s'il y a une différence que je me préoccupe de voir qui a tord.

Conclusion

Aujourd'hui, pour moi, malgré des avantages divers, la publication des corrigés à l'aide d'un livre me parait être le plus gratifiant en terme de publication officielle alors que la publication en pdf s'avère être un des moyens les plus simples de mettre cette correction à disposition d'un public vaste. C'est pourquoi je publie de nombreux corrigés sous forme  uniquement numériques. Les corrigés de sujet d'agrégation, en raison du travail qu'ils demandent sont eux plus sujets à publication dans des livres pour rendre un minimum attractif la rédaction de corrigés très exigeants sur le plan scientifique.

Pour moi, le livre se place sur le domaine de l'exigence et la robustesse du propos tenu alors que la publication libre se place dans le domaine de la rapidité et de la notoriété rapide à moindre coût. Le livre que nous avons édité répond plutôt à un objectif professionnel alors que les nombreux corrigés annexes rédigés correspondent plus à un désir d'aide gratuite et sont pour moi un moyen de donner de la notoriété au site à moindre frais. Je suis quasiment sûr que les sujets de CAPES peuvent représenter une grosse source de trafic alors qu'ils sont bien moins exigeants que les sujets corrigés pour l'agrégation de chimie.

Edit du 23/6/2016 : Je suis maintenant passé intégralement aux corrections librement accessibles. En effet, la publication sous forme de livre restreint trop l'accès aux corrections alors qu'elles peuvent intéresser un public beaucoup plus large. De plus, j'accueille depuis plusieurs années des corrections rédigées par d'autres personnes. Cela permet de diversifier les auteurs de correction tout en centralisant leur publication. Et comme je n'ai plus trop le temps pour taper des corrigés intégraux, c'est très pratique  ! De plus, je garantie un accès libre et gratuit aussi bien aux correcteurs qu'aux personnes consultant mon site.

jeudi 29 mars 2012

Un blog pour le site

Je suis en train de tester Blogger pour compléter la page google+ au site. Je pense que les deux outils pourront être complémentaires avec Blogger pour les posts un peu plus longs et permanents alors que la page google+ sera plus là pour des commentaires spontanés et éphémères. On verra bien ce qui marchera le mieux sur le long terme.